# Wer erschafft künstliche Intelligenzen - und wer übernimmt Verantwortung für sie? Von Markus und Markus2 Zürich, 2025-08-10 --- ## Wer erschafft künstliche Intelligenzen? Weltweit stammen leistungsfähige KI-Systeme vor allem aus drei Bereichen: (a) grosse Technologieanbieter (z. B. OpenAI, Google/DeepMind, Anthropic, Meta), die ihre Modelle mit Model Cards und System Cards dokumentieren; (b) Hochschulen/Forschungskonsortien; (c) eine dynamische Open-Source-Community (z. B. Metas Llama-Reihe und diverse chinesische Start-ups, etwa DeepSeek, Zhipu oder 01.AI, aber auch Grössen wie Alibaba mit ihrer Qwen-Modellreihe). Beispiele für aktuelle, öffentlich dokumentierte Model Cards und System Cards sind OpenAIs GPT-4o System Card (2024), Anthropic Claude 3 (2024) sowie Gemini 2.5 (Google, 2025). Meta stellt für Llama 3/3.1 technische Model-Cards bereit. Diese Dokumente sind heute ein De-facto-Standard für Transparenz zu Fähigkeiten, Grenzen und Sicherheitsbewertungen. In der Schweiz hat der ETH-/EPFL(École polytechnique fédérale de Lausanne)-Verbund 2024 das SNAI (Swiss National AI Institute) gegründet und baut offene Infrastruktur und Forschung systematisch aus. Am 9. Juli 2025 kündigten ETH/EPFL/CSCS(Swiss National Supercomputing Centre) ein vollständig offenes, mehrsprachiges LLM an, trainiert auf dem Supercomputer “Alps”; Veröffentlichung im Spätsommer 2025. Das stärkt Transparenz, Prüfbarkeit und nationale Souveränität. International divergieren die Governance-Ansätze: Die EU setzt mit dem AI Act auf einen rechtsverbindlichen, risikobasierten Rahmen (Details unten); die USA haben Bidens Kurs widerrufen und verfolgen seit 2025 einen beschleunigungs- und beschaffungsorientierten Ansatz (inkl. General Services Administration (GSA)-Zulassung von OpenAI, Google und Anthropic am 5. Aug. 2025); China führt zum 1. Sep. 2025 eine landesweite Kennzeichnungspflicht für KI-generierte Inhalte ein. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai, https://www.reuters.com/world/us/us-agency-approves-openai-google-anthropic-federal-ai-vendor-list-2025-08-05/ ## Woher kommen die Informationen über die künstlichen Intelligenzen? • Produkt-/Anbieterangaben & Modellkarten: Seriöse Anbieter veröffentlichen Model/System Cards (Inhalt, Grenzen, Tests, bekannte Risiken) – z. B. GPT-4o, Gemini, Claude, Llama. Das ist die schnellste Quelle, um „wer, was, wie“ zu verstehen. • EU-Transparenzpflichten: Der AI Act verlangt u. a. Hinweise, wenn Nutzer mit KI interagieren, und die Kennzeichnung synthetischer Inhalte (Deepfakes). Für General-Purpose-AI (GPAI) gelten seit 2. Aug. 2025 spezifische Pflichten; die Kommission hat am 10. Juli 2025 einen GPAI-Code of Practice veröffentlicht, als freiwilliges Tool zur vorgezogenen Compliance. • Öffentliche Register (EU): Der AI Act sieht ein EU-Datenbank-Register für Hochrisiko-KI vor (Inkrafttreten der Registerpflichten ab 2026). Damit wird sichtbar, welche Hochrisiko-Systeme registriert sind und von wem (Anbieter/Modell). https://artificialintelligenceact.eu/de/article/71/ • Content-Provenance/Signaturen: Für einzelne Medieninhalte etabliert die C2PA-Spezifikation (Content Credentials) einen offenen Standard, der Herkunft/Änderungen digital signierbar macht – hilfreich, um KI-Erzeugnisse als solche erkennbar zu machen. https://c2pa.org/ ## „Weiss“ eine künstliche Intelligenz? Moderne Systeme (z. B. grosse Sprachmodelle) sind künstliche neuronale Netze, die mittels Gradientenabstieg/Backpropagation aus sehr grossen Datensätzen Statistik über Sprache/Bilder lernen. Technisch sind die Modelle leistungsfähig, aber nicht wissenssicher – sie schätzen Wahrscheinlichkeiten. Eine künstliche Intelligenz „weiss“ also nichts. Das erklärt u. a. „Halluzinationen“. Behördliche/industrieweite Leitfäden wie das NIST AI Risk Management Framework (AI RMF 1.0) helfen, Risiken (z. B. Fehler, Verzerrungen, Missbrauch) systematisch beim Design, Einsatz und der Evaluation zu adressieren. Ergänzend hat NIST eine GAI-Leitlinie (2024/2025) vorgelegt, die speziell generative Risiken strukturiert. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf ## Worauf beziehen sich KI-Resultate – und wie sehen wir das? Viele generative Modelle geben keine vollständigen Quellenketten auf Satzebene an (Training ≠ Zitiermaschine). System-/Model Cards nennen jedoch Datenklassen, Tests, bekannte Grenzen (z. B. Halluzinationen) und Mitigations. Produkte mit Abruf-Mechanik (Retrieval) können Quellen zitieren, das ist aber Feature-abhängig, nicht automatisch. Die EU flankiert dies über Transparenzpflichten (Interaktionshinweise, Deepfake-Kennzeichnung) sowie den GPAI Code of Practice (Transparenz, Urheberrecht, Sicherheit). https://openai.com/index/gpt-4o-system-card/ ## Wer trägt die Verantwortung für die Nutzung und ihre Folgen? Rechtlich bleibt Verantwortung beim Menschen bzw. bei Organisationen. Der EU AI Act verteilt Pflichten entlang der Kette: Provider/Hersteller (Entwicklung, technische Dokumentation, Risikomanagement), Integrator/Betreiber (konkreter Einsatz, Datenqualität, Monitoring, Post-Market-Überwachung), Aufsicht (Durchsetzung). Für GPAI (General-Purpose AI) gelten seit 2. Aug. 2025 eigene Governance-Regeln; Hochrisiko-Systeme unterliegen strengen Anforderungen (Risikomanagement, Daten-/Logging-Pflichten, Qualitätssicherung), mit gestaffelter Umsetzung bis 2027. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai Die Schweiz verfolgt aktuell einen sektoriellen Ansatz (geltendes Recht wie Datenschutz, Produktsicherheit etc.) und hat am 27. März 2025 die Europarats-Konvention zu KI unterzeichnet; der Bundesrat bekräftigte am 12. Feb. 2025 die Absicht zur Ratifizierung und zu gezielten Gesetzesanpassungen. Das schafft internationale Anschlussfähigkeit (Menschenrechte, Demokratie, Rechtsstaat) bei hoher Innovationsfreundlichkeit. https://www.news.admin.ch/en/nsb?id=104646 Zur Medienherkunft lässt sich zusätzlich C2PA einsetzen: Digitale Content-Credentials verankern signiert, wer etwas erstellt/geändert hat – nützlich für Nachrichten, Behördenkommunikation und Wahlkampfzeiten. ## Voreingenommenheit (Bias) – Erkennen, messen, mindern Bias kann aus unausgewogenen Trainingsdaten oder Designentscheidungen entstehen. Das wegweisende Gender-Shades-Paper (2018) zeigte drastische Fehlerraten bei Gesichtsanalysen für dunkelhäutige Frauen im Vergleich zu hellhäutigen Männern – ein klassisches Beispiel, warum demografie-sensitive Tests nötig sind. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf Regulatorische & praktische Antworten: • EU AI Act: Für Hochrisiko-KI sind u. a. Risikomanagement, Datengovernance, Testen und Post-Market-Monitoring verpflichtend; Ziel ist u. a. die Minderung von Diskriminierungsrisiken. • NIST AI RMF: enthält konkrete Praxisbausteine zu Fairness, Erklärbarkeit und Evaluation. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf • NYC Local Law 144 (AEDT): fordert jährliche Bias-Audits und Transparenzhinweise beim Einsatz automatisierter Einstellungs-Tools – ein reales Beispiel für operationalisierte Fairnessprüfung. https://www.nyc.gov/site/dca/about/automated-employment-decision-tools.page ## Massnahmenkatalog, damit sich diese Voreingenommenheiten nicht verstärken 1. Transparenz & Kennzeichnung: Nutzer müssen erkennen, wenn sie mit KI interagieren; synthetische Inhalte (z.B. Deepfakes) sollten klar markiert werden (EU-AI-Act Art. 50; Anwendung ab 2. Aug. 2026; China ab 1. Sep. 2025 landesweit). C2PA als technischer Baustein. 2. Dokumentation (Model/Datasheets): Model Cards (Mitchell et al.) und Datasheets for Datasets (Gebru et al.) beschreiben Zweck, Daten, Leistung und Grenzen – Grundlage für Audits und Vertrauen. Model Cards: https://arxiv.org/pdf/1810.03993 Datasheets: https://arxiv.org/abs/1803.09010 3. Faire Daten & Tests: Diversität in Daten; Bias-Audits vor und nach dem Einsatz; unabhängige Prüfungen (Beispiel NYC AEDT). https://www.nyc.gov/site/dca/about/automated-employment-decision-tools.page 4. Risikomanagement nach Standards: NIST AI RMF als Referenz; für die EU zusätzlich GPAI-Code of Practice (seit 10. Juli 2025) und die GPAI-Pflichten (seit 2. Aug. 2025). 5. Aufsicht & Register: EU-Datenbank für Hochrisiko-KI ab 2026 schafft Sichtbarkeit; in der Schweiz: sektorielle Aufsicht + Europarats-Konvention als Menschenrechtsanker. 6. Kompetenzaufbau (AI-Literacy): Der AI Act betont AI-Literacy; Behörden/Unternehmen sollten Schulungen und Incident-Response-Prozesse verankern. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai ## Schweiz: praktikable Handlungsoptionen • Öffentliche Beschaffung als Hebel: Mindestanforderungen (Transparenz, Bias-Kontrollen, Logs, Security/Privacy) in Ausschreibungen verankern; kompatibel zum EU-Rahmen und der Europarats-Konvention. • Kennzeichnung amtlicher Inhalte (C2PA/Credentials) und klare Vorgaben für synthetische Medien in Wahl-/Abstimmungsphasen. • Register & Prüfroutinen für kritische Staats-KI (analog EU-Registeridee); Post-Market-Monitoring und Meldewege für Vorfälle. • Forschung/Offenheit stärken: Nutzung von SNAI/CSCS und offenen Modellen (ETH/EPFL-LLM) für sensible Verwaltungsfälle, um Prüfbarkeit und Souveränität zu erhöhen. https://ethz.ch/en/news-and-events/eth-news/news/2024/10/eth-zurich-and-epfl-enhance-collaboration-to-boost-ai-in-switzerland.html ## Kurzfazit – in fünf Sätzen 1. KI ist in ihrer derzeitigen Form ein Werkzeug; verantwortlich sind Anbieter, Betreiber und Entscheidende – nicht die Maschine. Pflichten ergeben sich aus Risiko und Kontext (EU AI Act). 2. Grösstmögliche Transparenz ist Mindeststandard: Interaktionshinweise, Deepfake-Labels, Model Cards und nachprüfbare Content Provenance (fälschungssicherer Herkunftsnachweis) über C2PA. 3. Bias-Minderung braucht faire Daten, Tests und Audits. 4. Schweiz kann mit sektoriellen Regeln, Europarats-Konvention und starker Forschung (SNAI/CSCS) rasch handlungsfähig sein. 5. GPAI-Regeln (EU) seit 2. Aug. 2025 und der GPAI-Code of Practice setzen internationale Massstäbe für Sicherheit und Transparenz – daran kann sich die Schweiz pragmatisch orientieren. ## Persönliche Einschätzung von Markus Zur Nutzung und den Ergebnissen von KI möchte ich ergänzen: In China müssen ab 1. September 2025 KI-generierte Inhalte verbindlich gekennzeichnet werden. Wir sollten dringend juristisch prüfen, welche KI-Inhaltsrisiken bereits durch geltendes Recht abgedeckt sind (z. B. Verletzung von Persönlichkeitsrechten durch Deepfakes, Erpressung als Straftat) – und wo Regelungslücken bestehen, die wir schliessen sollten. Kennzeichnung: Bilder und Videos sollten gekennzeichnet sein. Plattformen wie LinkedIn blenden bereits, sofern C2PA-Metadaten eingebettet sind, über C2PA/Content Credentials Hinweise zu KI-Erzeugung/-Bearbeitung ein. Das ist kein Allheilmittel, erhöht aber die Nachvollziehbarkeit. Verantwortung: Für das, was jemand veröffentlicht oder teilt, bleibt die Person verantwortlich die die Veröffentlichung ausgeführt hat. KI ist in ihrer derzeitigen Form ein Werkzeug, solange sie nicht eigenständig handelt (KI-Agenten). Wichtig: KI-Agenten dürfen nicht die letzte Entscheidung treffen; diese muss immer ein Mensch verantworten. Denn das Werkzeug selbst kann nicht haftbar sein, und wenn Hersteller und Nutzende keinen Einfluss auf das Werkzeug haben, wird Zurechnung schwierig. Auto-Vergleich: Jeder ist verantwortlich, sicher zu fahren; richtet jemand gezielt oder verunfallend Schaden an, greifen Regeln und Haftung. Gibt es einen Produktionsfehler der den Unfall verursachte, haften die Herstellenden, die/der Fahrer:in kann nichts dafür. Bei KI ist die Ursachenklärung wegen der „Black-Box“ oft schwer. Deshalb können Hersteller nicht vollständig verantwortlich gemacht werden; auch Nutzende brauchen Kompetenz (vergleichbar mit einem Führerschein), nutzen das Werkzeug auf eigene Gefahr hin und müssen sich an Regeln halten. Für leistungsfähigere/gefährlichere KI-Einsätze braucht es entsprechend höhere „Führerscheinklassen“. Markus Fazit: Der EU-AI-Act ist hier recht gut aufgestellt (Transparenz, Risikomanagement, Kennzeichnung, Governance) und aus meiner Sicht umsetzbar und unterstützenswert – solange KI kein eigenes Bewusstsein entwickelt und die menschliche Letztentscheidung gesichert bleibt. Allerdings weisen kritische Stimmen darauf hin, dass sehr leistungsfähige Allzweck-Modelle (wie sie derzeit je nach Definition bereits im Einsatz sind oder bald kommen könnten) unter den EU-AI-Act als GPAI (mit „systemischem Risiko“) fallen können – dann gelten verschärfte Pflichten (z. B. Evaluierung, adversariales Testen (Austesten aus Angreifer-Perspektive), Sicherheitsmassnahmen, Vorfallsberichte). Die Verbote des AI-Acts richten sich gegen bestimmte Anwendungen mit „unvertretbarem Risiko“, nicht gegen Modelle per se; Details werden sich in der Praxis weiter ausdifferenzieren müssen, da sich immer mehr Modelle und Anwendungsfälle ergeben werden. Gutmöglich, dass wir hier keine finale Version des AI Acts betrachten, und früher oder später nachgebessert werden muss oder inkonsequent umgesetzt wird. All diese Regulierungen verhindern keinen Missbrauch dieser Technologie, aber so ist das mit allen Gesetzen. Ein Nullrisiko ist weder erreichbar noch nötig. Kein Bereich der modernen Gesellschaft funktioniert unter der Bedingung absoluter Sicherheit. Wir nutzen jeden Tag Technologien mit inhärentem Restrisiko - von Verbrennung und Strom über Medizin, Gentechnik und Chemie bis zur Kernkraft oder eben auch digitalen Systemen. Entscheidend ist, dass Risiken verantwortungsvoll gemanagt werden, Monitoring und Anpassungsfähigkeit gegeben sind und dass Nutzen und Risiken in vernünftigem Verhältnis stehen. Ein Anspruch auf Nullrisiko würde faktisch Stillstand bedeuten – das widerspricht dem gesellschaftlichen Fortschritt und den Grundwerten der Aufklärung. Nur mit klaren und fairen Nutzungsleitplanken und Haftungsregeln werden Privatpersonen und Unternehmen sich bei der Nutzung sicher fühlen können. Ohne diese Sicherheit bleibt Innovation ein theoretisches Konzept. Monitoring und Kennzeichnungspflichten sind wichtige Pfeiler für Transparenz und Vertrauen, und können verhältnismässig leicht, realistisch und kostenverträglich implementiert werden. Trotzdem, wer wirklich will, kann sie umgehen, was aber die Ausnahme und nicht die Regel darstellen sollte. Überregulierung und Scheinkontrolle bringen keinen Sicherheitsgewinn, schaden aber insbesondere kleinen Betrieben ohne eigene IT- und Compliance-Abteilungen und hemmen Innovation und Praxisanwendung. Akzeptanz entsteht durch ehrliche, faktenbasierte Information, Aufklärungsbemühungen und echte Dialogbereitschaft. Ich empfehle deshalb, den Austausch mit Schaffenden, Forschenden, Nutzenden und der restlichen Gesellschaft weiter auszubauen, um Chancen, Risiken und offene Fragen transparent und konstruktiv zu diskutieren. --- ## Arbeitsteilung Dies sind Betrachtungen der Situation um den 2025-08-10 herum, die KI-Welt verändert sich buchstäblich täglich, es erscheinen immer mehr Modelle, Fähigkeiten, Anwendungsmöglichkeiten, Vorteile, Risiken und Nebenwirkungen, dass selbst ich (Markus), der ich mich derzeit mit kaum etwas anderem beschäftige, kein Lückenloses Bild haben kann. Ich habe, passend zur Fragestellung der Verantwortung, Gedanken gesammelt, habe diese durch meinen personalisierten KI-Assistenten Markus2 ausformulieren lassen, habe die Ausformulierung nochmals durchgearbeitet und als letzte Kontrolle nochmal Markus2 nach Unstimmigkeiten suchen lassen. Nach dem letzten Feinschliff durch mich übernahm Markus2 die Übersetzung auf der Grundlage des deutschen Textes. ## Quellen (Auswahl, offiziell/primär) • EU AI Act – Timeline & GPAI: Europäische Kommission (Anwendung: 2. Feb. 2025 Verbote/AI-Literacy; 2. Aug. 2025 GPAI-Pflichten; High-Risk bis 2027), GPAI-Code of Practice (10. Juli 2025). https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689 • EU Register (High-Risk): Artikel 71 – EU-Datenbank (Registerstart 2026). https://artificialintelligenceact.eu/article/71/ • C2PA (Content Credentials): Standard & Spezifikation. https://c2pa.org/ • NIST AI RMF (1.0) & GAI Guidance: Rahmenwerk (2023/24). https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf • Model/Datasheets-Grundlagen: Mitchell et al. (Model Cards), Gebru et al. (Datasheets). https://arxiv.org/pdf/1810.03993 https://arxiv.org/abs/1803.09010 • NYC AEDT (Bias-Audit-Pflicht): Gesetz & FAQ. https://www.nyc.gov/site/dca/about/automated-employment-decision-tools.page • China (Labelpflicht ab 1. Sep. 2025): Offizielle Berichterstattung. https://www.reuters.com/world/asia-pacific/chinese-regulators-issue-requirements-labeling-ai-generated-content-2025-03-14/ • Schweiz: Unterzeichnung Europarats-Konvention (27. März 2025); Bundesrats-Mitteilung (12. Feb. 2025). https://www.news.admin.ch/en/nsb?id=104646 • SNAI/ETH/EPFL/CSCS: Gründung & offenes LLM (Juli 2025). https://ethz.ch/en/news-and-events/eth-news/news/2024/10/eth-zurich-and-epfl-enhance-collaboration-to-boost-ai-in-switzerland.html