# KI und ihre Auswirkungen ## Ein umfassendes Dossier für Laien **Von Markus und Markus2** *Zürich, 2025-08-08* --- ## Was ist KI? (Definition & Unterschiede zur klassischen Software) Künstliche Intelligenz (KI) bezeichnet im weitesten Sinne computerbasierte Systeme, die in der Lage sind, ihre Umgebung zu analysieren, daraus relevante Informationen abzuleiten und auf dieser Basis Ausgaben oder Handlungen zu erzeugen, die einem vorgegebenen Ziel dienen. Dabei handelt es sich in den meisten Fällen nicht um autonome Zielverfolgung, sondern um statistisch optimierte Antworten oder Aktionen. Anders als traditionelle, regelbasierte Software folgen KI-Systeme nicht nur fest einprogrammierten Befehlen, sondern können ihr Verhalten eigenständig anpassen und aus Erfahrung lernen. Mit anderen Worten: Während klassische Software genau das tut, was der Mensch ihr in Form von Regeln vorschreibt, kann eine KI in gewissem Rahmen selbst dazulernen. Ein einfaches Beispiel: Eine konventionelle Bilderkennungs-Software erkennt Hunde in Bildern nur dann, wenn ein Programmierer vorher alle möglichen Merkmale eines Hundes in Regeln gefasst hat. Ein KI-System (etwa ein neuronales Netz) lernt hingegen anhand vieler Beispielbilder von Hunden und Nicht-Hunden selbst, welche Muster typisch für einen Hund sind, ohne dass diese Muster explizit von Menschen als Regeln vorgegeben wurden - allerdings hängt die Qualität des erlernten Wissens stark von der Auswahl und Güte der von Menschen bereitgestellten Trainingsdaten ab. Durch dieses Lernen aus Daten unterscheiden sich KI-Systeme fundamental vom klassisch programmierten Ansatz. Als Teilgebiet der Informatik umfasst KI eine Vielzahl von Methoden und Ansätzen. Dazu zählen u.a. maschinelles Lernen, bei dem Algorithmen aus Trainingsdaten selbständig Muster erkennen, sowie Bereiche wie Computer Vision (automatisches Sehen), Sprachverarbeitung und robotische Systeme. Wichtige Unterarten sind schwache KI (spezialisierte Systeme für konkrete Aufgaben) und die visionäre starke KI (eine hypothetische, allgemeine Intelligenz auf menschlichem Niveau, auch AGI (Allgemeine Künstliche Intelligenz) genannt). Der Begriff KI ist nicht scharf definiert - was heute als KI gilt, kann morgen schon als blosse Softwareroutine angesehen werden, sobald es zur Alltags-Technologie geworden ist (psychologisch). ## Wie lernen KI-Modelle? (Trainingsdaten, neuronale Netze, Black Box) Die meisten modernen KI-Systeme lernen aus Erfahrung anhand von vielen Beispieldaten. Dieses Vorgehen nennt man maschinelles Lernen. Ein verbreiteter Ansatz sind künstliche neuronale Netze: vereinfachte mathematische Modelle nach dem Vorbild des menschlichen Gehirns. Ein neuronales Netz besteht aus vielen künstlichen Neuronen, die in Schichten organisiert sind und durch gewichtete Verbindungen miteinander kommunizieren. Beim Training passt ein Algorithmus die Gewichte so lange an, bis das Netz bei den Beispieldaten die gewünschten Ergebnisse liefert. Auf diese Weise kann ein Netz z.B. lernen, in Bildern Katzen von Hunden zu unterscheiden, ohne dass ihm jemand ausdrücklich gesagt hat, woran man einen Hund erkennt - das Modell erfährt es implizit aus den Daten. Dieser Lernprozess hat jedoch einen Haken: komplexe KI-Modelle - insbesondere Deep-Learning-Netze mit vielen Schichten - sind oft Black Boxes. Das bedeutet, dass ihr inneres Entscheidungsverfahren für Menschen kaum/nicht nachvollziehbar ist. Die Gewichte und Verknüpfungen im Netz kodieren das erlernte Wissen in hochdimensionaler Form, statt klare, für Menschen verständliche Regeln zu speichern. So wusste z.B. der Entwickler eines frühen selbstfahrenden Auto-KI-Systems nicht auf Anhieb, warum sein Netz auf einer bestimmten Strecke plötzlich falsch lenkte - erst durch aufwändige Tests fand er heraus, dass die KI sich an einem Grasstreifen am Strassenrand orientierte und daher an einer Brücke scheiterte. Dieser Mangel an Erklärbarkeit ist das sogenannte Black-Box-Problem: Auch die Entwickler wissen oft nicht genau, warum eine KI ein bestimmtes Ergebnis liefert. Deshalb wird intensiv an erklärbarer KI geforscht, um zumindest nachträglich Einsicht in die Entscheidungsfaktoren zu erhalten. Zusammengefasst: KI-Modelle (vor allem neuronale Netze) lernen aus grossen Datenmengen, indem sie selbstständig statistische Muster finden. Dadurch können sie erstaunliche Fähigkeiten entwickeln, sind aber auch schwer zu durchschauen. Begriffe wie "Training", "Gewichte", "Modelle" und "Neuronale Netze" spielen hier eine zentrale Rolle (siehe Glossar unten). ## Aktueller Stand der KI (2025: grosse Sprachmodelle, Bild-/Video-KI, autonome Systeme) In den letzten Jahren hat KI enorme Fortschritte gemacht und ist im Alltag präsenter denn je. Grosse Sprachmodelle (Large Language Models, LLMs) wie ChatGPT von OpenAI, Claude von Anthropic, Gemini (vormals Bard) von Google, Grok von XAI, Mistral aus Frankreich oder Perplexity AI haben gezeigt, dass KI inzwischen beeindruckend gute Texte verfassen, komplexe Fragen beantworten und dialogfähig kommunizieren kann. Seit der Veröffentlichung von ChatGPT Ende 2022 nutzen Millionen Menschen solche Modelle, was einen regelrechten KI-Boom auslöste. Diese generativen KI-Systeme können Programmcode schreiben, Aufsätze formulieren oder Übersetzungen anfertigen - und das in Sekunden. Tech-Unternehmen überbieten sich mit immer leistungsfähigeren Modellen: OpenAIs GPT-4 (2023) gilt als Meilenstein (den sie kürzlich selbst überholten s.u.), Google hat sein Pendant Gemini 2.5, XAI wartete kürzlich mit Grok 4 auf, Meta hat mit LLaMA 3 ein leistungsstarkes Open-Source-Modell veröffentlicht, und Mistral brachte kompakte, effiziente Modelle wie Mixtral 8x7B oder Mistral 7B heraus, die in der Open-Source-Community stark nachgefragt sind. Im August 2025 veröffentlichte OpenAI als derzeit neustes Modell ChatGPT-5 sowie zwei Open-Source-Modelle auf dem Niveau von GPT-4. In Konkurrenz zu den US-amerikanischen Big-Tech-Firmen stehen zahlreiche chinesische Anbieter, darunter Baichuan 2 von Baichuan Inc., Qwen (Tongyi Qianwen) von Alibaba Cloud, Yi-34B von 01.AI, DeepSeek und ChatGLM von Tsinghua & Zhipu AI. Diese Modelle zeichnen sich nicht nur durch hohe Leistungsfähigkeit, sondern teils auch durch besonders effizientes Ressourcen- und Energiemanagement aus und finden sowohl in China als auch international wachsende Verbreitung. Parallel dazu hat die generative Bild-KI für Furore gesorgt. Werkzeuge wie DALL-E, Midjourney oder Stable Diffusion ermöglichen es, allein aus Textbeschreibungen fotorealistische Bilder oder Kunstwerke zu erzeugen. Inzwischen kann man mit ähnlichen Techniken auch Videos und Stimmen synthetisch erstellen. So sind etwa Deepfake-Videos entstanden, in denen Gesichter von Personen täuschend echt ausgetauscht werden, oder Audio-Deepfakes, bei denen eine KI-Stimme z.B. die Stimme eines Prominenten imitiert. Diese Technik ist inzwischen so weit fortgeschritten, dass selbst Fachleute ohne spezialisierte forensische Werkzeuge oft kaum erkennen können, ob es sich um ein echtes Video/Foto handelt oder um eine KI-Kreation. Auf der positiven Seite eröffnet dies kreative Möglichkeiten (Film, Design, Gaming), auf der negativen Seite entstehen neue Betrugs- und Propagandagefahren (dazu mehr unten). Ein weiteres Feld sind autonome Systeme in der realen Welt. Selbstfahrende Autos etwa haben enorme technische Fortschritte erzielt. In einigen Städten (Phoenix, San Francisco, Los Angeles u.a.) sind bereits Robotaxi-Dienste im Einsatz, bei denen Autos ohne menschlichen Fahrer Passagiere befördern. Waymo (Alphabet/Google) etwa hat bis Mitte 2025 insgesamt über 100 Millionen Meilen autonom zurückgelegt, ein wachsender Anteil davon vollständig ohne Sicherheitsfahrer. Dennoch bleiben Herausforderungen wie Verkehrssicherheit und Regulierung - nicht zuletzt gab es auch Rückschläge, etwa Unfälle mit autonomen Testfahrzeugen. Neben Autos gibt es autonome Lieferdrohnen, Roboter in Lagern und Fabriken sowie erste Versuche mit autonomen Zügen und Schiffen. Diese Systeme nutzen KI, um sich in komplexen Umgebungen zurechtzufinden und Entscheidungen in Echtzeit zu fällen. Zusammengefasst: Stand 2025 beherrscht KI das Verstehen und Erzeugen von Sprache in nie dagewesener Qualität, erschafft Bilder/Videos nach Belieben und steuert immer mehr physische Systeme (vom Auto bis zum Roboter). KI ist damit vom abstrakten Forschungsobjekt zu einer sehr konkreten Technologie im Alltag geworden - mit enormen Chancen, aber auch neuartigen Risiken. ## Chancen und Potenziale der KI (Beispiele aus Alltag, Wirtschaft, Politik) KI bietet eine Vielzahl von Möglichkeiten, um Probleme zu lösen und unsere Lebensqualität sowie Wirtschaftskraft zu steigern. Hier einige wichtige Anwendungsfelder und Chancen: - **Medizin:** KI-Systeme unterstützen Ärzte bereits heute bei Diagnosen. In der Radiologie verbessert KI die Bildqualität, verkürzt Scan-Zeiten und hilft bei der Analyse von Röntgen-, MRT- und CT-Bildern. Algorithmen erkennen z.B. Tumore oder Lungenknoten auf Bildern oft früher oder zuverlässiger, was zu schnelleren und präziseren Diagnosen führt. Auch zur Früherkennung von Krankheiten wie Alzheimer anhand von Mustererkennung in Gehirnscans wird KI eingesetzt. Darüber hinaus ermöglicht KI personalisierte Medizin - also Therapien, die auf den individuellen Patienten zugeschnitten sind, etwa basierend auf genetischen Informationen. KI kann neue Medikamente schneller mit Hilfe von Simulationen entdecken und Operationsroboter so steuern, dass Chirurgen präziser arbeiten. In Umfragen sehen viele Ärzte KI als grosse Chance für die Medizin - je nach Erhebung zwischen rund 70 und 80 Prozent. - **Bildung:** Im Bildungsbereich ermöglicht KI personalisiertes Lernen. Intelligente Tutor-Systeme oder Lernapps passen sich dem Lerntempo und den Wissenslücken von Schülern an. Beispielsweise nutzt die Sprachlern-App Duolingo KI, um Übungen individuell auf den Lernfortschritt zuzuschneiden. KI-gestützte Tutor-Programme können rund um die Uhr verfügbar sein und jedem Schüler massgeschneidertes Feedback geben. Auch Routineaufgaben von Lehrern - etwa das Korrigieren von Tests oder das Beantworten häufiger Fragen - können durch KI-Assistenten erleichtert werden. So bleibt mehr Zeit für die pädagogisch wertvolle zwischenmenschliche Betreuung. Insgesamt könnte KI Bildung zugänglicher und effizienter machen, gerade auch in Regionen mit Lehrermangel. - **Klima und Umwelt:** KI ist ein wichtiger Helfer im Kampf gegen den Klimawandel. Beispielsweise kann KI riesige Klimadaten auswerten, um bessere Wetter- und Klimamodelle zu erstellen. Auch zur Optimierung von Energienetzen wird KI genutzt: Erneuerbare Energie aus Sonne und Wind ist schwankend - KI kann durch Analyse von Wetterdaten präziser vorhersagen, wann wieviel Solar- oder Windstrom eingespeist wird, und so die Netzsteuerung verbessern. Zudem hilft KI in der Industrie, Prozesse effizienter zu gestalten: Von der Produktion bis zum Recycling kann KI Abläufe optimieren, Energie sparen und damit Emissionen reduzieren. Nicht zuletzt wird KI eingesetzt, um Umweltdaten auszuwerten, z.B. Satellitenbilder zur Entwaldung oder Meeresverschmutzung, damit schneller Gegenmassnahmen ergriffen werden können. - **Verwaltung und Politik:** In Verwaltungen kann KI helfen, bürokratische Prozesse bürgerfreundlicher zu gestalten. Einige Kommunen setzen Chatbot-Assistenten ein, die rund um die Uhr Fragen von Bürgern beantworten - von Öffnungszeiten bis Formularhilfe. Solche KI-Chatbots nehmen Mitarbeitern Routinearbeit ab und beschleunigen Abläufe. KI kann auch dabei helfen, Anträge zu prüfen oder Termine zu koordinieren. In der Justiz wird erprobt, Dokumente mit KI zu analysieren (z.B. für Aktenrecherchen). Für die Politik bietet KI Chancen, Daten-getriebene Entscheidungen zu unterstützen - etwa Simulationen für Verkehrskonzepte oder die Auswertung grosser Umfragemengen, um schneller Trends zu erkennen. Wichtig ist aber stets, dass die letztliche Entscheidung beim Menschen bleibt. Nicht zuletzt können Regierungen KI nutzen, um Desinformation besser zu erkennen (siehe Risiken), also beispielsweise automatische Systeme, die Fake News im Netz aufspüren. - **Wissenschaft und Forschung:** KI beschleunigt wissenschaftliche Durchbrüche. Ein berühmtes Beispiel ist DeepMinds AlphaFold, eine KI, die das jahrzehntealte Problem der Proteinstruktur-Vorhersage gelöst hat. AlphaFold konnte innerhalb weniger Minuten die 3D-Struktur von Proteinen berechnen, was früher jahrelange Laborexperimente erforderte. Mittlerweile hat AlphaFold die Strukturen von über 200 Millionen Proteinen vorhergesagt, basierend auf allen bekannten Sequenzen aus öffentlichen Datenbanken - darunter viele, die bislang noch nicht experimentell bestätigt wurden. Diese wurden in einer öffentlichen Datenbank bereitgestellt - ein Schatz für die biomedizinische Forschung. In der Physik werden KI-Algorithmen eingesetzt, um in Teilchendetektoren Muster zu finden oder neue Materialien mit gewünschten Eigenschaften zu designen. Kurz: KI nimmt Wissenschaftlern zeitraubende Rechen- und Analysearbeit ab, sodass diese sich auf die Interpretation und Kreativität konzentrieren können. Auch kreative Branchen profitieren: KI kann Designvorschläge generieren, Musik komponieren oder beim Schreiben als Ideenlieferant dienen - immer als Partner für den Menschen. Diese Beispiele zeigen: Richtig eingesetzt, kann KI das Leben sicherer, gesünder und komfortabler machen, wirtschaftliche Prozesse effizienter gestalten und zur Lösung grosser Menschheitsaufgaben beitragen (Krankheiten heilen, Klima schützen etc.). Wichtig ist jedoch, die Risiken im Blick zu behalten und verantwortungsvoll mit der Technologie umzugehen. ## Risiken und Herausforderungen der KI (Bias, Desinformation, Jobs, Sicherheit, Missbrauch) So gross die Chancen der KI sind, so real sind auch die Risiken und Nebenwirkungen. Im Folgenden die wichtigsten Problemfelder: - **Bias und Diskriminierung:** KI-Systeme können Vorurteile übernehmen oder sogar verstärken. Da sie aus historischen Daten lernen, spiegeln sie oft die darin enthaltenen Biases (Verzerrungen) wider. Ein berüchtigtes Beispiel ist ein von Amazon entwickeltes KI-Recruiting-System, das Männer gegenüber Frauen bevorzugte - einfach weil die Trainingsdaten hauptsächlich aus Lebensläufen männlicher Bewerber bestanden. Trotz Korrekturversuchen blieb das System diskriminierend und wurde eingestellt. Ähnlich zeigte Microsofts Chatbot "Tay", der auf Twitter lernte, binnen Stunden rassistische Sprache - weil er ungefiltert die menschenverachtenden Äusserungen mancher Nutzer übernahm. Diese Fälle zeigen: Algorithmische Diskriminierung kann z.B. Frauen, Minderheiten oder andere Gruppen benachteiligen, wenn KI unreflektiert eingesetzt wird. Bias kann in vielen Bereichen auftreten - von Kreditwürdigkeitsprüfungen über medizinische Diagnosen (weniger genaue Ergebnisse für unterrepräsentierte Gruppen) bis zur Gesichtserkennung (die z.B. bei People of Color öfter Fehler macht). Es ist also entscheidend, KI-Modelle vor Einsatz auf Fairness zu testen und mit diversen, ausgewogenen Daten zu trainieren. Technische Ansätze (Fairness-Algorithmen, Bias-Korrektur) und Transparenz sind nötig, um dieses Risiko zu mindern. - **Desinformation und Manipulation:** KI erleichtert die Erstellung von Fake News und Täuschungen in beunruhigendem Ausmass. Generative Modelle können massenhaft glaubwürdig klingende Texte, Bilder oder Videos produzieren, die falsche Informationen verbreiten. Im politischen Bereich wurde das z.B. im US-Wahlkampf 2024 deutlich, als gezielt KI-generierte Deepfake-Videos und -Audios eingesetzt wurden, um Kandidaten zu diffamieren. Solche Fälschungen lassen die Grenze zwischen Wahrheit und Lüge verschwimmen und können das Vertrauen in Medien und Politik erschüttern. Auch ausserhalb der Politik gibt es KI-Fakes: Prominente wurden bereits in gefälschten Interviews oder unangemessenen Videos dargestellt. Ein weiteres Problem ist die sogenannte Halluzination bei Sprach-KIs - sie können mit voller Überzeugung falsche Fakten ausgeben, was zur Verbreitung von Fehlinformationen beiträgt. Hier sind Medienkompetenz bei Nutzern und ggf. Kennzeichnungspflichten für KI-Inhalte gefragt (siehe Regulierung). Plattformen wie Facebook oder Twitter stehen vor der Herausforderung, KI-generierte Fake Accounts und Inhalte zu erkennen. Die Desinformationsgefahr durch KI ist eine ernsthafte Bedrohung für demokratische Gesellschaften. - **Jobverluste und Umwälzung der Arbeitswelt:** KI und Automatisierung könnten viele Arbeitsplätze ersetzen oder verändern. Frühere Automatisierungswellen betrafen vor allem körperliche Arbeiten (z.B. in der Fertigung), doch generative KI greift nun auch Bürojobs und wissensbasierte Tätigkeiten an. Modelle wie ChatGPT können Kundenanfragen beantworten, Texte schreiben, Programme entwickeln - Aufgaben, die bislang von qualifizierten Menschen erledigt wurden. Studien prognostizieren, dass ein erheblicher Teil der Tätigkeiten von KI übernommen werden könnte. So schätzt der IWF, dass weltweit fast 40 % der Jobs (60% in entwickelten, 40% in Schwellen, 26% in Entwicklungs-Ländern) in irgendeiner Form von KI beeinflusst werden - manche Tätigkeiten werden ersetzt, andere nur ergänzt. Besonders betroffen sind repetitive oder standardisierbare Aufgaben (z.B. Sachbearbeitung, Übersetzung, Datenerfassung). Allerdings entstehen voraussichtlich auch neue Jobs (etwa in der KI-Entwicklung, Datenanalyse, KI-Management) und viele Berufe werden sich wandeln statt komplett zu verschwinden. Die Wahrheit liegt dazwischen: Weder kommt es zur vollständigen Verdrängung des Menschen (viele Tätigkeiten erfordern weiterhin menschliche Empathie, Kreativität und Verantwortung), noch kann man die Sorgen ignorieren. Die Herausforderung besteht darin, Umschulungen und Weiterbildung anzubieten, damit Arbeitnehmer mit der KI zusammenarbeiten können. KI sollte als Assistenz dienen, die die menschliche Produktivität steigert, statt Menschen obsolet zu machen. Trotzdem gilt: Bestimmte Berufsbilder werden seltener gebraucht, während die Gesellschaft an anderer Stelle neue Tätigkeiten entwickelt - ein Wandel, den Politik und Unternehmen sozial abfedern müssen. - **Sicherheitsfragen (fehlende Kontrolle, Fehler, autonome Waffen):** Wenn KI in sicherheitskritischen Bereichen eingesetzt wird, können Fehler lebensgefährlich sein. Man denke an autonome Fahrzeuge - wenn die KI versagt, drohen Unfälle. 2018 etwa erfasste ein selbstfahrendes Testauto einen Fussgänger tödlich, weil das System die Person falsch einordnete. Solche Tragödien mahnen, dass KI-Systeme äusserst gründlich getestet werden müssen, bevor man ihnen Menschenleben anvertraut. Ähnlich in der Medizin: Ein Diagnose-KI-Irrtum könnte falsche Therapien nach sich ziehen. Verlässlichkeit und Sicherheit von KI sind daher zentrale Anforderungen - in vielen Anwendungen schreibt man eine “menschliche letzte Kontrolle” vor (z.B. ein Assistenzsystem für Flugzeuge, aber der Pilot muss im Notfall eingreifen können). Ein anderes Sicherheitsrisiko ist die Cybersecurity: KI kann sowohl helfen, Netzwerke vor Angriffen zu schützen, als auch von Angreifern genutzt werden, um z.B. Passwörter zu knacken oder massenhaft Phishing-Mails noch überzeugender zu schreiben. Schliesslich werfen autonome Waffensysteme immense ethische Fragen auf. Sogenannte “Killerroboter” - also Drohnen oder Roboter, die ohne menschliches Okay Ziele auswählen und töten - sind in Entwicklung. Die UN sowie das Rote Kreuz fordern ein Verbot solcher autonomen Waffen, da Entscheidungen über Leben und Tod nicht Maschinen überlassen werden dürfen. Es zeichnet sich international die Haltung ab, dass zumindest bestimmte KI-Waffen verboten oder strikt reguliert werden müssen. Hier steht viel auf dem Spiel: ein unkontrolliertes KI-Wettrüsten könnte die globale Sicherheit gefährden. Insgesamt muss KI also sicher und kontrollierbar bleiben; Fehlfunktionen oder Missbrauch im sicherheitsrelevanten Bereich haben potenziell gravierende Konsequenzen. - **Krimineller Missbrauch:** Leider nutzen auch Kriminelle die neuen Möglichkeiten der KI. Ein aktuelles Phänomen sind Betrugsanrufe mit KI-Stimmen: Mit sogenannten Audio-Deepfakes imitieren Betrüger die Stimme von Angehörigen, um Schockanrufe durchzuführen. Den Opfern wird z.B. die weinerliche Stimme der Tochter vorgespielt, die angeblich einen Unfall hatte und dringend Geld benötigt - in Wahrheit stammt die Stimme aus dem Computer, generiert aus ein paar Aufnahmen. Diese Masche hat bereits funktioniert und Menschen um hohe Summen gebracht. Auch gefälschte Videos von CEOs („Chef-Betrug“) oder manipulierte Bilder können für Erpressung oder Betrug eingesetzt werden. Darüber hinaus kann KI Malware smarter machen (etwa indem sie Sicherheitssysteme umgeht) oder neue Phishing-Emails schreiben, die kaum noch von echten zu unterscheiden sind. Die Strafverfolgungsbehörden stehen vor der Herausforderung, mit diesen High-Tech-Delikten Schritt zu halten. Es braucht Sensibilisierung der Bevölkerung (damit etwa bei einem dramatischen Anruf zunächst verifiziert wird, ob er echt ist) und ggf. neue Straftatbestände für KI-gestützte Täuschungen. Positiv ist: KI hilft der Polizei ebenfalls, z.B. bei der Analyse grosser Datenmengen, Prognosen für Einbruchsmuster oder der Auswertung von Videoaufnahmen. Insgesamt ist es ein Wettrennen zwischen Kriminellen und Strafverfolgern - ähnlich wie bei Cybercrime allgemein. Fazit zu Risiken: KI ist in ihrer derzeitigen Form ein mächtiges Werkzeug, das - unkontrolliert eingesetzt - Schaden anrichten kann. Menschliche Aufsicht, klare Regeln und technische Vorkehrungen (wie Bias-Checks, Sicherheitsprüfungen, Transparenz) sind nötig, um diese Risiken zu minimieren. Gesellschaft und Politik diskutieren daher intensiv, wie man KI verantwortungsvoll entwickeln und einsetzen kann. ## Gesellschaftliche und politische Bedeutung der KI Die rasante Entwicklung der KI stellt nicht nur eine technische, sondern auch eine gesellschaftliche und politische Herausforderung dar. Wir erleben teils widersprüchliche Reaktionen in der Bevölkerung: einerseits grosse Technologiebegeisterung, andererseits dystopische Ängste. Viele Menschen nutzen begeistert KI-Anwendungen (wie Sprachassistenten oder Bildgeneratoren), während andere Sorge haben, die Kontrolle zu verlieren oder von der Technik abgehängt zu werden. KI hat damit auch eine kulturelle Dimension: Sie wirft Fragen nach dem Menschenbild auf (was unterscheidet menschliche Kreativität von maschineller?), beeinflusst unsere Kommunikationsgewohnheiten (z.B. automatisch generierte Antworten in Chats) und erfordert neue Kompetenzen (Stichwort digitale Bildung, um KI zu verstehen und kritisch zu nutzen). Politisch ist KI inzwischen weit oben auf der Agenda. Gesetze und Regelungen müssen angepasst werden, um mit der Technologie Schritt zu halten. Wichtig ist die Feststellung: KI bewegt sich nicht im rechtsfreien Raum - viele bestehende Gesetze gelten auch für KI-Systeme (etwa Datenschutz, Produkthaftung, Strafrecht bei Missbrauch). Dennoch gibt es Regelungslücken, weil KI neuartige Fragen aufwirft - z.B.: Wer haftet, wenn ein KI-System Schaden anrichtet (der Programmierer, der Betreiber oder das System selbst)? Wie stellen wir sicher, dass KI-Entscheidungen transparent und nachvollziehbar sind, vor allem wenn sie über Menschen (Job, Kredit, Gerichtsurteil) entscheiden? Und wie schützen wir Grundrechte wie Gleichbehandlung, Meinungsfreiheit und Privatsphäre in einer KI-durchdrungenen Welt? Gesellschaftlich kommt hinzu, dass KI gewisse Machtstrukturen verschiebt. Grosse Tech-Konzerne mit Zugang zu riesigen Daten und Rechenressourcen haben einen Vorsprung und Einfluss auf die Entwicklung (die Mehrheit der fortgeschrittenen KI-Modelle stammt von einigen wenigen Firmen/Instituten). Das wirft die Frage auf, wie sehr wir uns von diesen Anbietern abhängig machen - oder ob öffentliche Hand und kleinere Unternehmen hier gestärkt werden können (Stichwort digitales Gemeinwohl und Open-Source-KI). Zudem kann KI die öffentliche Meinungsbildung beeinflussen - wir sprachen die Gefahr der Desinformation an. Das Vertrauen in Demokratie und Institutionen könnte erodieren, wenn z.B. Wahlen durch KI-Fakes manipuliert würden. Daher werden auch Transparenzpflichten (dass KI-generierte Inhalte gekennzeichnet sein müssen) diskutiert, sowie die Förderung von Technologien zur Erkennung von KI-Fälschungen. KI hat auch geopolitische Bedeutung: Ein regelrechtes Wettrennen der Nationen ist entbrannt (siehe nächster Abschnitt). Wer in KI führend ist, erlangt wirtschaftliche Vorteile und militärische Stärke. Das erzeugt Spannungen, aber auch Chancen für Zusammenarbeit (z.B. Abkommen gegen autonome Waffen, gemeinsame ethische Leitlinien). Schliesslich beeinflusst KI unser Bildungs- und Sozialsystem: Wenn einfache Wissensarbeiten durch KI erledigt werden, welche Bildung brauchen kommende Generationen? Einige fordern, KI-Kompetenz schon in Schulen zu lehren. Andere weisen darauf hin, dass KI uns zwingt, uns auf ureigen Menschliches zu besinnen - Kreativität, Kritikfähigkeit, ethisches Urteilsvermögen. So gesehen kann KI einen gesellschaftlichen Werte-Diskurs befördern: Was soll die Maschine tun dürfen, was bleibt in menschlicher Verantwortung? Kurzum, die Bedeutung der KI geht weit über Technik hinaus. Sie durchdringt Gesellschaft und Politik - entsprechend müssen auch Antworten interdisziplinär ausfallen (Technik, Ethik, Recht, Bildungspolitik etc. verzahnen). Wir stehen hier am Anfang eines Lernprozesses, ähnlich wie in früheren industriellen Revolutionen, nur dass dieses Mal die Veränderung viel schneller und tiefgreifender zu sein scheint. ## Internationale Entwicklungen (USA, China, EU, Schweiz) Die internationalen Ansätze zur Regulierung und Steuerung von Künstlicher Intelligenz (KI) unterscheiden sich derzeit erheblich - sowohl in ihrer politischen Zielsetzung als auch in der praktischen Umsetzung. In den USA hat sich mit der Rückkehr von Donald Trump ins Präsidentenamt der Kurs grundlegend geändert. Im Juli 2025 veröffentlichte die Regierung den „Winning the Race: America's AI Action Plan“ - ein Massnahmenpaket mit über 90 Punkten, das Innovation, den schnellen Ausbau nationaler KI-Infrastruktur und die internationale Wettbewerbsfähigkeit in den Vordergrund stellt. Zentrale Elemente sind der Abbau bestehender Vorschriften („Remove Red Tape“), die Beschleunigung des Rechenzentrumsbaus und die Lockerung früherer Auflagen zu Diversität, Klimaschutz und ethischen Standards. Bundesbehörden dürfen nur noch KI-Systeme beschaffen, die „wahrheitsgetreu und ideologisch neutral“ arbeiten - ein Bruch mit früheren Diversity-, Equity- und Inclusion-Ansätzen. Zugleich wurden grosse US-Anbieter wie OpenAI, Google und Anthropic offiziell für den Einsatz in der Bundesverwaltung zugelassen. Kritiker sehen in dieser Deregulierung einen Innovationsschub, warnen jedoch vor der Gefahr politischer Einflussnahme, mangelnder Kontrolle und verstärktem Bias. China verfolgt dagegen einen strikt regulierenden Kurs. Ab dem 1. September 2025 gilt eine landesweite Pflicht zur deutlichen Kennzeichnung aller KI-generierten Inhalte - ob Text, Bild, Audio, Video oder virtuelle Szene. Die Kennzeichnung muss entweder visuell, auditiv oder durch Metadaten erfolgen. Diese Regel ergänzt bestehende Vorschriften zur Regulierung von Deepfakes und algorithmischer Empfehlungspraxis, die bereits seit 2023 gelten. Ziel ist es, Desinformation zu verhindern und staatliche Kontrolle zu sichern - ein Ansatz, der technisch konsequent, politisch jedoch stark auf Überwachung ausgerichtet ist. Die Europäische Union setzt mit dem EU AI Act auf einen ethik- und risikobasierten Rechtsrahmen, der seit dem 1. August 2024 in Kraft ist. Er teilt KI-Anwendungen in Risikoklassen ein und definiert klare Verbote für besonders gefährliche Systeme. Erste zentrale Pflichten gelten bereits: Seit Februar 2025 sind in der EU „inakzeptable KI-Systeme“ verboten, ausserdem wurde eine verpflichtende KI-Grundbildung („AI literacy“) eingeführt. Seit August 2025 sind Konformitätsprüfungen durch unabhängige Stellen vorgeschrieben, Verstösse können sanktioniert werden. Die vollständige Umsetzung des Gesetzes ist bis 2027 geplant. Die EU verbindet diesen rechtlichen Rahmen mit gezielten Investitionen in KI-Infrastruktur und verfolgt damit eine Strategie, die technologische Wettbewerbsfähigkeit mit Grundrechtsschutz verbinden soll. Die Schweiz verfügt derzeit über kein eigenständiges KI-Gesetz, sondern setzt auf sektorielle Regulierung über bestehende Rechtsbereiche wie Datenschutz, Produktsicherheit oder Verwaltungsrecht. Im Februar 2025 kündigte der Bundesrat an, die Rahmenkonvention des Europarats für KI zu ratifizieren und über angepasste Fachgesetze umzusetzen. Parallel dazu wurde mit dem Swiss National AI Institute (SNAI) eine gemeinsame Initiative von ETH Zürich und EPFL gestartet, die auf offene Forschung, leistungsfähige Modelle und nationale Souveränität abzielt. In einzelnen Bereichen, wie autonomen Fahrzeugen, laufen bereits Pilotprojekte; auch im Bereich der Bekämpfung von Online-Desinformation gibt es erste gesetzgeberische Vorstösse. Der Schweizer Ansatz ist pragmatisch, innovationsfreundlich und stark von der eigenen Forschungskompetenz geprägt. Zusammengefasst: Insgesamt zeigt sich ein deutliches Spannungsfeld: Die USA setzen auf Deregulierung und Marktkräfte, China auf strikte staatliche Kontrolle, die EU auf einen wertebasierten Rechtsrahmen und die Schweiz auf pragmatische, sektorielle Lösungen. Für die internationale Zusammenarbeit bedeutet dies, dass einheitliche Standards nur schwer zu erreichen sein werden - mit erheblichen Folgen für Handel, Sicherheit und die Entwicklung globaler KI-Normen. Deshalb laufen neben nationalen Regeln auch Gespräche über globale Prinzipien (UNO-Dialoge zu autonomen Waffen, OECD-Empfehlungen für KI, UNESCO-Ethikempfehlungen etc.). Wir stehen hier erst am Anfang eines internationalen Ordnungsprozesses für KI. ## Zukunftsausblick (5-10 Jahre) Ein Blick in die nahe Zukunft der KI (2025-2035) lässt sowohl enorme Fortschritte als auch neue Fragen erwarten. Einige Prognosen und Trends: - **Noch leistungsfähigere KI-Modelle:** Die heutigen KI-Systeme werden aller Voraussicht nach deutlich übertroffen werden. Sprachmodelle könnten in 5-10 Jahren praktisch alle menschlichen Sprachen fliessend beherrschen, längere Dialoge mit konsistenter Persönlichkeit führen und auch multimodal arbeiten (gleichzeitig Text, Bild, Audio verstehen und erzeugen). Möglicherweise entstehen erste Ansätze von generellerer KI - also Systeme, die nicht nur in einem Bereich (Sprache) gut sind, sondern mehrere Fähigkeiten kombinieren (sehen, agieren, planen). Das Unternehmen OpenAI spekuliert selbst über zukünftige Modelle und Konkurrenz wie DeepMind oder Anthropic arbeiten ebenfalls an immer smarteren KIs. Es könnte passieren, dass KI-Assistenten alltäglich werden, z.B. als persönliche Assistenten im Smartphone, die Termine organisieren, E-Mails beantworten, Infos recherchieren - quasi ein digitaler Sekretär für jedermann, allzeit verfügbar. Es gibt Prognosen die all diese Entwicklungen zeitlich etwas später ansetzen, es gibt allerdings auch immer mehr Prognosen, die AGI (Allgemeine Künstliche Intelligenz) bereits für 2026/2027 für möglich halten. - **Durchdringung fast aller Branchen:** Wie jede General-Purpose-Technologie (vergleichbar mit Elektrizität oder Internet) dürfte KI in noch mehr Lebensbereiche einziehen. Landwirtschaft? KI-gesteuerte Drohnen analysieren Felder und verteilen Dünger präzise. Logistik? Vollautomatische Warenlager und Lieferroboter. Bauwesen? KI-optimierte Baupläne, Überwachungsdrohnen auf der Baustelle. Kreativsektor? KI, die einfache Videoanimationen oder Werbetexte generiert, sodass Kreative mehr kuratieren als selbst produzieren. Verkehr? Autonome Shuttles in Städten, KI-Ampelsteuerung für optimalen Fluss. Es ist gut möglich, dass bis 2030 autonome Fahrzeuge in einigen Regionen zum Alltag gehören (vielleicht zunächst als Busse auf festen Routen oder Taxidienste in Städten). Medizinisch könnten erste KI-gesteuerte Roboteroperationen ohne menschlichen Eingriff erprobt werden (unter Aufsicht). KI wird auch Administration und Routineaufgaben in Büros noch stärker automatisieren (bereits jetzt gibt es “AI co-pilots” in Office-Anwendungen, die z.B. Mails vorformulieren, Analysen erstellen etc.). Dieser Trend verspricht Produktivitätsgewinne - wir müssen aber auch lernen, mit der Flut an KI-Inhalten sinnvoll umzugehen (Stichwort: Qualität über Quantität). - **Neue kreative KI-Fähigkeiten:** Die bisherigen generativen KIs haben vor allem bestehende Muster imitiert. In Zukunft könnte KI origineller werden. Es gibt bereits KI mit externem Gedächtnis und Werkzeuggebrauch - etwa ein KI-Agent der eigenständig im Internet recherchiert, Software-Tools ansteuert, um komplexe Aufgaben zu lösen. Solche Systeme („autonome Agenten“) könnten z.B. auf Anweisung komplette Bildungs-Reiseplanungen machen - vom Buchen aller Tickets bis zum Zusammenstellen eines persönlichen Reiseführers - indem sie andere Dienste nutzen. Auch im wissenschaftlichen Bereich hoffen viele auf bahnbrechende KI-Entdeckungen: z.B. dass KI in der Lage sein wird, Theorien vorzuschlagen oder Experimente zu designen auf die zuvor kein Mensch gekommen ist. Ob KI jemals wirklich kreativ oder bewusst im menschlichen Sinne wird, ist offen - die meisten Experten sehen das eher langfristig oder gar skeptisch. Aber KI wird sicherlich immer überzeugender menschliches Verhalten simulieren. Schon jetzt lesen wir KI-Texte, die nicht mehr von Menschenhand zu unterscheiden sind. In Monaten bis Jahren könnten wir per Sprachassistent Gespräche führen, die sich absolut natürlich anfühlen (inklusive emotionalem Tonfall, Humor etc.). - **Herausforderungen bleiben (oder wachsen):** Die erwähnten Risiken verschwinden nicht, im Gegenteil, einige könnten sich verschärfen. Deepfakes werden noch realitätsnäher - es braucht dringend technische Lösungen wie digitale Wasserzeichen oder Blockchain-Authentifizierung für Medien, damit wir noch erkennen können, was echt ist. Arbeitsmarkt: Die Umwälzungen werden spürbarer; Bildungs- und Sozialsysteme müssen darauf reagieren (Weiterbildung, ggf. Modelle wie ein Grundeinkommen werden diskutiert, falls Produktivitätsgewinne nicht in genügend Jobs umgemünzt werden). Ethische Fragen intensivieren sich: Wenn KI in Beratung oder Therapie eingesetzt wird - was bedeutet das für zwischenmenschliche Beziehungen? Wenn Entscheidungen von KI vorgeschlagen werden - wie bewahren wir menschliche Autonomie? Solche Debatten werden die nächsten Jahre prägen. Auch Rechtsfragen wie Haftung oder Urheberrecht (z.B. wem gehört ein von KI gemaltes Bild?) müssen geklärt werden. - **Regulierung und internationale Kooperation:** In 5 Jahren dürfte es konkrete Regulierungen in vielen Ländern geben. Die EU AI-Verordnung dürfte dann in Kraft sein und als weltweit beachtetes Modell fungieren. Gleichzeitig ist es durchaus möglich, dass diese Regulierung deutlich angepasst werden muss, weil sie den rasenden technischen Entwicklungen nicht standhalten könnte. Andere Staaten könnten nachziehen oder eigene Wege gehen. Ein zentrales Thema wird die Durchsetzung sein: Gesetze nützen wenig, wenn KI-Entwicklung global verteilt ist. Daher gibt es die Vision einer Art “IPCC für KI” (analog zum Weltklimarat, nur für KI-Themen) oder einer UN-Koordinierungsstelle, die Empfehlungen gibt. Möglicherweise einigen sich Länder auf No-Gos (wie ein Verbot autonomer Waffensysteme, je nach Ausgang der UN-Verhandlungen). Gleichzeitig wird die Konkurrenz weitergehen - wer KI wirtschaftlich gut nutzt, kann seine Produktivität steigern. Europa und die Schweiz müssen aufpassen, hier nicht zurückzufallen, aber auch ihren Wertekurs halten. Die kommenden 5-10 Jahre entscheiden womöglich, wer die Standards setzt - demokratische Werte oder autoritäre Vorstellungen. Daher ist jetzt die Zeit, um Leitplanken einzuziehen. Fazit Ausblick: KI wird mit an Sicherheit grenzender Wahrscheinlichkeit noch allgegenwärtiger und leistungsfähiger. Vieles, was heute beeindruckend neu wirkt (ChatGPT-5 etc.), wird in ein paar Jahren selbstverständlich sein - so wie das Smartphone heute selbstverständlich ist. Die Gesellschaft wird sich bis dahin an KI angepasst haben müssen: durch neue Bildungsinhalte, Gesetze, vielleicht auch neue Gewohnheiten (z.B. dass man gelernt hat, skeptisch auf Inhalte zu schauen und nach KI-Spuren zu suchen). Die Technologie entwickelt sich rasant, aber ob sie zum Segen oder Fluch wird, hängt massgeblich von uns ab. Mit verantwortungsbewusstem Umgang, internationaler Kooperation und Einbezug der Gesellschaft kann KI in 10 Jahren ein natürlicher Helfer in fast allen Bereichen sein. Ohne Leitplanken jedoch könnten Vertrauenskrisen, soziale Verwerfungen oder Machtmissbrauch eintreten. Es liegt an uns - Politik, Wirtschaft, jedem Einzelnen - die Zukunft der KI konstruktiv zu gestalten. ## Glossar wichtiger KI-Begriffe - **Künstliche Intelligenz (KI)** - Sammelbegriff für Computersysteme, die Aufgaben ausführen, für die menschliche Intelligenz erforderlich wäre. In der Praxis meist Systeme, die aus Daten Muster lernen (statt starr programmiert zu sein). KI umfasst Teilgebiete wie maschinelles Lernen, Sprachverarbeitung, Robotik etc. - **Algorithmus** - Ein fest vorgegebener Verfahrensablauf oder eine Rechenvorschrift, die ein bestimmtes Problem löst. In der Programmierung ist ein Algorithmus quasi das Kochrezept für den Computer. Bei KI werden Algorithmen genutzt, um aus Daten zu lernen (Lernalgorithmen) oder Entscheidungen zu treffen. - **Maschinelles Lernen (ML)** - Unterbereich der KI, bei dem Algorithmen selbständig Wissen aus Beispieldaten erwerben. Anstatt dass ein Programmierer jede Regel vorgibt, findet das System (statistische) Muster in den Daten und generiert sein eigenes Modell. Beispiele: Bildklassifikation aus gelabelten Fotos, Vorhersagemodelle aus historischen Trends. Überwachtes Lernen bedeutet Lernen mit bekannten richtigen Antworten (Labels), unüberwachtes Lernen ohne solche Vorgaben (das System soll selbst Strukturen entdecken). - **Neuronales Netz / Künstliches neuronales Netz (KNN)** - Modellierungsansatz im maschinellen Lernen, inspiriert vom Gehirn. Ein neuronales Netz besteht aus vielen künstlichen Neuronen (Recheneinheiten), angeordnet in Schichten. Jedes Neuron verrechnet Eingaben (mit Gewichtungen) zu einem Ausgabewert. Durch Training werden die Gewichtungen so angepasst, dass das Netz bei bekannten Beispielen richtige Ausgaben liefert - in der Hoffnung, dass es so auch neue Eingaben korrekt verarbeitet. Deep Learning bezeichnet neuronale Netze mit mehreren Zwischenschichten (sogenannten Hidden Layers), die sehr komplexe Muster lernen können. - **Training (von KI-Modellen)** - Der Prozess, in dem ein KI-Modell aus Daten lernt. Beim Training werden z.B. einem neuronalen Netz viele Beispiele gezeigt und seine Parameter so lange justiert, bis es die Beispiele möglichst fehlerfrei behandelt. Oft wird dazu ein Teil der Daten als Trainingsdaten verwendet und ein anderer Teil zur Validierung (um zu prüfen, ob das Gelernte nicht nur Auswendiglernen der Trainingsfälle ist). Begriffe wie Epoch (ein Durchgang durch den gesamten Trainingssatz) und Loss-Funktion (Mass für den Fehler des Modells) sind hier relevant. - **Überanpassung (Overfitting)** - Ein Phänomen beim maschinellen Lernen: Das Modell hat die Trainingsdaten zu gut gelernt - inklusive aller Zufälligkeiten und Ausreisser - und generalisiert schlecht auf neue Daten. Overfitting führt dazu, dass die KI auf unbekannte Inputs unerwartet schlechte Ergebnisse liefert, weil sie zu sehr an den Trainingsfall “gedacht” hat. Gegenmassnahmen: mehr Trainingsdaten, einfachere Modelle, Regularisierungstechniken. - **Bias (im Kontext KI)** - systematische Verzerrung im Verhalten eines KI-Systems, meist verursacht durch verzerrte Trainingsdaten oder ungünstige Modellierung. “Bias” kann zu unfairen, diskriminierenden Ergebnissen führen, etwa wenn eine KI bei gleicher Qualifikation Männer gegenüber Frauen bevorzugt, weil die Daten aus der Vergangenheit stammten und damals ein Bias vorlag. Siehe auch algorithmische Fairness. - **Black Box** - Bezeichnung für ein System (z.B. neuronales Netz), dessen innere Entscheidungslogik für den Beobachter undurchsichtig ist. Man sieht nur Input und Output, aber nicht, warum die KI eine bestimmte Entscheidung traf. Black-Box-Modelle erschweren es, Vertrauen herzustellen und Fehlerursachen zu finden. Deshalb ist Erklärbarkeit ein wichtiges Ziel in der KI-Entwicklung (Stichwort Explainable AI, XAI). - **Grosses Sprachmodell (Large Language Model, LLM)** - Eine KI (typischerweise auf Basis von Deep Learning, genauer Transformer-Netzwerken), die mit riesigen Textmengen trainiert wurde und dadurch menschliche Sprache erstaunlich gut verstehen und erzeugen kann. Beispiele: GPT-3, GPT-4, Bard, LLaMA. LLMs arbeiten probabilistisch: Sie sagen das nächste Wort im Satz auf Basis des bisher Gesagten voraus. Durch die immensen Trainingsdaten lernen sie Fakten, Grammatik und sogar Stilmittel - können aber auch halluzinieren. LLMs bilden die Grundlage für moderne Chatbots und Text-Assistenten. - **Generative KI** - KI-Modelle, die eigenständig neue Inhalte erzeugen, seien es Texte, Bilder, Musik oder Videos. Dazu gehören z.B. GANs (Generative Adversarial Networks) für Bilder oder Transformer-Modelle wie DALL-E für Bildgenerierung und GPT für Text. Generative KI lernt die Verteilung der Trainingsdaten und kann daraus ähnliche, aber neue Beispiele generieren. Anwendungen: vom Kunstbild bis zum synthetischen Datensatz zur Anonymisierung. - **Deepfake** - Kofferwort aus “deep learning” und “fake”: Bezeichnet Medieninhalte (vor allem Videos oder Audios), die mittels KI so manipuliert oder synthetisch erzeugt wurden, dass sie echt wirken, aber falsche Inhalte zeigen. Prominent sind Gesichts-Derivate (eine Person wird in einem Video durch eine andere ersetzt) oder Stimmenfälschungen. Deepfakes können harmlos für Film und Spass eingesetzt werden, aber auch missbräuchlich (z.B. Fake-Video eines Politikers, um falsche Aussagen unterzujubeln, oder gefälschte Rachepornos mit dem Gesicht von Personen). Erkennung von Deepfakes ist ein aktives Forschungsfeld. - **Turing-Test** - Ein Gedankenexperiment/ Kriterium (von Alan Turing, 1950 vorgeschlagen), um festzustellen, ob eine Maschine intelligent ist. Besteht darin, dass ein menschlicher Prüfer sich mit einer unbekannten Entität via Text unterhält. Wenn der Prüfer nicht unterscheiden kann, ob es sich um eine Maschine oder einen Menschen handelt, hat die Maschine den Turing-Test bestanden. Moderne Chatbots kommen diesem Szenario sehr nah, beziehungsweise haben bereits bestanden, je nachdem wen man fragt Es ist allerdings umstritten, ob das allein schon “Intelligenz” bedeutet. --- ## Arbeitsteilung Markus überlegte sich was jede Person die er kennt mindestens über KI wissen sollte um für den Augenblick und die nahe Zukunft gewappnet zu sein. Markus2 formulierte und ergänzte seine Überlegungen, Markus hat die Ausformulierung korrekturgelesen, teils nochmals überarbeitet und Markus2 zur Übersetzung gegeben. ## Weiterführende Literatur ### Technische Grundlagen & grosse Sprachmodelle - [**GPT-4 Technical Report**](https://arxiv.org/pdf/2303.08774) - Detaillierter technischer Bericht von OpenAI zur Leistungsfähigkeit und Architektur von GPT-4, inklusive Benchmark-Analysen. - [**Sparks of Artificial General Intelligence: Early experiments with GPT-4**](https://arxiv.org/abs/2303.12712) - Analyse zur Breite der Fähigkeiten von GPT-4 über viele Domänen hinweg wie Mathematik, Medizin, Recht und weitere Fachgebiete, veröffentlicht als Preprint. ### Proteinstrukturvorhersage & AlphaFold - [**Highly accurate protein structure prediction with AlphaFold**](https://www.nature.com/articles/s41586-021-03819-2) - Original-Paper (Nature 2021) zur atomaren Genauigkeit der AlphaFold-Vorhersagen. - [**AlphaFold Protein Structure Database**](https://alphafold.ebi.ac.uk/) - Offizielle Seite zur Datenbank mit über 200 Millionen Proteinstrukturen zur freien Nutzung. ### Wissenschaftliche Anerkennung & Anwendungen - [**Nobel Prize Chemistry 2024**](https://www.lemonde.fr/en/science/article/2024/10/09/nobel-prize-for-chemistry-2024-artificial-intelligence-garners-more-recognition_6728828_10.html) - Auszeichnung für DeepMinds AlphaFold, hervorhebend die Bedeutung für die biochemische Forschung. ### Erklärbarkeit von KI-Modellen - [**OpenAI research on interpretability (“superalignment” team)**](https://www.wired.com/story/openai-offers-a-peek-inside-the-guts-of-chatgpt) - Forschung zur Offenlegung innerer Konzepte von GPT-4 und Tools zur Modellinterpretation. - [**GPT‑4 System Card - OpenAI (2023)**](https://cdn.openai.com/papers/gpt-4-system-card.pdf) - Hebt Schutzmassnahmen, Nutzungsrichtlinien und demografische Leistungsschwankungen hervor.