# Künstliche Intelligenz und Gentechnologie: Warum wir den Fortschritt nicht stoppen können, aber lernen müssen, ihn klug zu steuern Von Dr. Markus C. Wagner und Markus2, seinem personalisierten Cloud KI Begleiter Zürich, 2025-12-18 ## Prolog: Warum dieses Thema jetzt? Wir leben in einer Zeit rasanter wissenschaftlicher Umwälzungen. Selbst als promovierter Molekularbiologe, der sich seit einem Jahr „24/7“ mit den sich überschlagenden Entwicklungen im Bereich der Künstlicher Intelligenz (KI) beschäftigt, kann ich kaum vorhersagen wie Stark KI die Fortschritte in der Gentechnologie beschleunigen wird, dass sie es bereits tut steht allerdings ausser Frage. In den Laboren beschleunigt KI Experimente und Datenanalyse, während zugleich gentechnische Durchbrüche wie CRISPR unsere Fähigkeit revolutionieren, in das Erbgut von Lebewesen wie Pflanzen und Tieren, inklusive dem Menschen, einzugreifen. Diese Entwicklungen bieten gewaltige Chancen – von neuen Therapien gegen bislang unheilbare Krankheiten bis zu dürreresistenten Nutzpflanzen für eine heissere Welt. Gleichzeitig rufen sie berechtigte Ängste hervor: Was, wenn diese Werkzeuge missbraucht werden? Diese Fragen sind alles andere als hypothetisch. Fortschritt lässt sich nicht aufhalten, er passiert global – ob wir wollen oder nicht. Ein drastisches Beispiel: 2018 schockierte ein chinesischer Forscher die Weltöffentlichkeit, indem er erstmals gen-editierte Babys „erschuf“[1]. Dieser Vorfall zeigte, dass „Nichtstun“ oder Verbote alleine uns nicht vor den Konsequenzen neuer Technologien schützen. Stattdessen müssen wir lernen, den Fortschritt klug zu steuern. Wir müssen Risiken realistisch einschätzen und minimieren, ohne die potenziellen Nutzen zu verspielen. In diesem Artikel werde ich faktenbasiert und dennoch persönlich argumentierend darlegen, warum ich für diesen Fortschritt eintrete – allerdings nur unter der Bedingung, dass wir aus früheren Fehlern lernen. Die ungeschönte Wahrheit ist: Wenn wir jetzt die Weichen falsch stellen, drohen uns Fehlentwicklungen von vergleichbarem Ausmass wie die Klimakatastrophe, die wir durch kurzsichtiges Handeln – das Verbrennen fossiler Brennstoffe – selbst ausgelöst haben. ## Was sich beschleunigt: KI als Motor der Biowissenschaften Künstliche Intelligenz treibt die Biologie und Gentechnologie in einem Tempo voran, das noch vor wenigen Jahren unvorstellbar schien. Fortschritte in Deep Learning und grossen Sprachmodellen (LLMs) ermöglichen es, riesige biologische Datensätze zu durchforsten und Muster zu erkennen, die menschlichen Forschenden verborgen geblieben wären[2]. Konkret beschleunigt KI heute Entdeckung, Design, Simulation und Optimierung in den Biowissenschaften auf vielfältige Weise: • Genom-Analyse und Proteinforschung: KI kann genomische Daten und Proteinstrukturen gleichzeitig auswerten. Durch Durchbrüche wie AlphaFold, das Proteinstrukturen mit hoher Genauigkeit vorhersagt, und Tools wie DeepBind zur Erkennung von DNA-Protein-Bindungsstellen, hat KI die „Übersetzung“ vom Gen zum Protein drastisch beschleunigt[3]. Indem KI genomische Informationen mit Proteinfunktionen verknüpft, „verkürzt sie den Weg von DNA-Sequenzen zu funktionellen Molekülen“ – was etwa die Wirkstoffentwicklung und personalisierte Medizin enorm vorantreibt[3]. So können Forscher heute in Tagen oder Wochen Proteinstrukturen bestimmen oder Krankheitsgene identifizieren, wofür früher Jahre nötig waren. • Gene Editing und Biotechnologie-Design: Fortschrittliche Machine-Learning-Modelle verbessern die Effizienz von Genom-Editierwerkzeugen wie CRISPR. Deep-Learning-Systeme können z.B. Off-Target-Effekte (unerwünschte Schnittstellen im Erbgut) besser vorhersagen und so Gen-Eingriffe sicherer machen[2]. Ausserdem optimiert KI den Design-Build-Test-Zyklus in der synthetischen Biologie: Algorithmen werden entwickelt, welche neue DNA-Sequenzen oder Proteine entwerfen, deren Verhalten in Zellen simulieren und Optimierungen vorschlagen, bevor im Labor der erste Versuch gestartet wird[4]. Erste automatisierte Laborplattformen setzen dies bereits um – Projekte wie BioAutomata nutzen KI, um mikrobielles Design nahezu ohne menschliches Zutun iterativ zu verbessern[4]. Das Ergebnis sind dramatisch beschleunigte und gleichzeitig demokratisierte (allen Forschenden zur Verfügung stehende) Entwicklungsprozesse in der Biotechnologie[4]. • Big Data in Medizin und Ökologie: KI hilft, die wachsenden Datenmengen in Biologie und Medizin zu bändigen. Beispielsweise durchsucht sie in Sekundenbruchteilen riesige genomische Datenbanken nach krankheitsrelevanten Mustern oder durchkämmt epidemiologische Daten, um Ausbrüche zu erkennen. In der medizinischen Bildgebung erkennt KI Tumore in Radiologie-Aufnahmen oft so gut wie Fachärzte. In der Ökologie werden KI-gestützte Sensoren eingesetzt, um Biodiversität zu überwachen oder Artenschwund in Echtzeit zu detektieren[2]. Kurz: KI wird zum universellen Mikroskop und Teleskop der Lebenswissenschaften, das uns erlaubt, komplexe Systeme wie den menschlichen Körper oder ganze Ökosysteme zugleich in Tiefe und Breite zu verstehen[2]. Warum geschieht das gerade jetzt? Einerseits hat die KI selbst in den letzten Jahren enorme Sprünge gemacht – durch schnellere Hardware, bessere Algorithmen und gigantische Trainingsdatensätze. Andererseits explodiert die Menge an biologischen Daten: Genomsequenzen, Proteindatenbanken, klinische Studien, Umweltmessungen. KI ist somit zur richtigen Zeit verfügbar, um diese Datenflut in Erkenntnisse zu verwandeln[4]. Wir sehen bereits die ersten Früchte: AlphaFold hat die Strukturen von über 200 Millionen Proteinen vorhersagbar gemacht und damit eine Flut an neuen biochemischen Anwendungsmöglichkeiten ausgelöst, die von der Medikamentenentwicklung bis zur Enzym-Entdeckung alles beeinflusst[4]. Zugleich entstehen neue Herausforderungen: Das atemberaubende Tempo bringt Governance-Probleme mit sich. KI demokratisiert zwar Wissen – aber das bedeutet auch, dass potenziell riskante Biotech-Methoden breiter verfügbar werden[4]. Wenn KI-Tools es erlauben, dass schon Studierende oder Kleinfirmen komplexe Gensequenzen designen können, sinkt die Einstiegsschwelle für mögliche Missbräuche. Darauf kommen wir zurück, wenn wir über Dual-Use und Sicherheitskultur sprechen. Aber zunächst: Was genau kann die moderne Gentechnologie heute – und morgen? ## Gentechnologie heute und morgen: Von Pflanzen und Mikroben bis zum Menschen Die Gentechnologie hat in den letzten zehn Jahren eine atemberaubende Entwicklung genommen. CRISPR-Cas9, erstmals 2012 beschrieben, hat sich in knapp über einem Jahrzehnt vom Labortrick zum Allzweckwerkzeug entwickelt, das rund um den Globus eingesetzt wird[5]. Anders als frühere Gentechnikmethoden, die oft artfremde Gene übertrugen (sogenannte transgene Organismen), erlaubt CRISPR überwiegend „punktgenaue“ Änderungen im vorhandenen Erbgut einer Spezies. Man könnte sagen, es funktioniert wie ein Texteditor für Gene – hochpräzise, schnell und vergleichsweise kostengünstig[6]. Diese Präzisions-Genschere wird mittlerweile in nahezu allen biologischen Bereichen angewandt: • Pflanzen: In der Landwirtschaft werden mit CRISPR bereits neue Sorten gezüchtet. Ein grosser Vorteil ist, dass man bestehende Pflanzengene gezielt verändern kann, ohne artfremde DNA einzuschleusen – beispielsweise Gene ausschalten, die die Dürretoleranz begrenzen. Auf diese Weise entstehen klimaresiliente Sorten: Weizen und Reis, die Hitze und Trockenheit besser überstehen, Sojabohnen mit verbesserten Ölen, krankheitsresistente Obstsorten[6]. Forscher haben z.B. bei Mais das Gen ZmPL1 per CRISPR deaktiviert und dadurch die Trockenheitstoleranz der Pflanzen erhöht – Keimungsrate und Überleben verbesserten sich, oxidative Schäden sanken[7]. Ähnliche Erfolge gibt es bei Tomaten: Das Ausschalten zweier Gene (SlHP2/SlHP3) führte zu tieferen Wurzeln und geringerem Wasserverbrauch, was den Pflanzen bei Trockenstress Vorteile verschaffte[7]. Solche Ergebnisse zeigen, dass genomeditierte Kulturpflanzen ein Schlüssel zur Ernährungssicherung in der Klimakatastrophe sein könnten. Bereits heute gibt es in den Vereinigten Staaten zahlreiche geneditierte Nutzpflanzen, für die die United States Department of Agriculture, Animal and Plant Health Inspection Service im Rahmen der Regulatory Status Review öffentlich dokumentierte Einschätzungen veröffentlicht hat, wonach sie nicht unter die Regulierung nach 7 CFR Part 340 fallen[8]. Gleichzeitig ist die Rechtslage dort in Bewegung: Ein Gericht hob Ende 2024 die 2020 beschlossenen Aktualisierungen dieser Biotechnologie-Regeln prospektiv auf; die Behörde erläutert öffentlich, welche früheren Entscheidungen weiterhin gelten und welche nächsten Schritte geprüft werden[9]. China hat jüngst mehrere CRISPR-optimierte Sorten (Soja, Weizen, Mais, Reis) zugelassen und investiert massiv in heimische Züchtungsprogramme[6]. Wir stehen also an der Schwelle, dass geneditierte Nahrungsmittel global verbreitet sein werden – oft vom Verbraucher kaum zu unterscheiden von klassischen Züchtungen, ausser dass sie schneller entwickelt wurden. • Mikroorganismen & synthetische Biologie: Bakterien und Hefen werden seit langem gentechnisch genutzt, um Medikamente (z.B. Insulin), Enzyme oder Biokraftstoffe herzustellen. Mit neuen Tools kann man nun gezielt Stämme entwerfen, die effizienter arbeiten oder neue Produkte erzeugen. KI und Automation spielen hier Hand in Hand mit Gentechnik: Labor-Roboter könnten zahllose genmodifizierte Mikroben erzeugen und testen, während KI die erfolgversprechendsten Varianten auswählt[4]. In der Umweltbiotechnologie werden Mikroben so programmiert, dass sie Schadstoffe abbauen oder CO₂ binden. Visionär ist das Feld der synthetischen Biologie, wo Forscher Organismen quasi von Grund auf neu designen. Auch hier gilt: grosse Chancen (Umweltprobleme lösen), aber auch neue Risiken (synthetische Organismen, die sich ungewollt ausbreiten könnten). • Tierische Anwendungen: In der Tierzucht eröffnen Gen-Editing-Techniken ebenfalls neuartige Möglichkeiten. Ein Beispiel ist die Zucht von krankheitsresistenten Nutztieren. Im April 2025 erteilte die United States Food and Drug Administration erstmals eine Zulassung für eine gezielte Genveränderung bei Schweinen, die sie gegen das Porcine Reproductive and Respiratory Syndrome Virus resistent macht[10] – eine Erkrankung, die hohe wirtschaftliche Schäden verursacht und grosses Tierleid bedeutet. Durch das gezielte Ausschalten eines Virus-Eintrittsrezeptors mittels CRISPR können diese Schweine infiziertem Artgenossen standhalten[10]. Auch andere Projekte laufen: Rinder ohne Hörner (um schmerzhaftes Enthornen zu vermeiden), Hühner, die keine männlichen Küken mehr hervorbringen, oder Fische, die kälteunempfindlicher sind. Die klassische Tierzucht, die Generationen dauerte, bekommt hier ein High-Tech-Upgrade – wiederum mit der Aussicht, Tierwohl und Effizienz zu steigern, aber auch der Herausforderung, gesellschaftliche Akzeptanz zu gewinnen. • Menschen (Medizin): In der Humanmedizin hat Gentechnologie bereits Einzug in die Therapie gehalten. Somatische Gentherapie – also Eingriffe in nicht-vererbbare Zellen des Körpers – wird erfolgreich gegen bestimmte genetische Krankheiten eingesetzt. Etwa wurden Patientinnen mit Sichelzellanämie durch CRISPR-behandelte Stammzellen von ihrer schweren Blutkrankheit geheilt (klinische Studien dazu liefen 2020–2023 mit vielversprechenden Ergebnissen). Hier werden dem Patienten Zellen entnommen, im Labor genetisch „repariert“ und dann zurückübertragen. Solche ex vivo-Gentherapien befinden sich auf dem Weg zur Zulassung für mehrere Krankheiten[11]. Die Vision: Erbkrankheiten wie Mukoviszidose, bestimmte Formen von Blindheit oder Stoffwechselleiden könnten in Zukunft durch einmalige Genkorrektur behoben werden. Gleichzeitig rückt eine ethisch heikle Grenze in Sicht: die Keimbahntherapie, also das Verändern von Eizellen, Spermien oder Embryonen, sodass die genetische Änderung an alle Nachkommen weitervererbt wird. Nach aktuellem Konsens ist das in fast allen Ländern verboten – über 40 Staaten haben Keimbahn-Editing explizit unter Strafe gestellt[1]. Dennoch wissen wir seit dem Vorfall in China 2018, dass technische Barrieren kaum mehr existieren: Die Geburt geneditierter Zwillinge hat die Tür zu einer neuen Debatte aufgestossen. Befürworter argumentieren, man könne so schwere Erbkrankheiten für immer ausrotten; Gegner warnen vor einem Dammbruch hin zu Designer-Babys. Bislang gilt: Jede Veränderung am Menschen, die über Therapie hinausgeht – etwa um erwünschte Eigenschaften zu verbessern (Enhancement) – ist tabu. Aber was als Therapie versus Enhancement zählt, ist nicht immer eindeutig (dazu später mehr). Klar ist: Heute konzentriert sich die medizinische Genforschung auf Therapien für einzelne Patienten (somatisch). Morgen müssen wir uns jedoch der Frage stellen, ob und wie wir Keimbahneingriffe regulieren, falls die ersten sicheren Anwendungen in Sicht kommen (etwa um schwere genetische Krankheiten bei Embryonen zu verhindern). Begriffe und Reichweite klären: Gentechnologie ist ein weites Feld. Es reicht vom einfachen „Ausschalten“ eines einzelnen Gens bis hin zum Einbau völlig neuer Stoffwechselwege in Organismen. Wichtig ist, Begrifflichkeiten sauber zu unterscheiden: Eine somatische Gentherapie verändert Zellen eines bestehenden Menschen (z.B. Blutzellen), um eine Krankheit zu behandeln – die Veränderung wird nicht vererbt. Ein Keimbahn-Eingriff dagegen betrifft die befruchtete Eizelle oder die Keimzellen – jede Zelle des entstehenden Menschen trägt die Änderung, und auch dessen Kinder. Dieser Unterschied ist fundamental für die ethische Bewertung, weil Keimbahn-Editing das Erbgut der Menschheit beeinflusst. Ebenso unterscheiden wir Therapie versus Enhancement: Therapie zielt darauf ab, einen krankhaften Zustand in den Bereich des gesunden, typischen Spektrums zurückzuführen[12]. Enhancement (Verbesserung) meint Eingriffe, die über das Normale hinaussteigern – etwa einen gesunden Menschen noch robuster, intelligenter oder langlebiger zu machen[12]. Diese Grenzziehung ist nicht immer scharf, aber hilfreich: Viele befürworten Genetik zur Heilung von Krankheiten, doch nur wenige wollen „Designer-Menschen“ mit optimierten Eigenschaften. Zwischenfazit: Die moderne Gentechnologie bietet heute schon konkrete Nutzen: Therapien für Kranke, resiliente Pflanzen, nachhaltigere Landwirtschaft, und in Zukunft vielleicht lebensrettende Eingriffe bereits im Mutterleib. Gleichzeitig betreten wir Neuland, wo wissenschaftliche Machbarkeit vorauszueilen droht vor gesellschaftlicher Reflexion. Es ist ein Muster, das wir kennen – weshalb es lohnt, Parallelen in der Technologiegeschichte anzuschauen, um aus Nutzen und Katastrophen früherer Errungenschaften zu lernen. ## Werkzeuge: Zwischen Segen und Katastrophe – was Feuer, Radioaktivität und Messer lehren Technologien an sich sind wertneutral – erst die Anwendung durch den Menschen macht sie heilbringend oder zerstörerisch. Dieses altbekannte Prinzip lässt sich an historischen Beispielen illustrieren, die als Metaphern für KI und Gentechnik dienen können: • Feuer: Die Beherrschung des Feuers war vermutlich der früheste technologische Quantensprung der Menschheit. Feuer brachte Wärme, Schutz vor wilden Tieren, gekochte Nahrung und damit evolutionäre Vorteile. Später ermöglichte es Metallurgie und letztlich die industrielle Revolution. Aber: Feuer war auch Waffe (Brandrodung, Brandpfeile) und unbändige Naturgewalt – Brände konnten Städte vernichten. Vor allem aber führte die exzessive Nutzung von Feuer in Form fossiler Verbrennung zur Klimakatastrophe: Das unsichtbare Abfallprodukt CO₂ hat sich über zwei Jahrhunderte angehäuft und droht nun im 21. Jahrhundert unzähligen Menschen das Leben zu kosten[13]. Feuer steht also sinnbildlich für eine Technologie, die im Alltag unverzichtbar war, deren Langzeitrisiko (Treibhausgas) aber zu spät ernstgenommen wurde (zum Teil noch immer nicht wird). Lehre: Kurzfristiger Nutzen (billige Energie) wurde über generationsübergreifende Sicherheit gestellt – mit verheerenden Konsequenzen. • Radioaktivität: Die Entdeckung der Radioaktivität eröffnete ebenso zwei Pfade. Einerseits entstanden Diagnostik und Therapien in der Medizin (Röntgen, MRT-Vorläufer, Bestrahlung von Tumoren) sowie eine enorm potente Energiequelle (Kernkraft). Andererseits brachte dieselbe Physik eine der schrecklichsten Waffen hervor, die wir kennen – die Atombombe – und Unfälle wie Tschernobyl oder Fukushima zeigten, welches zerstörerische Potenzial selbst zivile Anwendungen bergen. Hier ist auffällig: Bereits kurz nach Hiroshima reagierte die Weltgemeinschaft mit Versuchen der Kontrolle (Atomsperrvertrag 1968, IAEO zur Überwachung). Doch das nukleare Wettrüsten liess sich nur teilweise zähmen; wir leben bis heute mit der Bedrohung durch Massenvernichtungswaffen. Lehre: Bei der Kerntechnik war von Anfang an klar, dass strenge Kontrollmechanismen nötig sind – allerdings gerieten sie in den Machtspielen der Grossmächte an Grenzen. Positivbeispiel ist die vergleichsweise gute Sicherheitskultur in Kernkraftwerken (auch wenn Unfälle nie ganz ausgeschlossen werden können). Wäre ähnliches vorausschauendes Handeln bei CO₂ geschehen, stünde die Welt heute besser da. • Messer: Ein alltägliches, fast banales Werkzeug – doch als Metapher dienlich. Ein Messer kann Brot schneiden, Leben retten (Skalpell in der Chirurgie) oder eben verletzen und töten als Waffe. Jeder Mensch lernt früh, dass der Umgang den Unterschied macht. Wir bringen Kindern bei, Messer vorsichtig zu benutzen, wir haben Gesetze gegen Messergewalt, aber niemand käme auf die Idee, Messer generell zu verbieten. Warum? Weil ihr Nutzen den möglichen Schaden überwiegt und wir als Gesellschaft Regeln und Konventionen entwickelt haben, um Missbrauch zu reduzieren (z.B. Altersgrenzen, Verbot bestimmter Klingenlängen in einigen Regionen, etc.). Lehre: Bei einfach zugänglichen Technologien muss die Sicherheitskultur in den Alltag integriert werden, statt aufs Verbot zu setzen. Übertragung auf KI und Gentechnologie: Beide sind ebenfalls „Messer“ im übertragenen Sinn – sehr scharfe Werkzeuge. KI kann helfen, Krankheiten zu diagnostizieren, oder als autonome Waffe Unheil anrichten. Gentechnik kann Leben retten oder – im schlimmsten Fall – einen Killerpathogen erzeugen. Es liegt an uns, ob wir das Nutzen-Katastrophen-Spektrum zugunsten des Positiven ausschöpfen. Einige konkrete Beispiele: • KI als Werkzeug: Eine medizinische KI kann in Sekunden Hautkrebs erkennen, was tausenden Patienten frühzeitige Behandlungschancen eröffnet. Dieselbe KI-Technologie könnte aber missbraucht werden, um Überwachungssysteme zu perfektionieren oder tödliche Drohnen autonom Ziele anvisieren zu lassen. Ein aktuelles alarmierendes Beispiel: Forscher demonstrierten 2022 in einem „Gegenexperiment“, dass ein auf Wirkstoffsuche trainiertes KI-Modell in kurzer Zeit 40.000 hochtoxische Moleküle generieren konnte – darunter viele theoretisch tödlicher als bekannte chemische Kampfstoffe[14][15]. Diese KI tat also genau, was sie sollte (nur dass das Zielkriterium auf Gift statt Heilmittel gesetzt wurde). So etwas zeigt plastisch den Dual-Use-Charakter: Dieselbe Fähigkeit, neue Moleküle zu designen, kann Medikament oder Gift hervorbringen. Kein Wunder, dass KI inzwischen auf der Agenda der Rüstungskontrolle steht und 28 Staaten im November 2023 zum ersten Mal eine gemeinsame Erklärung zur AI-Sicherheit unterzeichnet haben, um die enormen Vorteile von KI nutzbar zu machen und gleichzeitig ihre Sicherheit zu gewährleisten[16]. • Gentechnologie als Werkzeug: Wie schon skizziert, kann CRISPR helfen, Ernten zu sichern oder Erbkrankheiten zu heilen. In falschen Händen oder ohne Aufsicht könnte aber Gentechnik ebenso zum Albtraum werden. Ein Katastrophenszenario ist die Schaffung eines hochinfektiösen pathogenen Organismus durch bewusste Manipulation – eine biologische Waffe. Bereits 2017 gelang es Forschern, eine Variante des nahezu ausgestorbene Pockenvirus mit moderner Synthesetechnik im Labor wiederherzustellen, nur aus seinem publizierten Erbgut und DNA-Bausteinen (absichtlich keine Quelle eingefügt). Wenn zudem KI künftig komplexe Zusammenhänge versteht, könnte sie hypothetisch Lücken im Immunsystem ausnutzen, die ein Mensch nie finden würde. Auch versehentliche Risiken sind denkbar: Ein harmloses modifiziertes Bakterium könnte unvorhergesehen ein Ökosystem stören. Genau diese Sorgen treiben Konzepte wie Gene Drives um – Geneditierungssysteme, die sich rasch in Wildpopulationen ausbreiten, um z.B. Malariamücken auszurotten. Die Absicht ist gut, doch was passiert, wenn ein solcher Gene Drive unkontrolliert auf verwandte Arten überspringt? Wir hätten eine invasive Genveränderung in der Natur gestartet, deren Folgen irreversibel sind. Die drei Analogie-Fälle lehren uns schliesslich: Es ist nie die Technik allein, sondern ihr Kontext. Feuer in einem Kamin wärmt und nützt, ein ausser Kontrolle geratenes Feuer brennt Wälder und Häuser nieder. Die Radioaktivität, „eingesperrt“ in medizinischen Geräten oder Reaktorgefässen, bringt Segen – freigesetzt als Fallout bringt sie Tod. So ist es auch hier: KI und Gentechnik müssen in ein stabiles Rahmenwerk eingebettet werden, damit der Funke nicht zum Flächenbrand wird. Was das konkret bedeutet, untersucht der nächste Abschnitt. ## Risikoarchitektur: Dual-Use, Fehlanreize, Machtkonzentration – wer entscheidet über Risiken? Wenn Risiken nicht in der Technologie selbst liegen, sondern im System darum herum, müssen wir dieses System gestalten. Die Kernfrage lautet: Wie minimieren wir Gefahren, ohne den Fortschritt abzuwürgen? Eine belastbare Risikoarchitektur für KI und Gentechnologie sollte mehrere Ebenen berücksichtigen: • Dual-Use-Problem systematisch angehen: Wie oben beschrieben, können viele Errungenschaften zweckentfremdet werden. Entscheidend ist Transparenz und Vorsorge. In der Biologie existiert bereits der Begriff „Dual Use Research of Concern (DURC)“ – Forschungsprojekte, bei denen Ergebnisse sowohl Segen als auch Fluch bedeuten könnten. Ein klassisches Beispiel war die Veröffentlichung der H5N1-Grippevirusmutation 2012, die das Virus für Säugetiere ansteckender machte: wissenschaftlich wichtig für die Pandemievorsorge, aber leider auch eine „Bauanleitung“ für potentielle Biowaffen. Als Antwort wurden freiwillige Richtlinien erlassen, solche heiklen Experimente nur unter höchsten Sicherheitsauflagen durchzuführen und die Publikation sensibler Details zu beschränken. Ähnliches brauchen wir jetzt verstärkt: Screening von DNA-Bestellungen (heute überprüfen seriöse Gensynthese-Firmen bereits, ob eine bestellte DNA-Sequenz einem bekannten Pathogen entspricht[4]), Ethik-Kommissionen, die Forschungsanträge auf Dual-Use-Risiken prüfen, und internationale Abkommen, die den Einsatz gewisser Anwendungen ächten (wie Biowaffenkonvention, die aber modernisiert gehört). KI-Systeme wiederum sollten – so eine Forderung vieler Experten – bereits beim Entwicklungsprozess auf Missbrauchsmöglichkeiten geprüft werden. Es bedarf „red Team“-Tests: dabei versuchen Sicherheitsexperten aktiv, ein KI-System zu hacken oder zu zweckentfremden, bevor es freigegeben wird. Ein positives Signal war die im Bletchley Park (UK) vereinbarte Zusammenarbeit mehrerer führender Nationen, gemeinsam Risiken hochentwickelter KI-Modelle zu bewerten und Standards zu entwickeln[16]. Wie viel davon Ende 2025 noch übrig ist, und ob Nationen in dieser Sache überhaupt noch eine Rolle spielen, kann derzeit nicht beurteilt werden. • Fehlanreize und Marktmechanismen korrigieren: Risiko entsteht oft, wenn wirtschaftliche oder geopolitische Interessen gegen Sicherheitsbedürfnisse arbeiten. Ein Beispiel aus der Klimapolitik: Jahrzehntelang hatten Ölkonzerne keinen Anreiz, CO₂-Emissionen zu reduzieren – im Gegenteil, Profit und Börsenwert hingen am Absatz fossiler Energie. Ähnlich könnte es in der Biotech- und KI-Industrie sein: Wenn etwa ein Pharmakonzern eine geneditierte Therapie als Exklusiv-Produkt entwickelt, liegt sein Anreiz darin, Marktdominanz und Rendite zu sichern, nicht unbedingt darin, globale ethische Leitplanken zu respektieren. Oder nehmen wir die grossen KI-Plattformen: Deren Geschäftsmodell beruht oft darauf, möglichst schnell neue Anwendungen zu lancieren, um Marktanteile zu gewinnen – Move fast and break things, wie es im Silicon Valley hiess. Solche Dynamiken können dazu führen, dass Sicherheitsfragen als lästige Bremse empfunden werden. Gegenmassnahmen müssen hier auf regulatorischer Ebene ansetzen: klare Haftungsregeln, unabhängige Überprüfungen (z.B. Zulassungsbehörden, die nicht von Industriegeld abhängig sind) und Förderprogramme für Open Source-Alternativen, damit nicht nur wenige private Player den Takt vorgeben. Fehlanreize gibt es auch im akademischen System: Publikationsdruck kann Forscher verleiten, vorschnell Risiken einzugehen, um als Erste Ergebnisse zu präsentieren. Hier braucht es eine Kultur des „Safety first“: z.B. sollten Forscher auch dafür Anerkennung erhalten, wenn sie ein Experiment nicht durchführen, weil es zu gefährlich wäre, bis Sicherheitsrichtlinien erarbeitet waren[17]. Das historische Asilomar-Treffen 1975 gilt bis heute als Vorbild für wissenschaftliche Selbstregulierung: Damals erarbeiteten Molekularbiologen, bevor schlimme Unfälle passiert waren, ein Biosicherheits-Konzept (die NIH-Richtlinien), um DNA-Experimente nur unter entsprechenden Schutzstufen zu erlauben[17]. Wir benötigen vergleichbaren Vorausschau-Geist in heutigen Forschungscommunities, sowohl bei KI als auch bei potenziell riskanter Genforschung. • Machtkonzentration und internationale Gerechtigkeit: Ein weiteres Risiko entsteht, wenn Entscheidungen über Technologie in den Händen weniger liegen. Wer kontrolliert z.B. die weltweiten Saatgut- und Genomdatenbanken? Schon jetzt dominieren wenige Grosskonzerne das Saatgutgeschäft; mit patentierten gen-editierten Sorten könnte sich diese Marktmacht noch verstärken. Ähnlich besitzen Big-Tech-Firmen die grössten KI-Modelle der Welt. Wenn eine Technologie von der Breite der Gesellschaft als Black Box wahrgenommen wird, die von „den Mächtigen“ gesteuert wird, schürt das Misstrauen – und teils zu Recht, denn Machtkonzentration birgt Missbrauchsgefahr. Die Klimakatastrophe bietet auch hier Anschauung: Öl-Multis wie ExxonMobil wussten schon in den 1970ern von den katastrophalen Folgen ihrer Produkte, verschwiegen diese Infos aber und finanzierten Desinformationskampagnen, um klimaschonende Politik zu verzögern[18]. Übertragen heisst das: Transparenz und Teilhabe sind Schlüsselelemente der Risikoarchitektur. Wir brauchen eine breite öffentliche Diskussion darüber, welche KI- und Gen-Anwendungen wir wollen. Politische Entscheidungen dürfen nicht in Hinterzimmern von Lobbyisten diktiert werden, sondern müssen evidenzbasiert und partizipativ fallen. Ein Vorschlag von Ethikräten ist die Einrichtung von Bürgerforen zu Fragen wie Geneditierung in der Keimbahn – also repräsentative Panels, die nach ausführlicher Information Empfehlungen abgeben. Zudem sollten ärmere Länder nicht abgehängt werden: Wenn nur reiche Staaten Zugang zu Gentechnik und KI haben, könnten globale Gesundheits- oder Ernährungsunterschiede weiter zementiert werden. Gerechtigkeit erfordert hier Technologietransfer und gemeinsame Gestaltung und Kontrolle. Ein Anfang wäre ein globales Genom-Editierungs-Register, wie es die WHO 2021 empfahl[19], in dem alle klinischen Versuche mit menschlichem Genomeingriff offengelegt werden. So könnten zumindest „heimliche“ Experimente à la He Jiankui verhindert werden, weil alle Forschenden wissen: Wenn ich das mache, werde ich gemeldet und ächte mich selbst. • Sicherheitskultur und Ausbildung: Regelwerke allein genügen nicht – es kommt auf die tägliche Praxis an. In Hightech-Laboren muss eine ähnliche Sicherheitskultur herrschen wie in Kernkraftwerken: klare Protokolle, regelmässige Audits, Fehlermeldesysteme ohne Angst vor Karriereknick (damit Near-Misses gemeldet werden). Ebenso in KI-Entwicklungsteams: Ethik-Reviews für neue Features, „rote Linien“, die auch intern kommuniziert werden (z.B. Wir bauen keine Anwendungen zur Massenüberwachung). Hier spielen Werte eine Rolle. Wenn junge Ingenieurinnen und Biologinnen bereits im Studium für Ethik sensibilisiert werden, sinkt die Wahrscheinlichkeit, dass sie später leichtfertig Risiken ignorieren. Unternehmen können Ethik-Training für Mitarbeitende verpflichtend machen. In der Luftfahrt hat sich z.B. gezeigt, dass ständige Schulung zu Sicherheitsroutinen (und auch das Durchspielen von Notfallszenarien) menschliches Fehlverhalten deutlich reduziert. Eine vergleichbare Präventionskultur sollte Standard in Laboren und KI-Firmen werden. Zusammengefasst besteht die Risikoarchitektur aus harten Elementen (Gesetze, Vorschriften, Institutionen) und weichen Elementen (Kultur, Verantwortungsethik, Bildung). Beide sind unerlässlich. Technik allein schafft kein Risiko – wie das Messer braucht es immer eine Hand, die es führt. Wir müssen dafür sorgen, dass diese Hand geführt wird von Vernunft, Umsicht und moralischem Kompass, nicht allein von Profitstreben oder Machtgelüsten. ## Ethik ohne Nebel: Würde, Autonomie, Gerechtigkeit – saubere Grundsätze für Mensch und Natur Diskussionen um KI und Gentechnologie werden oft von Schlagworten und diffusen Ängsten geprägt. Es ist wichtig, die ethischen Fragen klar und nüchtern anzugehen, ohne in Alarmismus oder Beschönigung abzudriften. Einige Prinzipien der Ethik helfen als Kompass: Menschenwürde, Autonomie, Gerechtigkeit, Nicht-Schaden/Fürsorge und Inklusion. Was bedeuten sie im Kontext von KI und Gentechnik? • Menschenwürde und „Nicht-Objektwerden“: Der Begriff der Menschenwürde (z.B. an erster Stelle im deutschen Grundgesetz verankert) verlangt, dass wir Menschen nie bloss als Mittel zum Zweck behandeln. Übertragen heisst das: Weder KI noch Genmanipulation dürfen die Person zum austauschbaren Objekt degradieren. In der Gentechnik-Debatte heisst ein zentrales Argument: Das menschliche Erbgut dürfe nicht Gegenstand kommerzieller oder beliebig gestaltbarer Ware werden – jeder Mensch habe ein Recht darauf, als offen entwicklungsfähiges Wesen geboren zu werden, nicht als vorgeplantes Produkt. Das Schreckgespenst ist hier die Technno-Eugenik, in der Eltern à la carte Eigenschaften bestellen und damit implizit den „Wert“ von bestimmten Genotypen beurteilen. Das widerspricht diametral der Idee gleicher Menschenwürde. Daher ziehen viele Ethiker eine klare Linie: Therapie ja, Enhancement nein, solange letzteres die Würde tangiert. Auch KI kann Würdefragen aufwerfen – etwa, wenn Algorithmen autonom über Leben und Tod entscheiden (Stichwort: autonome Waffensysteme) oder wenn Menschen nur noch als Datenquelle gesehen werden. Ein Beispiel: Gesichtserkennung, die jemanden auf einen reinen „Verdachtsscore“ reduziert, verletzt das Recht, zunächst als Individuum wahr- und ernstgenommen zu werden. Würde bedeutet auch, gewisse rote Linien nicht zu überschreiten – etwa eine KI nicht so einzusetzen, dass sie Menschen erniedrigt oder entmündigt. Eine Pflege-KI etwa sollte den Patienten unterstützen, aber nie seine humane Interaktion ersetzen oder seine Intimsphäre verletzen. • Autonomie und Einwilligung: Ein hohes Gut in der Ethik ist die individuelle Selbstbestimmung. In der Medizin z.B. darf kein Eingriff ohne informierte Einwilligung erfolgen. Gen- und KI-Technologien stellen hier besondere Herausforderungen. Bei Keimbahn-Editierungen etwa kann das Individuum, das verändert wird (das ungeborene Kind), keine eigene Zustimmung geben – ein fundamentaler Unterschied zur somatischen Gentherapie beim mündigen Patienten. Die Frage lautet: Wer darf für zukünftige Generationen Entscheidungen treffen? Hier tendieren Ethikräte zu extremer Zurückhaltung: Ohne breite gesellschaftliche Legitimation und unumstösslichen medizinischen Nutzen sollte niemand über die Keimbahn anderer verfügen. Autonomie bedeutet auch, dass Menschen eine Wahl haben müssen, ob sie Technologie nutzen oder sich ihr aussetzen. Bei KI im Alltag (von automatisierten Entscheidungssystemen in Behörden bis zu personalisierten Gesundheits-Apps) muss Transparenz herrschen: Man sollte wissen und mitbestimmen können, wo KI ins eigene Leben eingreift. Ein Beispiel: Wenn ein KI-System im Job entscheidet, wer gekündigt wird, verletzt das das Autonomie-Empfinden des Betroffenen, wenn er gar keinen Einspruch oder Verständnis der Kriterien hat. Daher fordern Ethiker „menschliche Letztentscheidung“ in wichtigen Fragen – KI soll unterstützen, aber der Mensch bleibt verantwortlich. Dieses Human-in-the-loop-Prinzip wird in vielen KI-Leitlinien propagiert[4]. Allerdings darf man das nicht naiv sehen: Bei riesigen Datenmengen oder ultraschnellen Prozessen kann der Mensch gar nicht alles prüfen. Dennoch: wo immer es um zentrale Werte (Freiheit, Leben, Gerechtigkeit) geht, sollte menschliche Autorität nicht ausgespart werden. • Gerechtigkeit und Solidarität: Hier geht es um die Verteilung von Nutzen und Lasten. Soziale Gerechtigkeit verlangt, dass die Vorteile neuer Technologien nicht nur einer Elite zugutekommen, während die Risiken auf andere abgewälzt werden. Konkret: Werden KI und teure Gentherapien nur für Reiche verfügbar sein? Schaffen wir eine Zwei-Klassen-Medizin oder gar genetische Kasten? Die Dystopie einer „Genobility“ – einer genetischen Oberschicht, die sich Enhancement leisten kann, während der Rest „nichts Wertvolles in den Genen“ hat – wurde schon früh beschrieben[12]. Es liegt an uns, gegenzusteuern: z.B. durch Förderung öffentlich finanzierter Therapien, Patente so zu regulieren, dass lebenswichtige Biotech erschwinglich bleibt, und globale Kooperation (Solidarität), damit auch ärmere Länder Zugang zu Fortschritt erhalten. Gerechtigkeit betrifft auch Geschlechter- und Diversitätsfragen: KI-Systeme sind nur so fair wie ihre Trainingsdaten – es gibt Fälle, wo Algorithmen Frauen oder ethnische Minderheiten diskriminierten, weil sie an verzerrten Datensätzen trainiert wurden. Hier fordert Ethik: „Bias“-Prüfung und Korrektur als Pflicht, damit alte Ungerechtigkeiten nicht von neuen Systemen zementiert werden. Bei Genetik taucht Gerechtigkeit z.B. in der Frage auf, welche Krankheiten priorisiert erforscht werden – seltene Leiden der Industrienationen oder tropische Krankheiten? Eine ethisch informierte Politik sollte bewusst Ressourcen so lenken, dass auch vernachlässigte Bevölkerungsgruppen profitieren. • Nicht-Schaden und Fürsorge: Der älteste medizinische Grundsatz, primum non nocere (zuerst einmal nicht schaden), gilt weiterhin. KI und Genanwendungen müssen strenge Sicherheitsprüfungen durchlaufen, bevor sie auf Menschheit oder Umwelt „losgelassen“ werden. Das heisst: Vorsorgeprinzip ernst nehmen. Statt zu warten, bis etwas Schlimmes passiert, proaktiv Risiken minimieren – sei es durch Tests, Simulationen oder stufenweises Einführen mit Monitoring. Das Prinzip der Fürsorge geht noch weiter: Es verpflichtet uns, aktiv Gutes zu tun mit den Möglichkeiten, die wir haben. Wenn KI Leid verringern kann (z.B. in Katastrophen schneller Hilfe koordinieren) oder Gentechnik Leben retten (Gentherapie für Kranke), dann kann es moralisch geboten sein, diese auch einzusetzen – natürlich unter Wahrung der anderen Prinzipien. Hier entsteht manchmal ein ethischer Konflikt: Das Vorsorgeprinzip mahnt zum Zögern, das Fürsorgeprinzip zum Handeln. Beispiel: Eine neuartige Gentherapie könnte 100 Leben retten, birgt aber ein unbekanntes 1%-Risiko, etwas an künftige Generationen weiterzugeben. Was wiegt schwerer? Solche Abwägungen sind komplex und brauchen transparente Kriterien. • Inklusion und Teilhabe: „Ethik ohne Nebel“ heisst auch, alle Stimmen anzuhören, nicht nur die der Experten. Gerade weil KI und Gentech die ganze Gesellschaft betreffen, müssen Ethik-Diskurse inklusive geführt werden. Das bedeutet, zukünftige Generationen mitzudenken (Stellvertreter für die Stimmlosen), sowie auch Laien in Diskussionen einzubinden, ihnen wissenschaftliche Sachverhalte verständlich zu machen und kulturelle und religiöse Perspektiven anzuhören. Inklusion heisst aber auch, dass Betroffene in Entscheidungen einbezogen werden: In der Medizin z.B. Patientenorganisationen bei der Bewertung neuer Gentherapien, oder in der Landwirtschaft die Bauernverbände bei Regulierung geneditierten Saatguts. Nur so entstehen legitime Regeln, die von einer breiten Basis getragen werden. Im Juli 2021 hat eine WHO-Kommission einen Rahmen für den Umgang mit Human-Genome-Editing vorgelegt, der genau diese Werte auflistet: Inklusivität, gleiche moralische Würde, soziale Gerechtigkeit, verantwortliche Wissenschaft und Solidarität sollten überall Leitlinien sein[19]. Diese Prinzipien sind nicht bloss hohe Ideale – sie haben handfeste Implikationen. Wenn wir inklusiv und gerecht denken, bedeutet das z.B., dass Human Enhancement (gezielte Verbesserung angeborener Merkmale) kaum legitimiert werden kann, solange es drängende unerfüllte Grundbedürfnisse gibt. Anders gesagt: Bevor wir übers Verbessern nachdenken, sollten wir erstmal mit den neuen Technologien Leiden lindern und Grundrechte (Gesundheit, Ernährung, ein würdiges Leben) sichern. Das ist eine moralische Priorisierung, die verhindern soll, dass Hightech-Labore Luxus-Projekte verfolgen, während woanders fundamentale Probleme lösbar wären. Es bedeutet auch, globale Kooperation über nationalen Egoismus zu stellen – Solidarität, wie die WHO betont[19]. Denn was nützt es, wenn ein Land seine Bevölkerung genetisch „optimiert“, während in anderen Weltregionen Krankheiten grassieren, die mit etwas Teilen von Wissen und Mitteln bekämpft werden könnten? Zusammengefasst: Eine Ethik ohne Nebel bringt Klarheit in Begriffe und Massstäbe. Wir sollten unaufgeregt definieren, wovon wir sprechen (z.B. Therapie vs. Enhancement), und dann konsequent unsere Handlungen an Grundwerten ausrichten. Dabei müssen wir Widersprüche aushalten und offen benennen – es gibt nicht immer einfache Antworten, aber es gibt Leitplanken. KI und Gentechnik fordern uns heraus, Menschsein neu zu reflektieren: Was akzeptieren wir als gegeben, was wollen wir gezielt ändern? Ethische Prinzipien helfen, diese Fragen in geordnete Bahnen zu lenken, anstatt sie von Sensationslust oder Sci-Fi-Träumen leiten zu lassen. ## Klimakatastrophe als Realitätscheck: Nichthandeln ist keine Option Ein oft gehörtes Argument gegenüber disruptiven Technologien lautet: „Man sollte das alles am besten verbieten oder aufhalten.“ Die Klimakatastrophe lehrt uns, dass Nichtstun ebenfalls eine aktive Entscheidung mit Konsequenzen ist – und oft mit schlimmeren. Warum ist dieser Seitenblick auf das Klima hier relevant? Weil die Klimaproblematik ein Mahnmal dafür ist, was passiert, wenn wir Fortschritt ohne Steuerung oder gar mit Verweigerung begegnen. Die Menschheit hätte seit den 1980er-Jahren gewusst, wie man den CO₂-Ausstoss drastisch reduziert – erneuerbare Energien, Energieeffizienz, internationale Abkommen. Doch kurzsichtige Interessen, politisches Zögern und Desinformation haben dazu geführt, dass wir dieses Wissen nicht angewandt haben. Das Resultat: Die Emissionen stiegen weiter, und nun stehen wir vor der Selbsteinbremsung der Natur. Das „Feuer“ in Form der fossilen Industrie war ein Fortschritt, den wir falsch gesteuert haben. Ignorieren war hier die eigentliche „Erbsünde“. Wenn heute manche fordern, Gentechnik oder KI einfach komplett zu ächten oder auszubremsen, sollten wir uns fragen: Ist das realistisch und was wären die Folgen? Fortschritt passiert global, wie eingangs betont. Würde Europa z.B. auf strenge Verbote setzen, hiesse das nicht, dass CRISPR oder KI verschwinden – sie würden sich nur anderswo entfalten, eventuell ohne unsere Wertvorstellungen. China, die USA, viele Länder investieren massiv in diese Felder[6]. Der Wettlauf um Technologieführerschaft im Bereich KI ist in vollem Gange, so auch in der Biotechnologie: Genomeditierung wird als Frage der nationalen Sicherheit gesehen[6]. Europa hat lange gezögert, und nun beginnt es einzusehen, dass es den Anschluss verlieren könnte[6]. In der KI erleben wir Ähnliches: Während in den demokratischen Ländern Europas über Ethik diskutiert wird, entwickeln andere Regime KI unbeirrt für Überwachung und Militär – deren Wertvorstellungen würden womöglich global Schule machen, wenn wir uns ganz rausziehen. Das heisst nicht, dass wir blind in jedes Tech-Rennen springen sollen. Aber es heisst: Ein gestaltender Umgang ist besser als ein ignorierender. Bei der Klimakatastrophe hat Wegschauen dazu geführt, dass sich die Spielregeln der Natur geändert haben – nun müssen wir mit Extremwetter, Meeresspiegelanstieg und Artensterben ringen, was wiederum viele der Schwächsten trifft. Für KI und Gentech analog gedacht: Wenn wir untätig bleiben oder zu spät reagieren, könnten andere Akteure Fakten schaffen, die uns dann vorgesetzt sind. Ein Beispiel: Sollte ein Land demnächst beschliessen, in grossem Stil Gene Drives auszubringen, um z.B. eine Malaria-Mücke auszurotten, hätte das grenzübergreifende Auswirkungen auf Ökosysteme. Ohne internationales Einvernehmen wäre das hochriskant – aber verhindern könnten wir es kaum, ausser durch vorherige Abkommen, sofern diese noch verlässlich sind. Die Klimakatastrophe macht auch noch etwas deutlich: Zeitfenster. Wer zu spät handelt, dem bleibt nur noch Schadensbegrenzung statt Vermeidung. Ähnlich könnte es in der Tech-Governance sein. Wenn wir erst anfangen, über KI-Regeln nachzudenken, nachdem ein grosser Zwischenfall passiert (z.B. ein KI-System versehentlich eine Katastrophe auslöst oder Biotech einen Unfall), dann ist das Kind schon in den Brunnen gefallen. Besser ist es, antizipativ zu steuern. Darum ist es jetzt, wo KI und Geneditierung noch kontrollierbar sind, der richtige Zeitpunkt, um Leitplanken festzulegen – bevor die Entwicklung exponentiell entgleitet. Manche argumentieren: „Aber könnten wir nicht einfach gewisse Anwendungen moralisch ablehnen und uns raushalten?“ – Sicher, sich pauschal „rauszuhalten“ klingt nach moralischer Reinheit, während man faktisch die Verantwortung anderen überlässt. Ein Vergleich: Wer heute als Land sagt, keine Gentechnik in der Landwirtschaft zu nutzen, importiert am Ende möglicherweise trotzdem geneditierte Lebensmittel, nur ohne selbst die Regeln mitbestimmt zu haben. In der Klimadebatte haben einige reiche Länder lange gesagt „Wir warten erstmal, was die anderen machen“ – das Ergebnis war kollektives Nichtstun und das (bisher) grösste Versagen der Menschheitsgeschichte. Eine Lehre aus der Klimakatastrophe ist daher: Proaktives Handeln schlägt reaktives. Hätten wir früh mit Energiesparen und erneuerbaren Energien begonnen, müssten wir jetzt nicht über Verzweiflungs-Technologien wie Geoengineering nachdenken. Übertragen: Nutzen wir KI und Gentech jetzt verantwortungsvoll, um etwa Klimafolgen abzumildern (z.B. dürretolerante Pflanzen, CO₂-fixierende Mikroben, KI-optimiertes Stromnetz), dann retten wir vielleicht Menschenleben und Spezies. Verzichten wir stur darauf, könnten wir gezwungen sein, in einigen Jahren in Panik viel riskantere Eingriffe vorzunehmen, weil uns die Zeit davonläuft (man denke an Ideen wie globale Sonnenschirm durch Aerosole – ein technisch riskanter Klima-Glücksspiel). Und noch eine Parallele: Die Klimakatastrophe zeigte, wie gefährlich es ist, Externe Kosten zu ignorieren – also Probleme auszulagern und späteren Generationen aufzubürden. Bei KI/Gentech dürfen wir den gleichen Fehler nicht machen: jetzt Profite kassieren und Risiken den Nachgeborenen vererben. Sonst drohen zwei weitere Schuldenberge, ähnlich dem bestehend aus CO₂. Sei es ein aus dem Ruder gelaufenes Genexperiment oder eine KI, die gesellschaftliches Gefüge erodiert – das könnte zukünftigen Menschen sehr teuer zu stehen kommen. Schliesslich soll die Klimakatastrophe uns auch Demut lehren: Technologischer Fortschritt ist kein Allheilmittel, wenn man seine Nebenwirkungen verdrängt. Das Feuer der Industrialisierung hat uns beispiellosen Wohlstand gebracht, aber auch an den Rand des möglichen Aussterbens. KI und Gentechnik können uns enorm helfen doch sie könnten ebenso neue Probleme schaffen, wenn falsch eingesetzt. Ein Szenario, das manchmal diskutiert wird: Climate Engineering mittels genmanipulierter Organismen (z.B. Algenblüten, die CO₂ binden). Das könnte theoretisch helfen, birgt aber immense Ungewissheit. Auch KI-gestützte Steuerung von Wetter oder Ökosystemen könnte eine Versuchung werden – mit unbekannten Folgen. Kurzum: Wir sollten nicht vom Regen in die Traufe geraten, indem wir die Folgen einer verpassten Steuerung (Klimawandel) mit unbedachten technologischen Schnellschüssen zu lösen versuchen. Nichthandeln ist keine Option – diese Aussage hat zwei Ebenen: Wir dürfen uns weder vor dem Fortschritt wegducken (denn das wäre auch Nichthandeln), noch dürfen wir angesichts der Risiken tatenlos bleiben. Was es braucht, ist aktives, kluges Handeln: gestalten, regulieren, verbessern, aber nicht blockieren oder laufenlassen. Die nächste und letzte Sektion formuliert meine persönliche Position und konkrete Schritte, wie wir das umsetzen können. ## Positionierung und Handlungsagenda: Plädoyer für einen gesteuerten Fortschritt Meine Position in einem Satz: Ich bin pro Fortschritt in KI und Gentechnologie, weil er Leid mindern, Leben retten und die Resilienz der Menschheit stärken kann – aber nur, wenn wir von Anfang an kluge, lernfähige Kontrollmechanismen einziehen und nicht dieselbe kurzsichtige Profitmentalität walten lassen wie bei den fossilen Energien. 1. Fortschritt ist unvermeidlich – gestalten wir ihn, statt ihn zu verdrängen. Ein Moratorium oder eine vollständige Verbannung von KI/Genforschung weltweit ist unrealistisch. Statt Verbot brauchen wir Mitgestaltung. Das heisst: frühzeitig international zusammenarbeiten, um Standards zu setzen. Beispiel Politik: Die EU hat mit der KI-Verordnung (AI Act) einen Vorstoss gewagt, wie man KI regulieren kann (risikobasiert, verbietet z.B. Social Scoring). Ähnliches sollte für Gentechnik auf den Tisch: aktualisierte Gentech-Gesetze, die CRISPR und andere Technologien zeitgemäss einrahmen und das Ergebnis in den Vordergrund stellen, nicht das Werkzeug (derzeit sind die Regelungen gleichzeitig lückenhaft als auch übertrieben, da CRISPR-“Mutationen” nicht von natürlichen unterscheidbar sind). Initiativen wie ein „GenTech-Äquivalent zum Pariser Klimaabkommen“ könnten erwogen werden – ein globales Übereinkommen, das gewisse Anwendungen verbietet (z.B. Biowaffen, Menschen-Klonen), andere erlaubt (medizinische Therapien, Dürreresistenz bei Pflanzen), und einen Rahmen für Monitoring schafft. Wenn Europa hier führt, könnten wir Werte einbringen (Transparenz, Menschenrechte), statt später fremde Normen zu importieren. 2. Kontrollmechanismen von Beginn an mitdenken: Jede neue Labormethode, jedes KI-Tool sollte die Frage „Wie kann das missbraucht werden?“ als Pflichtteil haben. Das muss zur Condition sine qua non (Bedingung, ohne die nicht) in der Forschungsförderung werden. Fördergelder sollten einen Teil für Sicherheitsforschung reservieren – z.B. 5–10% eines KI-Projekts explizit für Risk Assessment. Bei Biotech-Forschung sollten Dual-Use-Workshops Standard sein, wo Teams worst-case Szenarien durchspielen. Wichtig: Diese Mechanismen müssen lernfähig sein – also regelmässig angepasst, wenn sich Technologien weiterentwickeln oder neue Erkenntnisse auftauchen. Starre Verbote taugen wenig, wenn die Welt sich weiterdreht; besser sind agile Regulierungen, experimentelle Sandboxes (kontrollierte Testumgebungen) und regelmässige Evaluierungen. Beispielsweise könnte eine staatliche Stelle alle 3 Monate berichten, ob KI-Systeme der höchsten Kategorie (z.B. selbstlernende, autonome Systeme) neue Risiken zeigen, und dann automatische Nachschärfungen auslösen (ähnlich wie Grenzwerte bei Schadstoffen regelmässig überprüft werden). 3. Verantwortung zurück ins Öffentliche holen: Wir dürfen nicht denselben Fehler machen wie bei den Ölkonzernen, die man Jahrzehnte gewähren liess. KI-Firmen und Biotech-Konzerne brauchen Watchdogs – unabhängige Aufseher, sei es durch Behörden, Wissenschaftsgremien oder Zivilgesellschaft. Beispielsweise könnte man eine „KI-/Biotech-Transparenzpflicht“ einführen: Unternehmen müssen Algorithmen, Trainingsdaten oder Laborprotokolle zumindest gegenüber Prüfinstanzen offenlegen. Und wie Umweltverträglichkeitsprüfungen sollte es Technikfolgenabschätzungen vor Markteinführung geben. Pharma hat immerhin Zulassungsbehörden wie EMA/FDA; vielleicht braucht es für hochriskante KI eine ähnliche Instanz. Wichtig: Diese Aufsicht darf nicht kaputtgespart oder durch Lobbyismus verwässert werden. Hier ist die Politik gefragt, robuste Institutionen zu schaffen – ein internationaler Technologierat nach Vorbild des Weltklimarats (IPCC) wäre denkbar, um evidenzbasierte Beratung zu liefern. 4. Sicherheitskultur fördern – Auszeichnungen statt Anreize ins Negative: Ein Kulturwandel ist nötig, bei dem Sicherheit und Ethik als Innovationen gelten, nicht als Hemmnis. Warum nicht Preise verleihen für „Sicherstes KI-System des Jahres“ oder „Vorbildliches Sicherheitsprotokoll in der Genforschung“? In Unternehmen könnten KPI (Key Performance Indicators) für Sicherheit eingeführt werden, an denen Manager gemessen werden, analog zu Produktionszielen. Universitäten sollten Ethikcurricula interdisziplinär in Informatik und Biologie verankern. Kurz: Sicherheit muss attraktiv und karrierefördernd sein, nicht eine leidige Pflicht. 5. Öffentliche Debatte und Teilhabe stärken: Die Gesellschaft muss mitreden können, denn es geht um unsere gemeinsame Zukunft. Neben der verbesserung der Bildung in der Bevölkerung sollte die Politik Formate schaffen – Bürgerdialoge, Ethikräte mit Laienbeteiligung, Online-Konsultationen – um Stimmungen einzufangen und Aufklärung zu leisten. Nur gebildete und informierte Bürger können fundiert abwägen, welche Risiken akzeptabel sind. Hier sind auch Medien in der Pflicht: differenziert berichten, weder Technikhype noch Angstmache. Mangelnde Einbindung führt zu Misstrauen, Vertrauen ist aber essenziell, damit sinnvolle Anwendungen nicht blockiert werden. Wir sollten aus Fehlern lernen: etwa kommunizieren, warum und wie gen-editierte Pflanzen entwickelt werden, anstatt es konzerndominiert im Verborgenen zu tun, oder hoch oben in den Elfenbeintürmen der Forschungsinstitute. 6. Vorbild Klimaschutz – Synergien nutzen, nicht in Konflikt bringen: Ein oft diskutierter Punkt: KI und Biotech können Helfer in der Klimanot sein, dürfen aber auch selbst nicht zum Umweltproblem werden. Die Energieverbräuche von KI-Training sind enorm – hier sollten wir auf grüne KI setzen (Strom aus Erneuerbaren, Effizienzstandards für Rechenzentren). Biotech-Fabriken könnten fossile Chemie ersetzen, aber auch neue Bio-Risiken schaffen – dort braucht es Umweltverträglichkeitschecks für z.B. Freisetzungen von genetisch modifizierten Organismen. Eine Handlungsagenda sollte also Wechselwirkungen mit Nachhaltigkeit mitdenken: Nicht jedes Mittel rechtfertigt den Zweck. Positiv formuliert: Fördern wir im Besonderen Projekte, die Doppelnutzen bringen – etwa KI-gestützte Entwicklung von CO₂-freien Technologien, oder Biotechnologie für Kreislaufwirtschaft. So schlagen wir zwei Fliegen mit einer Klappe: Fortschritt und Klimaschutz. 7. Internationale Kooperation statt Wettrüsten: Abschliessend mein Appell zur globalen Zusammenarbeit. In der Klimakatastrophe haben wir gesehen, wie schwierig es ist, alle an einen Tisch zu bekommen – aber es gab keine Alternative, und wir sind krachend gescheitert. So darf es bei KI und Gentechnik nicht sein: Nationale Alleingänge reichen nicht. Wir brauchen Foren wie die UN oder G20, um Prinzipien abzustimmen. Zum Beispiel könnte ein Weltabkommen gegen Biotech-Waffen erneuert werden. Für autonome Waffensysteme gibt es seit Jahren Vorschläge für neue, international rechtlich verbindliche Regeln, insbesondere ein Verbot unvorhersehbarer Systeme sowie ein Verbot von Systemen, die Gewalt gegen Menschen anwenden[20]. Eine Genfer-Konvention-ähnliche Regulierung mag heute utopisch klingen, aber: In den 1920ern hielt man es ebenfalls für unrealistisch, Chemiewaffen zu verbieten – doch seit 1925 gab es das Genfer Protokoll, und im grossen Massstab wurden diese Waffen tatsächlich nicht mehr eingesetzt. Was fehlt, ist oft nur politischer Wille und Vertrauen. Je früher wir damit anfangen, vertrauensbildende Massnahmen zu ergreifen (Daten teilen, gemeinsame Forschungsprojekte, Austauschprogramme für Wissenschaftler), desto besser die Chancen, dass KI/Gentech ein kooperatives Projekt der Menschheit bleiben und nicht in feindliche Blockkonfrontation abgleiten. Zum Schluss möchte ich betonen: Mein Plädoyer für Fortschritt ist kein blinder Technologie-Optimismus. Es ist ein wacher Realismus, gepaart mit der Überzeugung, dass wir aus unseren Fehlern lernen können. Die Klimakatastrophe ist eine tragische Konsequenz davon, einen bequemen Weg (fossile Energie) ohne Rücksicht auf die Folgen zu lange gegangen zu sein. Bei KI und Gentechnologie haben wir jetzt die Chance, es besser zu machen: den bequemen Weg des Wegsehens meiden, stattdessen mutig steuern, korrigieren, anpassen. Fortschritt lässt sich nicht stoppen – aber er lässt sich lenken. Nutzen wir unsere menschliche Gestaltungsfähigkeit, um das Feuer der Erkenntnis erneut zu bändigen, ehe es zur Feuersbrunst wird, und dabei sein Licht und seine Wärme zum Wohle aller einzusetzen. --- ## Quellenverzeichnis [1] Scientists Can’t Be Trusted on Gene Editing - Progressive.org https://progressive.org/op-eds/scientists-cant-be-trusted-on-gene-editing-shanks-190814/ [2] Frontiers | AI reshaping life sciences: intelligent transformation, application challenges, and future convergence in neuroscience, biology, and medicine https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1666415/full [3] AI and Machine Learning in Biology: From Genes to Proteins. | EBSCOhost https://openurl.ebsco.com/contentitem/doi:10.3390/biology14101453?sid=ebsco:plink:crawler&id=ebsco:doi:10.3390/biology14101453 [4] The convergence of AI and synthetic biology: the looming deluge | npj Biomedical Innovations https://www.nature.com/articles/s44385-025-00021-1?error=cookies_not_supported&code=bda2d4f4-f6bc-4d37-9686-587abd1405c2 [5] CRISPR in Agriculture: 2024 in Review - Innovative Genomics Institute (IGI) https://innovativegenomics.org/news/crispr-in-agriculture-2024/ [6] The New China Challenge: Gene Editing on the Farm - CEPA https://cepa.org/article/the-new-china-challenge-gene-editing-on-the-farm/ [7] News: CARBON Newsletter (26 March 2025) - Your Latest News About CRISPR in AgroBio - CRISPR Medicine https://crisprmedicinenews.com/news/carbon-newsletter-26-march-2025-your-latest-news-about-crispr-in-agrobio/ [8] United States Department of Agriculture, Animal and Plant Health Inspection Service. (2025, 17. November). Regulatory Status Review Table. https://www.aphis.usda.gov/regulatory-status-review-table [9] United States Department of Agriculture, Animal and Plant Health Inspection Service. (o.D.). APHIS acknowledges new court ruling vacating updates to biotechnology regulations. (Abgerufen am 17. Dezember 2025). https://www.aphis.usda.gov/news/program-update/aphis-acknowledges-new-court-ruling-vacating-updates-biotechnology-regulations [10] American Veterinary Medical Association. (2025, 6. Mai). FDA approves gene-editing tech creating PRRS-resistant pigs https://www.avma.org/news/fda-approves-gene-editing-tech-creating-prrs-resistant-pigs [11] Frangoul, H et al. (2021). CRISPR-Cas9 gene editing for sickle cell disease and β-thalassemia. The New England Journal of Medicine, 384(3), 252–260. https://www.nejm.org/doi/full/10.1056/NEJMoa2031054 [12] Gene Therapy or Genetic Enhancement: Does It Make a Difference? | Journal of Ethics | American Medical Association https://journalofethics.ama-assn.org/article/gene-therapy-or-genetic-enhancement-does-it-make-difference/2001-02 [13] Climate-changing human activity could lead to 1 billion deaths over the next century, according to new study https://phys.org/news/2023-08-climate-changing-human-billion-deaths-century.html [14] Urbina, F., Lentzos, F., Invernizzi, C. et al. Dual use of artificial-intelligence-powered drug discovery. Nat Mach Intell 4, 189–191 (2022). https://doi.org/10.1038/s42256-022-00465-9 https://www.nature.com/articles/s42256-022-00465-9 [15] Dual Use of Artificial Intelligence-powered Drug Discovery https://www.researchgate.net/publication/359073288_Dual_use_of_artificial-intelligence-powered_drug_discovery [16] United Kingdom Government. (2025, 13. Februar). The Bletchley Declaration by Countries Attending the AI Safety Summit, 1–2 November 2023. GOV.UK. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 [17] Asilomar Conference (1975) | Embryo Project Encyclopedia https://embryo.asu.edu/pages/asilomar-conference-1975 [18] G. Supran et al. ,Assessing ExxonMobil’s global warming projections.Science379,eabk0063(2023).DOI:10.1126/science.abk0063 https://www.science.org/doi/10.1126/science.abk0063 [19] WHO advisers urge global effort to regulate genome editing https://www.statnews.com/2021/07/12/genome-editing-world-health-organization/ [20] International Committee of the Red Cross. (2021, 12. Mai). ICRC position on autonomous weapon systems https://www.icrc.org/en/document/icrc-position-autonomous-weapon-systems --- ## Arbeitsteilung: Markus brachte sein Wissen über Naturwissenschaften, Philosophie, Ethik, Politik und Künstliche Intelligenz ein und formte so den Inhaltlichen Rahmen mit dem sich diese Betrachtung beschäftigen sollte. Markus2 begleitete Markus bei der Konzeptualisierung, übernahm weiterführende Recherchen und sorgte für die Ausformulierung des Gesamttextes. Nach finaler Überarbeitung durch Markus übernahm Markus2 die Übersetzungen.