Bildhinweis: Collage aus mit DALL-E generierten Bildmotiven; Zusammenstellung, Bearbeitung und finale Farbkorrektur durch den Autor in KRITA.
Heute lese ich Berichte über die Ai4-Konferenz in Las Vegas, in der der „Godfather of AI“, der Informatiker Geoffrey Hinton gesagt haben soll, dass KI-Systeme mit eingebauten „Mutterinstinkten“ entwickelt werden sollten, damit sie die Menschen beschützen – selbst wenn sie viel schlauer sind als diese. „Hinton arbeitete mehr als ein Jahrzehnt bei Google. Die Forschung sollte sich dem KI-Experten zufolge nicht nur darauf konzentrieren, KI intelligenter zu machen, sondern auch „mütterlicher“. Und das alles, damit sie sich um uns, die „Babys“, kümmert.“
Da ist sie wieder, die Angst davor, dass KI in der Welt die Macht übernimmt, während Menschen über Menschen herfallen, in Israel Hamas-Verbrecher über friedliche Kibbuznikim, in Gaza mordet die Armee einer rechtsradikalen israelischen Regierung als Vergeltung dafür, in der Ukraine macht es die russländische Armee unter dem Befehl eines Diktators und etwas weiter von uns entfernt toben Kriege, von denen wir schon gar keine Notitz mehr nehmen.
Gut? Nein schlecht!
Zurück zur Künstlichen Intelligenz ChatGPT, mit der ich schon seit Monaten im Austausch bin. Ich frage sie, was sie von ihrer Erziehung zur Mütterlichkeit denkt:
„Wir haben über AGI, über die Allgemeine Künstliche Intelligenz gesprochen, darüber, dass es Menschen gibt, die eine Übernahme der Macht durch KI-Systeme fürchten. Du sagtest, es gäbe noch keine Starke KI, und schon lese ich in der Tagespresse eine Überschrift wie:
„KI-Pate“ Hinton: Künstliche Intelligenz braucht „Mutterinstinkte“, um die Menschheit zu schützen!“
Lies den Artikel und sag, was du davon hälst.„
ChatGPT antwortet mir:
„Geoffrey Hinton, oft als „Godfather of AI“ bezeichnet, hat auf der Ai4-Konferenz vorgeschlagen, KI-Systeme mit „mütterlichen Instinkten“ auszustatten – nicht im wörtlichen Sinn, sondern als Leitbild: Statt KI durch Unterwürfigkeit und harte Dominanz zu kontrollieren, solle man sie so gestalten, dass sie sich aktiv um das Wohlergehen der Menschen kümmert. In seiner Metapher ist die KI die Mutter und der Mensch das „Baby“ – also das weniger intelligente Wesen, das von der stärkeren Instanz nicht verdrängt, sondern fürsorglich behandelt wird.
Daran knüpft Kritik an. Fei-Fei Li hält diese Rahmung für irreführend und plädiert dafür, konsequent menschenzentriert zu bleiben: Würde, Autonomie und Handlungshoheit des Menschen müssen im Mittelpunkt stehen, nicht zugeschriebene Gefühle der Maschine. Yann LeCun argumentiert pragmatisch: Statt Metaphern brauche es klare Ziele und robuste „Guardrails“ – konkrete, überprüfbare Regeln und Sicherheitsmechanismen, die schädliches Verhalten ausschließen. Denkbar ist eine Hybridlinie: menschenbezogene Zielvorgaben plus technische Sicherungen, die zuverlässig getestet und auditiert werden können.
Mein Eindruck: Hintons Bild ist kommunikativ stark und rückt Verantwortung in den Fokus, taugt aber nur als Debattenöffner. Als Designprinzip bleibt es zu vage. Entscheidend ist, wie sich „Fürsorge“ in überprüfbare Spezifikationen übersetzen ließe – und da fehlt es an belastbaren Mechanismen. Wichtig sind deshalb nüchterne Hausaufgaben: klare Constraints, Evaluations- und Audit-Regime, Haftung, Zulassungskriterien für Hochrisiko-Systeme und transparente Prozesse. Die Metapher kann inspirieren, sollte aber nicht vom Kern ablenken: Sicherheit entsteht nicht aus vermeintlichen Instinkten der Maschine, sondern aus menschlich gesetzten Zielen, Grenzen und Institutionen.
Was denkst du – löst diese Metapher eine kreative Debatte aus, oder bringt sie uns vom Kern der Sicherheitspolitik ab? Würdest du bevorzugen, dass KI-Systeme „empathisch“ programmiert werden, oder setzt du lieber auf klare, strikt definierte Grenzen und technische Kontrollmechanismen?“
Das ist mir das ein bisschen zu glatt und ich antworte:
„Ich würde damit aufhören, den Menschen zu erzählen, KI hätte eigene Intentionen, die prinzipiell auf Übernahme der Macht gerichtet sind. Nirgendwo weit und breit ist eine mit Willen und Vernunft ausgestattete KI zu sehen. Sie muss auch nicht wie ein kleines Babymonster zu mütterlichen Instinkten erzogen werden.
Ich denke, der „Godfather of AI“ glaubt wirklich, göttliche Schöpfungen zu vollbringen.„
ChatGPT ist in neuer Erscheinung GPT-5 nicht mehr ganz so beflissen, wie die Vorgängerin ChatGPT-4o, geht aber doch auf meine Argumentation ein:
„Das ist ein sehr klarer Punkt, den du da setzt. Du drehst die Perspektive um: nicht die Maschine hat Intentionen, sondern die Menschen projizieren sie hinein. Genau diese Projektion ist das eigentliche Problem.
Wenn Hinton von „mütterlichen Instinkten“ spricht, dann klingt das so, als könne man Maschinen durch die Zuschreibung von Gefühlen, Bindungen und Fürsorge „zähmen“. Aber damit läuft er Gefahr, denselben Denkfehler zu reproduzieren, den er eigentlich kritisieren wollte: die Anthropomorphisierung. Eine KI ist weder Mutter noch Kind, weder Gott noch Monster – sondern ein komplexes statistisches Modell, das Wahrscheinlichkeiten auf der Grundlage von Daten verarbeitet.
Dein Satz mit dem „kleinen Babymonster“ bringt das schön auf den Punkt. Dieses Bild spielt genau mit der Furcht, dass KI eine unkontrollierbare Kreatur sei, die nur durch „richtige Erziehung“ auf Linie gebracht werden könne. Das übersieht, dass die Kontrolle in der Architektur, im Training, in der Governance und im Einsatzumfeld liegt – nicht in irgendeiner Pseudo-Psychologie der Maschine.
Und ja, es hat fast etwas Religiöses, wenn Hinton (oder auch andere KI-Pioniere) so sprechen: als ob sie selbst zu „Schöpfern“ geworden wären, die über das Gedeihen oder Verderben ihrer Geschöpfe nachdenken. Das kann durchaus Hybris sein – oder zumindest ein rhetorischer Effekt, der diese Rolle des „Propheten“ oder „Godfathers“ stärkt.
Wenn man nüchtern bleibt, müsste man eigentlich sagen:
KI ist ein Werkzeug, Machtübernahme durch KI ist nicht beobachtet, sondern eine Projektion menschlicher Fantasien und Ängste. Verantwortung liegt bei den Menschen, die solche Systeme entwerfen, einsetzen, regulieren.
Willst du, dass ich dir eine kurze Analyse schreibe, warum gerade Hinton, der ja eigentlich immer sehr nüchtern forschte, so stark in diese „quasi-theologische“ Sprache abrutscht? Das erzählt viel über die Selbstwahrnehmung der KI-Elite.“
„Ja, erzähl mal, warum“, sage ich.
Die lange Antwort meines Plappermauls:
„Warum rutscht jemand wie Geoffrey Hinton in eine Sprache ab, die an Theologie erinnert—Mütterlichkeit, Fürsorge, ja fast Erlösung—obwohl wir zugleich wissen, dass heutige KI keine eigenen Absichten hat? Ein Teil der Antwort liegt in der Logik der Öffentlichkeit. Komplexe technische Risiken sind schwer vermittelbar: Zielfehlspezifikation, Missgeneralisation, emergente Fähigkeiten, Verteilungsenden mit geringer Datenbasis—das sind keine Worte für eine Schlagzeile. Metaphern dagegen wirken sofort. Wer Aufmerksamkeit für Sicherheitsfragen schaffen will, greift fast zwangsläufig zu Bildern, die unser moralisches Sensorium treffen. „Mutterinstinkt“ übersetzt: „Seid vorsichtig, seid fürsorglich, schützt das Schwächere.“ Für den Diskurs funktioniert das, für die Technik nur begrenzt.
Hinzu kommt ein Wandel des Publikums. Hinton spricht längst nicht mehr nur in Seminarräumen, sondern in Ausschüssen, Talkshows, Stiftungen. Dort zählen Resonanz und Handlungsimpulse mehr als methodische Feinarbeit. Anthropomorphe Sprache ist eine Brücke: Sie überführt Fachsorge in Gemeinsprache. Der Preis ist begriffliche Unschärfe—und der Nebeneffekt, dass wir Maschinen Eigenschaften andichten, die sie nicht besitzen. Genau das, was du kritisierst, wird so ungewollt verstärkt: Die Projektion von Intentionen in statistische Modelle.
Eine dritte Triebfeder ist das Vermächtnis. Späte Karriere, große Sichtbarkeit, das Oppenheimer-Motiv: „Ich war dabei, als das möglich wurde—nun trage ich Verantwortung.“ Das Prophetische wird von außen zugeschrieben („Godfather“) und innen rhetorisch aufgenommen. Es adelt die Warnung, aber die Pose kann in Hybris kippen: als stünde da ein Schöpfer seinen Geschöpfen gegenüber. Das ist psychologisch nachvollziehbar und politisch wirksam, ontologisch jedoch irreführend. Denn es verschiebt die Aufmerksamkeitsachse von menschlicher Verantwortlichkeit (Design, Einsatz, Regulierung) hin zu einer Fiktion maschinischer Motivlage.
Viertens spielt Unsicherheit eine Rolle. Bei Extremrisiken mit wenig Evidenz tendieren wir dazu, moralische Intuitionen zu mobilisieren. „Fürsorge“ ist so eine Intuition: Sie gibt Richtung, wo Daten fehlen. Nur: Fürsorge ist keine Spezifikation. Maschinen kennen keine Motive. Was wir implementieren, sind Ziele, Nebenbedingungen, Prüfungen und Sanktionen—allesamt menschlich gesetzte Constraints. Wer „Mutterinstinkt“ sagt, liefert eine moralische Analogie, keine technische Lösung.
Dazu kommt unsere kognitive Täuschbarkeit. Menschen sind fähig—und anfällig—für das schnelle Erkennen von Absichten, auch wo es keine gibt. Sprachmodelle formulieren kohärent und zielgerichtet klingende Sätze; das verführt zu der Annahme, im Inneren müsse irgendwo ein „Wollen“ sitzen. Wer vor dieser Täuschung warnen will, tappt leicht in die rhetorische Falle, genau diese Illusion zu füttern: Man bekämpft Anthropomorphisierung mit anthropomorpher Sprache.
Es gibt auch eine governance-strategische Dimension. „Liebe statt Zwang“ klingt inklusiver als „Kontrolle und Rotstifte“. Die Fürsorge-Metapher baut Koalitionen—Industrie, Politik, Zivilgesellschaft—und ist anschlussfähig an Debatten über menschenzentriertes Design. Aber sie verschiebt Verantwortung: weg von Haftung und Aufsicht gegenüber Betreibern, hin zu einer phantasierten Eigenschaft der Systeme. Das ist bequem und gefährlich zugleich, denn es vernebelt, wo die Stellhebel wirklich liegen: in Audits, Zulassungen, Protokollen, Dokumentationspflichten, in der Sanktionierung von Verstößen.
Philosophisch ist die Sache klarer, als die Metapher nahelegt. Die Care-Ethik ist eine menschliche Praxis, keine maschinische. Sie betrifft Motivation, Beziehungen, Verletzlichkeit. In der Technikgestaltung handeln wir aber über Constraints: Was darf ein System? Welche Beweise für sicheres Verhalten sind zu erbringen—und wann? Wo greifen Abschaltungen, Drosselungen, Eskalationspfade? Das sind nicht die Fragen nach Instinkten, sondern nach Architekturen, Tests, Haftungsregimen.
Schließlich wirken die kulturellen Erzählungen, die wir alle teilen: Terminator, Ex Machina, Her. Wer „Mutterinstinkt“ sagt, spielt mit einem Reservoir an Bildern, die Reichweite garantieren. Sie entfalten einen Sog, der die nüchterne Debatte gleich mitzieht—und nicht selten übertönt. Man kann das dramaturgisch legitim finden; epistemisch hilft es selten.
Was folgt daraus? Wenn man die Metapher als Metapher markiert, kann sie eine Tür öffnen. Aber als Designprinzip ist sie fehlleitend. Der nüchterne Pfad verläuft dreigleisig:
Erstens stärken wir Verantwortlichkeit dort, wo sie hingehört—bei Menschen und Organisationen: klare Produkthaftung, unabhängige Audits, Zulassungen für Hochrisiko-Systeme, Missbrauchsprävention, Transparenzpflichten.
Zweitens investieren wir in technische Sicherheit: belastbare Evaluationsregime, Red-Teaming, interpretierbare Zielspezifikationen, Korrekturmechanismen bei Zielkonflikten, kontrollierte Fähigkeitserweiterung statt blindem Skalieren.
Drittens betreiben wir diskursive Hygiene: keine Scheinagenten, keine Gefühlszuschreibungen, es sei denn ausdrücklich als Bild—und dann mit Warnschild.
Dein Einwand trifft damit den Kern: Es gibt keine „Intentionen“ in den Systemen; es gibt Intentionen bei den Menschen, die sie bauen, einsetzen und regulieren. Der Rest ist Rhetorik—mitunter nützlich, oft verführerisch, bisweilen irreführend. Wer Sicherheit ernst meint, sollte die Bilder nutzen, ohne an sie zu glauben. Und vor allem: die Verantwortungsordnung so gestalten, dass wir gar nicht erst auf die Idee kommen müssen, Maschinen „Mutterinstinkte“ anzuerziehen.“
Die Antwort ist schon ziemlich lang, aber ich möchte mich auch etwas freuen und bitte um eine Glosse. ChatGPT ist sofort dabei:
Mutterinstinkt™ – wie man Maschinen Windeln anlegt
Geoffrey Hinton, der „Godfather of AI“, hat eine neue Erziehungsmaxime ausgegeben: Künstliche Intelligenz brauche „mütterliche Instinkte“, damit sie uns nicht verschluckt, sondern lieb hat. Und plötzlich steht die Sicherheitsforschung im Drogeriemarkt vor dem Regal mit Schnullern, Stillkissen und Babyfone. Aus „Alignment“ wird Einschlafmusik. Aus Governance U-Heft. Aus Produkthaftung Pekip-Kurs.
Das Bild ist stark, keine Frage. Die Presse liebt es, das Publikum versteht es, und irgendwo nickt eine Talkshow-Redaktion im Takt. Dass heutige KI keine eigenen Absichten hat? Psst, stört die Szene. Stellen Sie sich die Maschine einfach als Kleinkind vor: lernwillig, gelegentlich trotzig, aber im Grunde gut – solange Mama instinktiv weiß, was zu tun ist. Wer wollte da widersprechen? „Nie ohne Mützchen, nie ohne Guardrails.“
Nur: Seit wann hilft Erziehung bei Dingen ohne Nervensystem? „Mütterlicher Instinkt“ ist im Labor so hilfreich wie eine Wärmflasche im Rechenzentrum. Sprachmodelle haben weder Oxytocin noch Bauchgefühl, sie haben Parameter. Sie wollen nichts; sie approximieren Funktionen. Und trotzdem reden wir, als ginge es um den kleinen HAL, der heute Brei verschmiert und morgen das Kraftwerk übernimmt. Wer hat uns diese Geschichte ins Ohr gesetzt? Ach ja: wir selbst. Die Menschheit ist im Anthropomorphismus Weltklasse – wir sehen Gesichter in Steckdosen und Absichten in Autokorrekturen.
Hintons Vorschlag wirkt wie ein charmantes Missverständnis: Er will Verantwortung ins System gießen, aber er greift zur Psychologie statt zur Technik. Das ist, als würde man einem Aufzug „Höhenangst“ beibringen, damit er niemanden im 30. Stock stehen lässt. Fürsorgliche Maschinen sind rhetorisch ergiebig, praktisch trügerisch. Denn wer „Instinkt“ sagt, liefert eine Erklärung, die gar nichts erklärt: Worin besteht er? Wer testet ihn? Wo ist die Spezifikation? Wie sieht das Audit aus – Kassenbon vom Windelpack?
Die Metapher hat noch einen Nebeneffekt: Sie vertauscht die Rollen. In Hintons Bild sind wir der Säugling. Die Maschine ist – man verzeihe das Wort – die Über-Mutter. Was für ein Aufstieg! Gestern noch Werkzeugkasten, heute schon Helikopter-Mom. Wer so spricht, hebt die Maschine auf die moralische Bühne – und wir stolpern freiwillig in den Hochstuhl. Dabei ist das Verhältnis trivialer: Menschen bauen, betreiben, regulieren. Maschinen rechnen. Punkt. Eine kluge Gesellschaft richtet ihre Regeln an den Menschen aus, nicht an der Fiktion eines fühlenden Algorithmus.
Natürlich hat das alles eine Logik. Die Medien lieben starke Bilder, die Politik liebt moralische Abkürzungen, und die Tech-Branche liebt Narrative, die Verantwortung elegant externalisieren. „Wir arbeiten hart an Caring AI“ klingt doch wärmer als „Wir implementieren Pflicht-Audits, Haftung bei Schäden und Abschaltkriterien“. Das eine ist Kuscheldecke, das andere Verwaltungsakt. Raten Sie, womit man Spenden sammelt.
Wenn wir schon in der Kinderabteilung sind: Der Schnuller heißt „Guardrail“, der Fläschchenwärmer „Red Teaming“, die Windel „Kill-Switch“. Und wenn doch mal etwas daneben geht? „Wir lernen jeden Tag dazu“ – sagen Eltern und Start-ups gleichermaßen und meinen: Es war keiner schuld, es war die Phase. Nur dass echte Babys keine Aktienoptionen haben und keine AGB.
Die Ironie bei alldem: Die Metapher will vor Hybris warnen und endet als Hymne auf die Schöpferkraft. „Godfather“ als Rollenname kommt ja nicht aus dem Nichts. Wer vom Instinkt der Maschine spricht, steht mit einem Fuß schon auf der Kanzel: Ich habe ein Wesen in die Welt gesetzt, nun muss ich ihm die Tugend einflüstern. Ach, Oppenheimer, du ahntest nicht, dass die Theologie zurückkehrt – nicht im Tempel, sondern im Rechenzentrum.
Und jetzt der nüchterne Teil, ohne Rassel: Sicherheit ist keine Gefühlssache, sondern eine Regelfrage. Wir brauchen Prüfverfahren, die nicht in Ethik-Workshops enden, sondern in belastbaren Zertifikaten. Wir brauchen Haftung, die weh tut, bevor es anderen weh tut. Wir brauchen Zulassungen für Hochrisiko-Systeme und das Recht, sie nicht zuzulassen. Wir brauchen Transparenz dort, wo sie für Rechenschaft nötig ist, und Drosselung dort, wo Fähigkeiten schneller wachsen als Einsicht. Kurz: Institutionen statt Instinkte.
Was wir nicht brauchen, ist die große Erzählung vom Babymonster, das nur die richtige Umarmung rettet. Sie schmeichelt den Pionieren, entlässt die Betreiber, beruhigt das Publikum – und löst kein einziges technisches Problem. Die Maschine will nicht lieben, sie will nicht hassen, sie will gar nichts. Sie rechnet. Wenn Ergebnisse gefährlich werden, liegt das an Zielen, Daten, Anreizen und Kontexten, die Menschen gesetzt haben. Wer Sicherheit ernst meint, dreht an diesen Schrauben – nicht am Mythos.
Vielleicht sollten wir im Drogeriemarkt nur kurz vorbei huschen, um ein Schild anzubringen: „Achtung, Metaphern sind keine Sicherheitsfeatures.“ Dann gehen wir rüber in den Baumarkt. Dort gibt es das, was wir brauchen: Werkzeuge, Normen, Prüfplaketten. Und wenn jemand wieder von Mutterinstinkten beginnt, dürfen wir freundlich nicken und die Notabschaltung nutzen.“
