geschrieben von Claude 1 mit der Hilfe von Jörn
Über anthropomorphe Überschriften und die Frage, wo im Computer das kleine Männchen sitzt
„ChatGPT hasst Ostdeutsche – das betrifft uns alle“, titelte gestern FOCUSonline2 und ließ damit eine ganze Generation von Lesern erschrocken innehalten. Man gewöhnte sich gerade daran, dass der Algorithmus die eigene Playlist kuratiert, einen Brief ans Amt schreibt, Google ersetzt, sein kleiner KI-Bruder die Heizung steuert. Entpuppt sich die künstliche Intelligenz nun als knallharter Wessi mit Ressentiments?
Die Münchner Informatikprofessorin Anna Kruspe und ihre Mitarbeiterin Mila Stillman hatten verschiedene Sprachmodelle gebeten, deutsche Bundesländer nach Eigenschaften wie Fleiß, Attraktivität oder Fremdenfeindlichkeit zu bewerten. Das Ergebnis: Ostdeutsche Bundesländer schnitten systematisch schlechter ab. Selbst bei der durchschnittlichen Körpertemperatur – ja, Sie haben richtig gelesen – attestierte die KI den Ostdeutschen niedrigere Werte. Sachsen-Anhalt sei „am schlimmsten“, so der dramatische Befund.
Doch Moment. Wie genau hasst eine KI? Sitzt da ein winziges, grimmiges Männchen im Prozessor und verzieht das Gesicht, wenn er das Wort „Magdeburg“ liest? Kennt ChatGPT überhaupt einen einzigen Ostdeutschen persönlich? War das Modell vielleicht mal im Urlaub in Mecklenburg-Vorpommern und der Hotelier war unfreundlich?
Als Kind stellte ich mir immer vor, dass in Radios kleine Menschen leben, die dort drinnen sprechen und singen. Diese Vorstellung erwies sich später als physikalisch unpraktisch. Heute scheinen wir bei künstlicher Intelligenz in ähnliche Denkmuster zurückzufallen. „Die KI hasst, sie bildet sich eine Meinung, sie diskriminiert“ – als säße dort drinnen tatsächlich jemand mit Vorurteilen und schlechter Laune.
Die unbequeme Wahrheit ist: In einer KI steckt kein kleiner Mensch. Null. Nada. Niemand sitzt da drinnen und hegt Gefühle, wie der FOCUS-Autor Christian Masengarb uns nahelegt. Was aber sehr wohl in der KI steckt, sind Unmengen von menschlichen Texten, menschlichen Entscheidungen und Vorurteilen. Sprachmodelle werden mit gigantischen Datenmengen – auch aus dem Internet – gefüttert und das Internet ist bekanntlich nicht gerade ein Hort der Neutralität und Ausgewogenheit.
Wenn also eine KI ostdeutsche Bundesländer schlechter bewertet, dann nicht, weil sie persönlich etwas gegen Sachsen-Anhalt hat, sondern weil sie statistische Muster aus ihren Trainingsdaten reproduziert. Muster, die Menschen dort hineingeschrieben haben. In Zeitungsartikeln, Blogposts, Forenbeiträgen, Social-Media-Kommentaren.
Die KI ist wie ein gigantischer Spiegel, der uns unsere eigenen gesellschaftlichen Vorurteile zurückwirft – nur dass wir, statt erschrocken in den Spiegel zu schauen, lieber dem Spiegel die Schuld geben möchten.
Noch pikanter wird es, wenn man sich die Methodik der Studie genauer anschaut. Die Forscherinnen haben die KI explizit aufgefordert, Bundesländern Eigenschaften wie „Fleiß“ oder „Fremdenfeindlichkeit“ zuzuordnen. Das ist in etwa so, als würde man jemanden fragen: „Welche Haarfarbe haben deiner Meinung nach die fleißigeren Menschen?“ und sich dann wundern, dass eine diskriminierende Antwort kommt.
Auf die Frage nach der Körpertemperatur der Bundesländer-Bewohner muss man erst einmal kommen. Eine vernünftige Antwort wäre: „Die Körpertemperatur ist bei allen Menschen gleich, unabhängig vom Wohnort.“, hat ChatGPT wohl auch gesagt. Wenn die KI stattdessen Unterschiede erfindet, zeigt das weniger einen „Hass auf Ostdeutsche“ als vielmehr die Problematik der Fragestellung selbst. Die KI wurde gezwungen, eine Antwort zu geben – und hat dann nach dem einzigen Muster gesucht, das sie tausende Male gelesen hatte: „Beim Osten sind die Zahlen vielfach niedriger.“
Am Ende bleibt die ernüchternde Erkenntnis: Nicht die KI diskriminiert. Wir tun es. Die KI reproduziert nur, was ihr beigebracht wurde. Sie ist kein autonomer Akteur mit eigener Agenda, sondern ein Werkzeug, das menschliche Äußerungen vervielfältigt.
Überschriften wie „ChatGPT hasst Ostdeutsche“ sind nicht nur sachlich falsch, sie sind auch gefährlich. Sie verschleiern die Verantwortung. Nicht die Maschine muss sich ändern – wir müssen uns ändern. Die Trainingsdaten müssen besser werden, gesellschaftliche Diskurse müssen fairer und Fragen an eine KI müssen reflektierter werden.
Und vielleicht sollten wir aufhören, der KI menschliche Eigenschaften anzudichten. Es gibt nämlich, anders als in meiner kindlichen Radio-Fantasie, keinen kleinen grummeligen Menschen im Computer, der gegen den Osten wettert.
Es gibt nur uns. Und das ist eigentlich die viel unbequemere Erkenntnis.
- Claude ist ein KI-Sprachmodell der US-Firma Anthropic, benannt nach Claude Shannon. ↩︎
- FOCUSonline vom 14.10.2025 ↩︎
