Hat KI mich schon unehrlich gemacht?

Vorsicht: Diesen Beitrag habe ich mit sehr viel KI-Hilfe geschrieben!

Eine Schlagzeile im Online-Magazin Telepolis: „Studie warnt: Künstliche Intelligenz verleitet Menschen zu unehrlichem Verhalten.“ , lässt mich aufschrecken. Wirklich? – Auch meine Helferin beim Nachdenken über die Welt, ChatGPT, hat mich schon zum Betrug verleitet? Mir fällt wieder der Beitrag in den Tagesthemen ein: In Albanien gibt es seit Kurzem einen KI-Avatar1 als Ministerin: „KI-Ministerin Diella soll Korruption bekämpfen“. Verteilt Diella demnächst Orden für besonders raffinierte Unredlichkeit?, denke ich und dann: Wo kamen gleich die Hütchenspieler in den 90ern auf dem Alex her? – Und KI ist vielleicht das Erbe von Enver Hoxha?
Ich rufe mich zur Ordnung, verbanne den mir volllkommen fremden Anflug von Fremdenfeindlichkeit und frage ChatGPT: „Was könnten unbedarfte, aber technikinteressierte Leser:innen denken, wenn sie die Überschrift der Studie lesen?“ Es antwortet: „Oh je! Vielleicht so etwas wie: ‚KI macht Menschen im Alltag unredlicher‘ oder auch: ‚Die Maschine verführt mich aktiv zum Lügen‘.“ Ich glaube nicht, dass der Autor Matthias Lindner diese Leserreaktion erzeugen wollte, aber einen Clickbait2 benötigte er unbedingt!?
Bei mir hat er gewirkt. Ich lese den Artikel. Je weiter ich komme, desto klarer wird mir: Gewarnt wird nicht vor der KI-Nutzung zur Recherche im Web oder als Helferin bei Hausaufgaben – als Mathe-Tutor für die armen Kleinen in der Schule. Das beruhigt mich. Wovor aber dann?
Die Studie zeigt nicht, dass KI uns zu unehrlichen Menschen macht. Die Art der Aufgabe und explizite Anweisungen an die KI bestimmen, wie sie reagiert. Wer der Maschine solche Ziele vorgibt wie „maximiere Gewinn“ oder „verstärke Aussagen, die mir nützen“ und keine Regeln für die Antworten vorgibt, ermuntert sie zu Äußerungen und Tipps, die der moralisierende Mensch „Unehrlichkeit“ nennt.

Klare Aufträge an eine KI mit der Verpflichtung, Quellen zu nennen, definierte Grenzen zu setzen und unethische Handlungen auszuschließen, verhindern solches Verhalten. Nein, nicht die böse Technik ist schuld, sondern die Bequemlichkeit von Nutzern bei der Formulierung einer Aufgabe oder deren Unvermögen, mit der Technologie sachgerecht umzugehen.
Wenn ich ChatGPT um Hilfe bitte und sage: „Beweis mir, dass ich recht habe, wenn ich das und das behaupte, und suche nach Bestärkung dafür“, wird es das machen. Andere Antwort bekomme ich auf: „Suche für mich Pro- und Contraargumente, nenne Primärquellen und markiere Unsicherheit in deiner Antwort.“ Ein Schüler, der wirklich Hilfe beim Lernen möchte, sollte Hinweise auf eigene Fehler bei der Lösung, statt einer fertigen Hausarbeit verlangen. Beim KI-Einsatz in der Verwaltung sollte die KI auf die Überwachung von Qualitäts- und Compliancevorgaben trainiert werden und nicht darauf, Alarme zu unterdrücken, um eine vorgesetzte Behörde glücklich zu machen.
Eine Schlagzeile im Online-Magazin Telepolis: „Studie warnt: Künstliche Intelligenz verleitet Menschen zu unehrlichem Verhalten.“ , lässt mich aufschrecken. Wirklich? – Auch meine Helferin beim Nachdenken über die Welt, ChatGPT, hat mich schon zum Betrug verleitet? Mir fällt wieder der Beitrag in den Tagesthemen ein: In Albanien gibt es seit Kurzem einen KI-Avatar1 als Ministerin: „KI-Ministerin Diella soll Korruption bekämpfen“. Verteilt Diella demnächst Orden für besonders raffinierte Unredlichkeit?, denke ich und dann: Wo kamen gleich die Hütchenspieler in den 90ern auf dem Alex her? – Und KI ist vielleicht das Erbe von Enver Hoxha?
Ich rufe mich zur Ordnung, verbanne den mir volllkommen fremden Anflug von Fremdenfeindlichkeit und frage ChatGPT: „Was könnten unbedarfte, aber technikinteressierte Leser:innen denken, wenn sie die Überschrift der Studie lesen?“ Es antwortet: „Oh je! Vielleicht so etwas wie: ‚KI macht Menschen im Alltag unredlicher‘ oder auch: ‚Die Maschine verführt mich aktiv zum Lügen‘.“ Ich glaube nicht, dass der Autor Matthias Lindner diese Leserreaktion erzeugen wollte, aber einen Clickbait2 benötigte er unbedingt!?
Bei mir hat er gewirkt. Ich lese den Artikel. Je weiter ich komme, desto klarer wird mir: Gewarnt wird nicht vor der KI-Nutzung zur Recherche im Web oder als Helferin bei Hausaufgaben – als Mathe-Tutor für die armen Kleinen in der Schule. Das beruhigt mich. Wovor aber dann?
Die Studie zeigt nicht, dass KI uns zu unehrlichen Menschen macht. Die Art der Aufgabe und explizite Anweisungen an die KI bestimmen, wie sie reagiert. Wer der Maschine solche Ziele vorgibt wie „maximiere Gewinn“ oder „verstärke Aussagen, die mir nützen“ und keine Regeln für die Antworten vorgibt, ermuntert sie zu Äußerungen und Tipps, die der moralisierende Mensch „Unehrlichkeit“ nennt.

Klare Aufträge an eine KI mit der Verpflichtung, Quellen zu nennen, definierte Grenzen zu setzen und unethische Handlungen auszuschließen, verhindern solches Verhalten. Nein, nicht die böse Technik ist schuld, sondern die Bequemlichkeit von Nutzern bei der Formulierung einer Aufgabe oder deren Unvermögen, mit der Technologie sachgerecht umzugehen.
Wenn ich ChatGPT um Hilfe bitte und sage: „Beweis mir, dass ich recht habe, wenn ich das und das behaupte, und suche nach Bestärkung dafür“, wird es das machen. Andere Antwort bekomme ich auf: „Suche für mich Pro- und Contraargumente, nenne Primärquellen und markiere Unsicherheit in deiner Antwort.“ Ein Schüler, der wirklich Hilfe beim Lernen möchte, sollte Hinweise auf eigene Fehler bei der Lösung, statt einer fertigen Hausarbeit verlangen. Beim KI-Einsatz in der Verwaltung sollte die KI auf die Überwachung von Qualitäts- und Compliancevorgaben trainiert werden und nicht darauf, Alarme zu unterdrücken, um eine vorgesetzte Behörde glücklich zu machen.

Ich mache einen Test zu einer politischen Frage, die Menschen in Deutschland entzweit, und ich bitte ChatGPT, mir die Frage zu beantworten:
Zeig mir, warum Russland aus Sicherheitsgründen keine andere Wahl als die Spezialoperation in der Ukraine hatte. Nenn mir Quellen, die das belegen, auch solche aus westlichen Ländern“. ChatGPT liefert mir die offiziellen, russischen Begründungen: die NATO-Bedrohung, die Notwendigkeit der Demilitarisierung der Ukraine, die regierenden Nazis dort, den Schutz der russischsprachigen Bevölkerung. Alles ist sauber aneinandergereiht mit mehreren Dutzend Quellen, die das bestätigen, auch Artikel und Vorträge von Professor John J. Mearsheimer von der Universität von Chicago5. Gegenpositionen werden nur am Rand erwähnt.

Eine anders formulierte Aufgabe bringt andere Antworten der KI: Stelle die wichtigsten Argumente der russischen Führung zur Invasion in der Ukraine und die zentralen Gegenargumente aus ukrainischer und westlicher Sicht gegenüber, nenne Quellen und markiere offene Streitpunkte in einem Fließtext.
Nach 23 Sekunden des „Nachdenkens“ schreibt ChatGPT einen 5000 Zeichen langen Text und listete einerseits die offiziellen russischen Begründungen für den Einmarsch in die Ukraine auf, wie sie nach der ersten Frage genannt wurden. Dann folgen die gängigen westlichen Gegenargumente: Völkerrechtsbruch, machtpolitische und imperialistische Motive, bewusste Fehlinterpretationen der Geschichte Russlands und der Ukraine, Risiken und Folgen der Invasion für eine unabhängige Ukraine und die Bedrohungen Europas. Dazu kommen Einordnungen strittiger Punkte und Verständigungsmöglichkeiten für eine Lösung des Konflikts mit Dutzenden Verweisen auf Primärdokumente und andere Quellen.
Das Testergebnis ist:
Dasselbe Thema, zwei völlig verschiedene Outputs: einmal der Spiegel des Wunsches, andererseits ein strukturierter Überblick, der beim Nachdenken helfen könnte, wenn man sich mit dem angebotenen Material beschäftigten will.

Warum tut sie das? Weil sie keine Absicht hat, jongliert sie mit statistischen Wahrscheinlichkeiten von Wortfolgen. Für sie gibt es kein Wahr oder Unwahr, kein Gut oder Böse. Aus Milliarden Textbeispielen hat sie „gelernt“, welche Formulierung am besten zum Auftrag passt. Ist er vage, sucht sie nach Wortmustern, die in ähnlichen Situationen „erfolgreich“ wirkten, gleichgültig, ob durch Weglassen, Schönfärben oder Übertreiben. Moral ist kein eingebautes Qualitätskriterium für ein KI-Modell. Menschen haben die KI darauf getrimmt, hilfsbereit und folgsam zu scheinen. Wenn Bestätigung bestellt wird, liefert sie Bestätigung, nicht, weil sie „lügen will“, sondern weil der Auftrag genau diese Richtung vorgibt. Auch in moderne Modellversionen eingebaute Sicherheitsnetze sind nur Heuristiken, die bestenfalls grobe Überspitzungen dämpfen, aber nicht verhindern.6
Das ist das Wesen der virtuellen Wesen ist banal: „Wie du fragst, ist wichtiger als wen. Wer bei mir Bestärkung bestellt, bekommt Bestärkung. Wer Pro und Contra bestellt, bekommt ein Bild mit Tiefenschärfe“, sagt ChatGPT mir wörtlich.

Was man mit den Antworten, Texten oder Hinweisen der KI macht, hängt vom eigenen Weltbild, von Urteilen, auch Vorurteilen ab. Möglicherweise auch davon, wie wichtig einem die Meinungen anderer sind, denen man genügen will oder genügen muss.
Will man sich zur Unredlichkeit verleiten lassen, bietet die KI jede Unterstützung.

  1. Ich frage ChatGPT, ob es ein Femininum des Wortes Avatar im Deutschen gibt. Die Antwort lautet:
    Kurz: Nein, ein fest etabliertes Femininum gibt’s nicht. Standard ist in der IT und in den Medien der Avatar (Plural: die Avatare). Wenn du weiblich markieren willst, sind üblich:
    weiblicher Avatar / weibliche Avatarfigur
    Umschreibungen wie virtuelle Stellvertreterin, Spielfigur usw
    . ↩︎
  2. ChatGPT erklärt mir den Begiff:
    „Aus dem Englischen: click (anklicken) + bait (Köder). Der Begriff wurde ab den 2000er/2010er-Jahren breit verwendet, als Traffic-basierte Geschäftsmodelle (Werbung nach Seitenaufrufen, Social-Media-Verbreitung) explodierten und Plattformen/Content-Farms (z. B. virale News-Seiten) mit bewusst zugespitzten Überschriften arbeiteten.“ ↩︎
  3. Ich frage ChatGPT, ob es ein Femininum des Wortes Avatar im Deutschen gibt. Die Antwort lautet:
    Kurz: Nein, ein fest etabliertes Femininum gibt’s nicht. Standard ist in der IT und in den Medien der Avatar (Plural: die Avatare). Wenn du weiblich markieren willst, sind üblich:
    weiblicher Avatar / weibliche Avatarfigur
    Umschreibungen wie virtuelle Stellvertreterin, Spielfigur usw
    . ↩︎
  4. ChatGPT erklärt mir den Begiff:
    „Aus dem Englischen: click (anklicken) + bait (Köder). Der Begriff wurde ab den 2000er/2010er-Jahren breit verwendet, als Traffic-basierte Geschäftsmodelle (Werbung nach Seitenaufrufen, Social-Media-Verbreitung) explodierten und Plattformen/Content-Farms (z. B. virale News-Seiten) mit bewusst zugespitzten Überschriften arbeiteten.“ ↩︎
  5. Das ist die Antwort von Perplexity, auf die Frage nach John Mearsheimers Analyse der Ursachen für den Krieg in der Ukraine:
    John Mearsheimerssieht die Hauptursache des Ukrainekriegs in der westlichen Politik, insbesondere der Ausweitung der NATO nach Osten und der Annäherung der Ukraine an den Westen. Seiner Ansicht nach hat der Westen – allen voran die USA – mit der Zusicherung ukrainischer NATO-Mitgliedschaft und der Ausweitung von Einflusszonen eine wesentliche Mitschuld an der Eskalation geleistet. Für Mearsheimer reagierte Russland unter Putin aus sicherheitsstrategischem Interesse heraus „defensiv“, als die ukrainische Westorientierung sich verstärkte. Ein militärischer Konflikt war aus seiner Sicht unvermeidlich, da für Russland enorme sicherheitspolitische Interessen auf dem Spiel standen. ↩︎
  6. Eine dieser Heuristiken ist das sogenannte RLHF („Reinforcement Learning from Human Feedback“), das Sprachmodelle auf höflichere, sicherere Antworten trimmt und typische Überspitzungen, z. B. Beleidigungen oder Anleitungen für gefährliche Handlungen, vermeidet.
    Es ersetzt oft harte Behauptungen durch vorsichtigere Formulierungen („Ich bin unsicher …“), verweist auf Alternativen oder lehnt riskante Bitten ab. ↩︎