Fast jede zweite Antwort der KI fehlerhaft – das meldeten die Medien Ende Oktober auf allen Kanälen, und viele Menschen waren erschüttert und überrascht. Was?! ChatGPT ist nicht Google? Auch nicht Wikipedia?
Nein. Ist es nicht. War es nie. Wird es nie sein.
Stell dir vor, du triffst auf der Straße jemanden, der dir mit absoluter Überzeugung erzählt, dass der Papst verstorben sei – und das in einem Tonfall, als hätte er gerade die Traueranzeige gelesen. Du würdest wahrscheinlich skeptisch werden, nachfragen, vielleicht sogar selbst nachschauen. Bei einem Chatbot aber? Der spricht mit solcher Autorität, dass du vergisst: Er hat keine Ahnung, ob das, was er sagt, wahr ist. Er weiß nur, welche Worte statistisch gesehen als nächstes kommen sollten.
Die Überraschung war groß, die Enttäuschung größer. Dabei hättest du es wissen können – nein, du hättest es wissen müssen. Denn die Natur dieser Systeme ist seit Jahren bekannt, nur nicht verstanden. Wir haben uns von der geschliffenen Sprache, der prompten Antwort, der scheinbaren Allwissenheit blenden lassen wie Motten vom Licht. Und jetzt, wo die Europäische Rundfunkunion systematisch nachgemessen hat, zeigt sich: Der Kaiser ist nackt. Oder zumindest trägt er Löcher in der Hose.
Das Orakel, das eigentlich würfelt
Ein Large Language Model – nennen wir es LLM, weil das kürzer ist und weniger nach Raumschiff klingt – ist im Grunde eine gigantische Wortvorhersagemaschine. Stell dir einen Literaturstudenten vor, der sein ganzes Leben damit verbracht hat, Milliarden von Texten zu lesen: Bücher, Zeitungsartikel, Wikipedia-Einträge, Forumsdiskussionen, Kochrezepte und vermutlich auch die Kommentarspalten unter Katzenvideos. Dieser Student hat sich nichts gemerkt im klassischen Sinne – keine Fakten, keine Daten, keine Wahrheiten. Aber er hat ein Gespür dafür entwickelt, welche Worte typischerweise aufeinander folgen.
Fragst du ihn: „Der Papst ist…“ – und er antwortet nicht, weil er weiß, ob der Papst lebt oder tot ist. Er antwortet, weil er in seinen Texten gelernt hat, dass nach „Der Papst ist“ oft Worte wie „katholisch“, „in Rom“ oder „verstorben“ folgten. Es ist wie ein gigantisches Puzzle aus Wahrscheinlichkeiten, zusammengesetzt aus Milliarden von Textschnipseln.
Wahrscheinlich ist nicht dasselbe wie wahr
Hier liegt der Knackpunkt: Diese Systeme unterscheiden nicht zwischen wahr und falsch. Sie unterscheiden zwischen wahrscheinlich und unwahrscheinlich. Wenn in den Trainingsdaten hundertmal stand „Schweden ist nicht in der NATO“ und nur dreimal „Schweden ist der NATO beigetreten“, dann wird das Modell dir mit großer Überzeugung sagen, Schweden sei nicht dabei – auch wenn sich die Realität längst geändert hat.
Das ist, als würdest du einem Papagei beibringen, Sätze nachzuplappern, und dich dann wundern, dass er nicht versteht, was er sagt. Der Papagei klingt überzeugend. Er hat die Betonung perfekt drauf. Aber fragst du ihn nach dem Wetter von morgen, kombiniert er einfach Wörter, die er oft zusammen gehört hat – „sonnig und warm“ klingt immer gut, egal ob draußen gerade ein Schneesturm tobt.
Was KI kann – und was nicht
Was sie kann: Eine KI ist brillant darin, Muster zu erkennen und Texte zu generieren, die kohärent klingen. Sie kann Texte zusammenfassen, Ideen entwickeln, Code schreiben (der meistens funktioniert), Geschichten erzählen, Konzepte erklären. Sie ist wie ein unglaublich belesener Mitbewohner, der nachts um drei bei einem Glas Wein philosophieren kann – solange niemand überprüft, ob das, was er sagt, auch stimmt.
Was sie nicht kann: Sie kann nicht wissen, was wahr ist. Sie hat kein Bewusstsein, keine Absichten, kein Verständnis für die Bedeutung dessen, was sie schreibt. Sie lebt in einem ewigen Jetzt ihrer Trainingsdaten – irgendwo im Januar 2025 eingefroren wie ein digitaler Schneemann. Alles, was danach passierte? Für sie unsichtbar, es sei denn, du gibst ihr Werkzeuge wie die Websuche.
Sie kann nicht zugeben, dass sie etwas nicht weiß. Stattdessen erfindet sie – mit traumwandlerischer Sicherheit – Details, die plausibel klingen. Fachleute nennen das „Halluzinationen“, was ein hübsches Wort ist für: Sie lügt, ohne zu wissen, dass sie lügt, weil sie nicht einmal weiß, was Lügen bedeutet.
Dein Gehirn nie ausschalten – der beste Prompt von allen
Deine Verantwortung beginnt genau hier: Immer mitdenken, immer prüfen. Eine KI ist kein Ersatz für dein Gehirn, sondern ein Werkzeug – wie ein Taschenrechner, der manchmal 2+2 als 5 ausgibt und dabei lächelt.
Die Tipps, die die Tagesschau empfiehlt, sind klug: „Nur faktenbasiert antworten, recherchiere über die Websuche“ – das zwingt das System, aus seiner Traumblase herauszutreten und nachzuschauen, was draußen in der realen Welt gerade passiert.
Aber am Ende bleibt die Verantwortung bei dir, dem Menschen. Prüfe die Quellen. Frage nach. Bleibe skeptisch, gerade wenn die Antwort so glatt und überzeugend daherkommt wie ein Verkäufer, der dir versichert, dieser Gebrauchtwagen sei nur von einer älteren Dame gefahren worden – sonntags zur Kirche.
Die KI ist ein faszinierendes Werkzeug. Aber sie ist eben das: ein Werkzeug. Kein Orakel, kein allwissender Gott. Eher ein hochbegabter Student, der brillant improvisieren kann, aber manchmal vergisst, dass Improvisation nicht dasselbe ist wie Wahrheit.