KI Halluzinationen erklärt – Wahrscheinliche Wahrheit

Lesedauer 4 Minuten

Warum KI nicht lügt, aber auch nicht die Wahrheit sagt

Es gibt einen Moment in Gesprächen über Künstliche Intelligenz, in dem fast alle dieselbe Frage stellen. Sie klingt einfach, ist es aber nicht.

„Stimmt das eigentlich, was sie sagt?“

Die Antwort lautet: Es kommt darauf an, was man unter „stimmen“ versteht.


Zwei Grundmodelle von Intelligenz

Um zu verstehen, wie moderne KI-Systeme mit Sprache umgehen, hilft ein Blick auf das, was vorher war.

Der ursprüngliche Ansatz der Künstlichen Intelligenz war streng logisch. Forscher bauten Systeme aus Regeln. Wenn A, dann B. Wenn Symptom X vorliegt und Symptom Y fehlt, dann ist Diagnose Z wahrscheinlich. Das war explizites Wissen – transparent, nachvollziehbar, prüfbar.

Das Problem: Die Welt lässt sich nicht vollständig in Regeln fassen.

Was kam, war ein Paradigmenwechsel. Statt Wissen explizit zu formulieren, ließ man Maschinen aus Daten lernen. Nicht „hier ist die Regel“ – sondern „hier sind Millionen Beispiele, finde selbst das Muster.“

Das ist der Übergang von symbolischer zu statistischer KI. Und er erklärt fast alles, was an modernen Sprachmodellen faszinierend und gleichzeitig problematisch ist.


Was ein Sprachmodell wirklich macht

Ein großes Sprachmodell tut im Kern etwas scheinbar Simples: Es sagt das nächste Wort voraus. Genauer: Es berechnet für jedes mögliche nächste Wort eine Wahrscheinlichkeit. Und wählt dann – mit einer gewissen kontrollierten Zufälligkeit – aus dem obersten Teil dieser Wahrscheinlichkeitsverteilung.

Was dabei im Hintergrund läuft, ist erheblich komplexer. Zunächst wird der eingegebene Text in sogenannte Tokens zerlegt – kleine Einheiten, die statistisch günstige Fragmente bilden. Diese Tokens werden dann in numerische Vektoren umgewandelt – Zahlenreihen in einem Raum mit hunderten oder tausenden Dimensionen.

In diesem Raum gilt eine ungewöhnliche Logik: Wörter mit ähnlicher Bedeutung liegen nah beieinander. „König“ liegt nahe bei „Königin“. „Hund“ liegt nahe bei „Katze“ und weiter weg von „Automobil“. Das nennt man Embedding – das Einbetten von Bedeutung in Geometrie.

Dann kommt der entscheidende Schritt: der Transformer. Er schaut sich alle Tokens gleichzeitig an und berechnet, welche Tokens für den Kontext jedes anderen Tokens relevant sind. Dieser Mechanismus erlaubt es dem Modell, komplexe Beziehungen über große Textmengen hinweg zu erfassen.


Das Wahrheitsproblem

Hier liegt das Missverständnis, das viele teilen, wenn sie mit KI-Systemen arbeiten.

Ein Sprachmodell weiß nicht, ob etwas wahr ist. Es optimiert nicht auf Wahrheit. Es optimiert auf Plausibilität – auf das, was in diesem Kontext wahrscheinlich korrekt klingt, basierend auf dem, was in den Trainingsdaten am häufigsten in ähnlichen Kontexten vorkam.

Das ist kein Fehler im System. Es ist das System. Und eventuell dem menschlichen Gehirn gar nicht so unähnlich.

Die Konsequenz ist das, was man Halluzinationen nennt – einen Begriff, der vielleicht etwas zu poetisch ist für das, was eigentlich passiert. Wenn ein Modell nach einer Studie gefragt wird, die nicht existiert, erfindet es keine Studie. Es erzeugt den statistisch wahrscheinlichsten Text, der wie eine Studie aussieht. Autor, Titel, Jahr, Ergebnis – alles plausibel, alles aus dem Muster destilliert.

Es lügt nicht. Es kennt den Unterschied zwischen Wahrheit und Fiktion in unserem Sinne schlicht nicht.


Warum es trotzdem so oft richtig liegt

Was fasziniert, ist nicht das Scheitern. Was fasziniert, ist die erstaunliche Trefferquote.

Der Grund ist statistischer Natur: Wahre Dinge werden häufig gesagt. In Millionen von Büchern, Artikeln und Dokumenten taucht Paris als Hauptstadt Frankreichs unzählige Male auf. Das Muster ist dominant. Große Datenmengen mitteln Fehler heraus.

Schwierig wird es an den Rändern: aktuelle Ereignisse, Nischenwissen, spezifische Zahlen, wenig dokumentierte Personen oder Sachverhalte. Hier dünnen die Muster aus, und das Modell beginnt zu interpolieren – mit entsprechend höherer Fehlerquote. Wie auch im menschlichen bzw. gesellschaftlichen Zusammenleben dünnen so die sogenannten Mindermeinungen, die Ränder des Wissens aus. In der bisherigen Mediengesellschaft passiert dies durch Sichtbarkeit/Nichtsichtbarkeit.


Vektoren und Retrieval: Die Lösung für veraltetes Wissen

Ein Sprachmodell wird einmal trainiert und kennt dann die Welt bis zu einem bestimmten Zeitpunkt. Was danach passiert, ist ihm unbekannt – außer, man gibt es ihm im Gespräch mit.

Eine praktische Lösung ist das sogenannte Retrieval Augmented Generation – kurz RAG. Dabei wird eine Frage zunächst in einen Vektor umgewandelt und dann in einer Datenbank nach ähnlichen Vektoren gesucht. Was man findet, fügt man als Kontext zur Anfrage hinzu. Das Modell selbst bleibt unverändert, bekommt aber aktuelle Informationen als Input.

Der entscheidende Punkt: Das Modell prüft diese Informationen nicht auf ihren Wahrheitsgehalt. Es formuliert auf ihrer Basis. Garbage in, garbage out – das Prinzip gilt hier genauso wie in der klassischen Informatik.


Die richtige Einordnung von KI-Wissen

Es ist verlockend, Sprachmodelle als Wissensmaschinen zu betrachten. Das sind sie nicht. Sie sind Sprachmaschinen – außerordentlich gut darin, Sprache zu strukturieren, zu verdichten, zu reformulieren, zu ergänzen.

Das ist keine Abwertung. Es ist eine Neukalibrierung der Erwartung, die zu klügerem Umgang führt. Für bestimmte Aufgaben sind diese Systeme schlicht unübertroffen: das Destillieren komplexer Texte, das Generieren von Entwürfen, das Erkunden von Ideen.

Für Faktenprüfung brauchen sie Unterstützung – entweder durch menschliche Verifikation oder durch verlässliche Retrieval-Systeme.


Philosophischer Nachsatz

Es gibt eine philosophische Frage, die unter all dem schlummert und selten gestellt wird: Was ist eigentlich Wahrheit in Sprache? Die Technikjünger erwarten ja die Singularität einer Super-KI.

Ludwig Wittgenstein hätte gesagt:

Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.

Ein Sprachmodell kennt Millionen Welten – so viele Welten, wie es Texte gibt, aus denen es gelernt hat. Es kann in diesen Welten navigieren mit einer Geschicklichkeit, die sich wie Verständnis anfühlt.

Ob es Verständnis ist, im menschlichen Sinne – ob da jemand ist, der versteht – das ist eine andere Frage. Und eine, auf die wir keine sichere Antwort haben. Aber für mich gilt auch hier, die Möglichkeiten und Leistungen von LLMs sind beeindruckend. Jedoch übertrifft nichts die Schöpfung. Besonders, solange die Trainingsdaten vor allem aus Journaille stammen.

Schreibe einen Kommentar