Künstliche Intelligenz bietet unglaubliche Potentiale, die Anwendung von KI-Modellen wie ChatGPT und co. birgt aber auch Risiken, beispielsweise Halluzinationen. Wo man bei KI-Modellen besonders aufmerksam hinschauen muss und was man gegen Halluzinationen tun kann, erklärt unser Gastautor Dr. Tim Elsner.
Dr. Tim Elsner hat an der RWTH Aachen über KI in der Computer Grafik promoviert. Er hat unter anderem dazu geforscht, wie Bilder mit neuronalen Netzen erstellt werden können oder wie ein neuronales Netz zu einem Bild einen passenden Text schreibt.
Mittlerweile hat er eine eigene Firma, mit der er sowohl Unternehmen berät, als auch eigene Produkte entwickelt. Außerdem schreibt er regelmäßig für Golem.de über KI oder tritt in Podcasts und Bühnendiskussionen zum Thema auf.
Man stellt ChatGPT eine Frage und bekommt eine Antwort, die sachlich falsch oder sogar komplett erfunden ist - eine Halluzination. Diese Halluzinationen sind aber kein "Fehler" im eigentlichen Sinne, kein klassischer "Bug" im Programmcode, sondern ein grundlegender Teil davon, wie die Modelle eigentlich funktionieren. Zu verstehen, woher Halluzinationen kommen, hilft dabei, sie zu vermeiden - und damit KI produktiver und sicherer einzusetzen. Dafür müssen wir zuerst grob verstehen, wie KI eigentlich Texte schreibt.
Sprachmodelle (LLMs) produzieren Text, indem sie jeweils den nächsten Wortfetzen (Token) vorhersagen und so Stück für Stück einen Text aufbauen - wie jemand, der Buchstaben auf einer Tastatur drückt, nur eben mit Tasten, die ganze Wortstücke haben. Für diese Vorhersage erzeugt das Sprachmodell eine Wahrscheinlichkeitsverteilung über alle möglichen nächsten Textstücke, beschreibt also, wie wahrscheinlich die verschiedenen Möglichkeiten sind, wie der Text weitergehen könnte.
Das tatsächlich geschriebene Textstück wird dann, abhängig von den Wahrscheinlichkeiten, zufällig ausgewählt. Hier steckt bereits das erste Problem, wie Halluzinationen entstehen können: Selbst wenn das Modell zu 99,9 % sicher ist, dass der Satz "Die Höhe des Mount Everest beträgt ______" mit "8848" weitergeht, gibt es eine kleine Chance, dass ein Wortfetzen mit sehr geringer Wahrscheinlichkeit ausgewählt wird.
Die Wahrscheinlichkeiten dafür, wie ein Text weitergeht, lernt ein Modell durch Auswendiglernen. Anhand großer Mengen an Texten - Wikipedia-Einträgen, Büchern, Kommentaren auf LinkedIn oder anderen Webseiten - lernt das Modell im Training, für einen gegebenen Textabschnitt jeweils den nächsten richtigen Textfetzen vorherzusagen. Das Modell verfügt dabei jedoch über keinen klassischen Speicher, in dem Informationen fehlerfrei abgelegt werden können, sondern besitzt, ähnlich wie das menschliche Gehirn, eine riesige Menge komplexer Verbindungen. In diesen Verbindungen sind alle Informationen gespeichert.
Der Raum, in dem diese künstlichen Gehirne Informationen speichern können, ist dadurch sowohl begrenzt als auch stark durchmischt: Französische Sprache ist mit Mathematik und Fakten über das Bergsteigen verwoben. Das macht die Modelle hochgradig effizient, weil sie sich etwa sowohl für Deutsch als auch für Englisch nur die Höhe eines Berges merken müssen, anstatt die entsprechenden Texte in allen Sprachen separat auswendig zu lernen.
Gleichzeitig ist dieser Mechanismus aber - genau wie bei uns Menschen - nicht fehlerfrei. Um sich möglichst viel merken zu können, muss der verfügbare Platz effizient genutzt werden. So wie Menschen sich oft ungefähr merken können, worum es in einem Buch geht, dabei aber Details verwechseln, können auch Sprachmodelle nicht immer alle Informationen exakt wiedergeben.
Grundsätzlich gilt: Je öfter etwas im Training vorkommt und gelernt wurde, desto wahrscheinlicher kann ein neuronales Netz einen Fakt korrekt rekonstruieren. Die Höhe des Mount Everest kennt daher so gut wie jedes LLM ziemlich sicher exakt, aber vermutlich wissen nicht alle Modelle zuverlässig, welche Gliedmaßen Reinhold Messner genau wo verloren hat.
Auch KI hat Halluzinationen: Genau wie bei optischen Effekten entstehen auch bei Sprachmodellen Halluzinationen, wenn ein neuronales Netz sein eigenes internes Weltmodell zu ernst nimmt und ohne ausreichende externe Korrektur weiter verstärkt.
Wie man Halluzinationen vorbeugt
Die Halluzinationen, die ein LLM zeigt, sind also eigentlich keine Fehler, sondern unausweichlich - eine Art Feature und Fluch zugleich. Nur dadurch, dass Informationen nicht fest vorgegeben gespeichert werden, kann ein Netz überhaupt so große Datenmengen verarbeiten und lernen, sinnvoll zu abstrahieren.
Komplett vermeiden lassen sich Halluzinationen daher nicht. Trotzdem gibt es einige Tricks, die man beachten kann, um sie zu reduzieren. Grundsätzlich macht KI mehr Fehler, wenn es um sehr exakte Details geht. Wer etwa wissen möchte, welche Zehen Reinhold Messner verloren hat, wird eher auf Halluzinationen stoßen als bei der Frage, wer dieser Mann eigentlich ist.
Ein einfacher Trick, um konkrete Faktenfragen dennoch besser zu beantworten, besteht darin, dem Modell die relevanten Hintergrundinformationen direkt im Prompt mitzugeben. Wer zum Beispiel den Wikipedia-Artikel kopiert und in ein Sprachmodell einfügt, gefolgt von der eigentlichen Frage, hat deutlich bessere Chancen auf eine zuverlässige Antwort. Das gilt natürlich für alle Informationsquellen: Wer Fragen zur Bedienung seines neuen Fernsehers hat, erhöht seine Erfolgsquote, indem er die Anleitung vor die Frage kopiert.
In strukturierter Form wird diese Technik als Retrieval-Augmented Generation (RAG) bezeichnet. Dabei werden etwa in einem Unternehmen zu einer Benutzereingabe aus einer Datenbank möglichst passende Dokumente herausgesucht und der Frage vorangestellt. Wer mit einem Support-Bot auf einer Website schreibt, kann sich fast sicher sein, dass der Bot im Hintergrund die Anfrage mit einer Datenbank abgleicht und das am besten passende Textstück unsichtbar vor die Nutzerfrage setzt.
Halluzinationen können außerdem auftreten, wenn ein Modell größere logische Sprünge machen soll. Ähnlich wie bei einem Menschen, der im Kopf "7 + 5 + 2 + 1" in einem Schritt rechnet, sind auch Sprachmodelle in der Regel deutlich unsicherer, wenn sie zu viel auf einmal "denken" sollen. Dem Modell explizit zu sagen, eine Aufgabe Schritt für Schritt zu lösen, kann sich daher oft lohnen.
Viele moderne Modelle unterstützen das mittlerweile auch von Haus aus (Reasoning) und entscheiden selbst, wann es sinnvoll ist, ausführlicher und in einzelnen Schritten nachzudenken. Zudem können solche Zwischenschritte leichter überprüft und korrigiert werden.
Vibe-Rechnen nach Gefühl
Apropos Mathematik: Viele Nutzer verwenden Sprachmodelle auch für mathematische Textaufgaben, etwa um ihre Steuern auszurechnen, oder geben - ganz wie bei Google - einfach eine Rechenaufgabe in ein LLM ein. Auf den ersten Blick wirken die Ergebnisse korrekt, allerdings sinkt die Wahrscheinlichkeit eines vollkommen richtigen Resultats. Denn im Gegensatz zu Taschenrechnern, die (abgesehen von numerischen Rundungsfehlern) keine Fehler machen, rechnen Sprachmodelle eigentlich gar nicht wirklich.
Egal ob ein Modell Texte schreibt oder Zahlenkolonnen verarbeitet, der Mechanismus ist derselbe: Für den nächsten Baustein werden auf Basis der aktuellen Bausteine Wahrscheinlichkeiten vergeben. So sieht ein Modell die Zahl "1337" etwa als zwei Bausteine, also zwei Tokens, nämlich "133" und "7". Wenn das Modell nun "1337 * 42 = " lösen soll, wird diese Aufgabe nicht mathematisch ausgerechnet und anschließend "56154" ausgegeben, sondern das Modell erzeugt das Ergebnis wieder Baustein für Baustein - im besten Fall also zuerst "561" und dann "54".
So sieht ChatGPT Zahlen: Auch diese sind eigentlich nur Textfetzen (jeweils eine Farbe zeigt einen Textfetzen), einen expliziten Taschenrechner haben die meisten Modelle nicht. Die Ergebnisse sind zwar meist richtig, aber gerade bei komplizierteren Aufgaben treten häufig Rundungsfehler auf.
Besonders bei längeren und komplexeren Aufgaben geht das daher oft schief, weil die Modelle gewissermaßen nur "Kopfrechnen" betreiben und dabei nicht immer sauber arbeiten. Gibt man zum Beispiel (341^24)^(0.1) bei ChatGPT ein, erhält man sehr zuverlässig Werte, die um etwa ein Promille abweichen. Das ist nicht dramatisch und tritt vor allem bei großen Zahlen auf - verdeutlicht aber das Grundproblem: Was hier fast immer schiefgeht, geht bei kleineren Rechnungen meist gut. Die Fehlerwahrscheinlichkeit wird umso geringer, je einfacher die Rechnung ist, aber sie verschwindet nie ganz. Und mit "fast richtig" möchte man dann doch lieber nicht zum Finanzamt oder zum Kunden gehen.
Wenn ChatGPT nach Hause telefoniert
Wer eines der großen Modelle benutzt, gibt seine Anfrage häufig auf einer Website ein. Dabei wird das Eingegebene an eine Serverfarm weitergeleitet, dort verarbeitet und natürlich auch zwischengespeichert. Das ist an sich bereits bedenklich genug, wenn es um vertrauliche Informationen geht. Hinzu kommt, dass OpenAI und andere Anbieter ganze Armeen von Menschen beschäftigen, die Antworten nach "gut" und "schlecht" sortieren, um damit die nächste Generation der Modelle weiter zu verbessern.
Was läge also näher, als dafür echte Benutzereingaben zu verwenden? Mit der Konsequenz, dass diese Daten möglicherweise später bei jemand anderem wieder ausgespielt werden. Wir haben bei keinem der großen Anbieter eine Garantie, dass gesendete Inhalte tatsächlich vertraulich behandelt werden - von möglichen Sicherheitslücken und Hackerangriffen ganz zu schweigen: Unschön, wenn die nächste Version eines Sprachmodells plötzlich hochsensible Daten ausspuckt, weil damitrauf trainiert wurde.
Eine mögliche Lösung sind lokal laufende Modelle: Statt Anfragen an OpenAI zu schicken, werden die Berechnungen dann direkt auf dem eigenen Computer durchgeführt. Das Problem dabei ist allerdings, dass eine KI, die von französischer Grammatik über Wissen zur spanischen Antike bis hin zu Gedichten nahezu alles können soll, entsprechend viel Speicher benötigt. Und viel Speicher bedeutet auch, dass das Ausführen eines solchen Modells vergleichsweise lange dauert.
Ohne spezielle Hardware, etwa eine Grafikkarte mit ausreichend Videospeicher oder spezielle Neural Processing Units (NPUs), sind solche Modelle daher deutlich zu langsam. Mit der richtigen Hardware lässt sich jedoch auch auf einem Notebook komfortabel damit arbeiten - zum Beispiel zum Schreiben von E-Mails oder als Partner beim Brainstormen neuer Ideen.
Fazit
KIs bieten große Chancen für eine höhere Produktivität, doch man muss ihre Fallstricke kennen: Sie sind keine allwissenden Autoritäten, sondern eher Assistenten mit Bauchgefühl. Für "weichere" Aufgaben wie das Strukturieren von Texten oder zum Brainstormen gibt es deutlich weniger Probleme als bei Aufgaben, bei denen es auf Exaktheit und Vollständigkeit ankommt, etwa in der Mathematik. In Kombination mit einem Taschenrechner oder mit passenden Hintergrundinformationen, die man in ein Modell eingibt, lassen sich diese Schwierigkeiten in der Regel gut umschiffen. Am Ende muss sich der Nutzer jedoch seiner eigenen Verantwortung bewusst sein.