Große Sprachmodelle (LLMs) haben sich zu einem Eckpfeiler in vielen Bereichen entwickelt, doch ihre Neigung zu "Halluzinationen" - die Generierung fehlerhafter oder irreführender Informationen - wirft wichtige Fragen auf. Während frühere Studien sich auf die Wahrnehmung solcher Fehler durch den Menschen konzentrierten, untersucht eine neue Forschungsarbeit von Orgad et al. (2024) die innere Funktionsweise von LLMs, um zu verstehen, wie diese Wahrheit und Fehler kodieren.
LLMs "wissen" mehr, als sie zeigen: Interne Repräsentationen von Halluzinationen
Die Studie enthüllt, dass LLMs mehr Informationen über die Richtigkeit ihrer Aussagen speichern, als bisher angenommen. Insbesondere fanden die Forscher heraus, dass die Schlüsselinformationen in den "exakten Antwort-Tokens" konzentriert sind - denjenigen Wörtern, die die Antwort direkt beeinflussen. Diese Erkenntnis ermöglicht eine deutlich verbesserte Fehlererkennung.
Keine universelle Wahrheit: Skill-spezifische Kodierung
Interessanterweise stellten die Forscher fest, dass sich diese Fähigkeit zur Fehlererkennung nicht auf andere Aufgaben übertragen lässt. Dies deutet darauf hin, dass LLMs nicht über ein universelles Konzept von "Wahrheit" verfügen, sondern verschiedene, aufgabenspezifische Mechanismen zur Codierung von Richtigkeit verwenden. Diese Erkenntnis stellt die Annahme einer universellen Wahrheitscodierung in LLMs infrage und betont die Komplexität ihrer internen Prozesse.
Vorhersage von Fehlertypen und -mustern
Darüber hinaus zeigt die Studie, dass die internen Repräsentationen von LLMs genutzt werden können, um die Art der Fehler vorherzusagen, die sie wahrscheinlich machen werden. Dies eröffnet die Möglichkeit, maßgeschneiderte Strategien zur Fehlerminderung zu entwickeln, die auf die spezifischen Schwächen eines Modells zugeschnitten sind.
Diskrepanz zwischen interner Codierung und äußerem Verhalten
Die vielleicht überraschendste Erkenntnis ist die Diskrepanz zwischen der internen Kodierung und dem tatsächlichen Verhalten von LLMs. In einigen Fällen kodiert ein Modell intern die richtige Antwort, generiert aber dennoch konsequent eine falsche Antwort. Dies deutet darauf hin, dass LLMs möglicherweise über ein tieferes Verständnis verfügen, als ihr äußeres Verhalten vermuten lässt. Die Forscher betonen die Notwendigkeit, diese Diskrepanz zu untersuchen, um die Genauigkeit und Zuverlässigkeit von LLMs zu verbessern.
Ausblick: Fehleranalyse und -minderung verbessern
Die Studie von Orgad et al. (2024) liefert wertvolle Einblicke in die innere Funktionsweise von LLMs und ihre Grenzen. Die Erkenntnisse über die Kodierung von Wahrheit, die Vorhersage von Fehlertypen und die Diskrepanz zwischen interner Repräsentation und äußerem Verhalten ebnen den Weg für neue Forschungsansätze zur Verbesserung der Fehleranalyse und -minderung in LLMs. Die Entwicklung von zuverlässigeren und vertrauenswürdigeren LLMs erfordert ein tiefgreifendes Verständnis ihrer internen Prozesse und die Fähigkeit, dieses Wissen zur Verbesserung ihrer Genauigkeit und Verlässlichkeit zu nutzen.
Bibliographie
- Orgad, H., Toker, M., Gekhman, Z., Reichart, R., Szpektor, I., Kotek, H., & Belinkov, Y. (2024). LLMs Know More Than They Show: On the Intrinsic Representation of LLM Hallucinations. *arXiv preprint arXiv:2410.02707*.