Wie nutzen Sprachmodelle die als Kontext bereitgestellten Informationen, um eine Antwort zu generieren? Können wir feststellen, ob eine bestimmte generierte Aussage tatsächlich im Kontext verankert ist, eine Fehlinterpretation darstellt oder frei erfunden ist? Um diese Fragen zu beantworten, wurde das Problem der Kontextattribution eingeführt: Das Ziel ist es, die Teile des Kontexts zu identifizieren, die ein Modell dazu gebracht haben, eine bestimmte Aussage zu generieren. In diesem Artikel stellen wir ContextCite vor, eine einfache und skalierbare Methode zur Kontextattribution, die auf jedes vorhandene Sprachmodell angewendet werden kann.
Intuitiv besteht das Ziel der Kontextattribution darin, einen Teil der generierten Antwort auf ein Stück des Kontexts zurückzuführen. Angenommen, wir haben einen Kontext und eine Anfrage. Der Kontext könnte beispielsweise eine Sammlung von Artikeln über die letzten Olympischen Spiele sein, und die Anfrage könnte lauten: „Wer hat die meisten Medaillen gewonnen?“ Um die Kontextattribution durchzuführen, partitionieren wir den Kontext in einzelne Quellen. Diese Quellen können Artikel, Absätze, Sätze oder sogar einzelne Wörter sein. In diesem Artikel betrachten wir die Quellen als Sätze.
ContextCite umfasst mehrere Schritte zur Durchführung der Kontextattribution:
ContextCite bietet mehrere nützliche Anwendungen:
Wie können wir die Qualität einer Attributionsmethode bewerten? Eine Möglichkeit besteht darin, zu beobachten, was passiert, wenn wir die höchsten bewerteten Quellen entfernen. Wenn das Entfernen dieser Quellen die Wahrscheinlichkeit der ursprünglichen Antwort signifikant verringert, bedeutet dies, dass diese Quellen tatsächlich wichtig sind. Diese Methode dient als Grundlage für die Bewertung der Genauigkeit von ContextCite.
Eine natürliche Frage ist: Wie viele zufällige Kontextablations müssen wir berechnen, um ein genaues Surrogatmodell zu erhalten? ContextCite kann ein genaues Surrogatmodell mit einer signifikant geringeren Anzahl von Ablationen durch die Nutzung der zugrunde liegenden Sparsity lernen. In vielen Fällen kann eine vom Modell generierte Aussage gut durch nur eine Handvoll Quellen erklärt werden. Dies bedeutet, dass die meisten Quellen nur geringen Einfluss auf eine bestimmte Aussage haben sollten. Daher können wir Lasso verwenden, um ein sparsames (aber dennoch genaues) lineares Surrogatmodell mit einer sehr geringen Anzahl von Ablationen zu lernen.
ContextCite bietet eine innovative Methode zur Attribution von Modellgenerierungen zum Kontext, die eine Vielzahl von Anwendungen ermöglicht. Durch die Verifizierung von Aussagen, Verbesserung der Antwortqualität und Erkennung von Vergiftungsangriffen trägt ContextCite dazu bei, Sprachmodelle zuverlässiger und vertrauenswürdiger zu machen.