Große Sprachmodelle (LLMs) haben in den letzten Jahren erstaunliche Fortschritte in der Verarbeitung natürlicher Sprache (NLP) erzielt. Ihre Fähigkeit, menschenähnlichen Text zu generieren, komplexe Aufgaben zu bewältigen und sich an verschiedene Anwendungsfälle anzupassen, hat die Art und Weise, wie wir mit Computern interagieren, revolutioniert. Ein wichtiger Schritt bei der Entwicklung dieser LLMs ist das Instruction Tuning, bei dem die Modelle darauf trainiert werden, Anweisungen in natürlicher Sprache zu verstehen und zu befolgen.
Beim traditionellen Instruction Tuning werden LLMs mit Paaren aus Anweisungen und den gewünschten Antworten trainiert. Dieser Prozess, der als Supervised Fine-Tuning (SFT) bezeichnet wird, beruht auf qualitativ hochwertigen Datensätzen, die diese Paare in ausreichender Menge und Vielfalt bereitstellen. Die Erstellung solcher Datensätze ist jedoch zeitaufwändig und kostspielig, da sie oft die manuelle Erstellung von Anweisungen und Antworten durch menschliche Experten erfordert.
Darüber hinaus stehen herkömmliche Ansätze vor der Herausforderung, dass LLMs dazu neigen, sich zu stark an die Trainingsdaten anzupassen. Dies kann zu einem sogenannten "Overfitting" führen, bei dem das Modell zwar auf den Trainingsdaten sehr gute Ergebnisse erzielt, aber Schwierigkeiten hat, auf neue, unsichtbare Daten zu verallgemeinern. Insbesondere Beispiele, bei denen das Modell während des Trainings ein hohes Maß an "Vertrauen" in seine Vorhersage hat, können zu Overfitting beitragen.
In einem neuen Forschungspapier stellen Wissenschaftler eine neuartige Methode namens "SFTMix" vor, die darauf abzielt, die Leistung des Instruction Tunings zu verbessern und gleichzeitig die Abhängigkeit von aufwendig kuratierten Datensätzen zu reduzieren. Der Kern von SFTMix liegt in der Erkenntnis, dass LLMs während des Trainings ein unterschiedliches Maß an "Vertrauen" in ihre Vorhersagen für verschiedene Beispiele aufweisen. Dieses Vertrauen kann als Indikator dafür dienen, welche Beispiele für das Modell leicht zu erlernen sind und welche eher schwierig sind.
SFTMix nutzt die Dynamik des Trainingsprozesses, um das Vertrauen des Modells in seine Vorhersagen zu bewerten. Anstatt sich auf externe Metriken oder menschliche Beurteilungen zu verlassen, analysiert SFTMix direkt die Verlustfunktion des Modells während des Trainings. Beispiele, bei denen das Modell einen geringen Verlust aufweist, werden als "vertrauenswürdig" eingestuft, während Beispiele mit hohem Verlust als "weniger vertrauenswürdig" betrachtet werden.
Nachdem die Beispiele anhand ihres Vertrauensniveaus kategorisiert wurden, wendet SFTMix eine Technik namens "Mixup-Regularisierung" an, um die Generalisierungsfähigkeit des Modells zu verbessern. Bei der Mixup-Regularisierung werden zufällig ausgewählte Paare von Trainingsbeispielen linear interpoliert, um neue, synthetische Beispiele zu erstellen. Diese synthetischen Beispiele liegen im Merkmalsraum zwischen den ursprünglichen Beispielen und zwingen das Modell, glattere Entscheidungsgrenzen zu lernen.
Im Kontext von SFTMix werden die synthetischen Beispiele durch Interpolation zwischen "vertrauenswürdigen" und "weniger vertrauenswürdigen" Beispielen erzeugt. Dies dient zwei Hauptzwecken:
Die Forscher evaluierten SFTMix anhand verschiedener Benchmarks für Instruction Tuning, darunter MT-Bench und AlpacaEval-2. Die Ergebnisse zeigen, dass SFTMix die Leistung des traditionellen Instruction Tunings mit Next-Token-Prediction (NTP) deutlich übertrifft. Diese Verbesserungen wurden sowohl bei Single-Turn- als auch bei Multi-Turn-Konversationen beobachtet und waren konsistent über verschiedene LLM-Familien und Datensatzgrößen hinweg.
Darüber hinaus wurde SFTMix in einer Reihe von Aufgaben im Gesundheitswesen evaluiert, die auf dem MedAlpaca-Datensatz basieren. Auch hier übertraf SFTMix die traditionellen Ansätze und zeigte seine Fähigkeit, die Leistung von LLMs in domänenspezifischen Anwendungen zu verbessern.
SFTMix stellt eine vielversprechende neue Methode zur Verbesserung des Instruction Tunings von LLMs dar. Durch die Nutzung der Trainingsdynamik zur Vertrauensbewertung und die Anwendung der Mixup-Regularisierung ermöglicht SFTMix eine effektivere Nutzung von Trainingsdaten und verbessert die Generalisierungsfähigkeit von LLMs. Die in der Forschungsarbeit vorgestellten Ergebnisse deuten darauf hin, dass SFTMix das Potenzial hat, die Entwicklung leistungsfähigerer und vielseitigerer LLMs für eine Vielzahl von NLP-Anwendungen zu voranzutreiben. Insbesondere die Fähigkeit von SFTMix, die Abhängigkeit von aufwendig kuratierten Datensätzen zu reduzieren, könnte die Entwicklung und Bereitstellung von LLMs in neuen Domänen und für neue Aufgaben erleichtern.