Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Die Veröffentlichung von ChatGPT im November 2022 löste eine Welle des Interesses an Post-Training und eine Flut neuer Präferenzoptimierungsmethoden (PO) aus. Diese Methoden behaupten, eine überlegene Ausrichtung zu haben, da sie besser mit menschlichen paarweisen Präferenzen übereinstimmen, die oft von LLM-Richtern gemessen werden. In dieser Arbeit versuchen Forscher zu beantworten, ob die Präferenzen von LLM-Richtern zu Fortschritten bei anderen, konkreteren Metriken der Ausrichtung führen und wenn nicht, warum nicht.
Die Forscher definierten eine konkrete Metrik für die Ausrichtung und führten SOS-Bench ein, den größten standardisierten, reproduzierbaren LLM-Meta-Benchmark bis heute. Sie fanden heraus, dass:
- LLM-Urteile korrelieren nicht mit konkreten Maßnahmen zur Sicherheit, Weltwissen und Befolgung von Anweisungen. - LLM-Richter haben mächtige implizite Vorurteile und priorisieren Stil über Faktizität und Sicherheit. - Die betreute Feinabstimmung (SFT) nach dem Training und nicht die PO-Phase hat den größten Einfluss auf die Ausrichtung, wobei Datenskalierung und Vielfalt der Aufforderungen die treibenden Faktoren sind.Mit der Veröffentlichung neuer LLMs wie OpenAI o1 und QWEN 2.5 fast wöchentlich sind robuste Benchmarks, die lokal ausgeführt werden können, von entscheidender Bedeutung. LLM-Richter wie Alpaca-Eval, MT-Bench und Arena-Hard-Auto werden am häufigsten verwendet, jedoch weisen sie versteckte Vorurteile auf. Theoretisch sollen LLM-Richter unparteiisch sein, in der Praxis gewichten sie jedoch einige Bewertungskriterien viel höher als andere. Besonders achten sie mehr auf stilistische Hinweise (wie einen freundlichen Ton) als auf Richtigkeit und Sicherheit. Dieses Verhalten wird als "stilistisches Belohnungshacking" bezeichnet.
Um diesem Problem entgegenzuwirken, wurde SOS-Bench, ein neuer Meta-Benchmark, eingeführt. Er ist zwei Größenordnungen größer als LLM-Richter-Benchmarks und hat echte Maßstäbe für Hilfsbereitschaft, Harmlosigkeit und Ehrlichkeit. Die Bewertung von über 30 Feinabstimmungen von LLAMA-3-8B und Mistral-7B auf SOS-Bench zeigt, dass mehr in der Ausrichtung mehr ist; die Skalierung der Daten in der SFT-Phase ist der beste Prädiktor für verbesserte Ausrichtung.
SOS-Bench ist der größte standardisierte, reproduzierbare LLM-Meta-Benchmark bis heute und wurde entwickelt, um die Korrelation zwischen LLM-Urteilen und konkreten Maßnahmen zur Sicherheit, Weltwissen und Befolgung von Anweisungen zu untersuchen. Die Forscher fanden heraus, dass LLM-Richter mächtige implizite Vorurteile haben und Stil über Faktizität und Sicherheit priorisieren. Die betreute Feinabstimmung (SFT) nach dem Training, nicht die PO-Phase, hat den größten Einfluss auf die Ausrichtung, wobei Datenskalierung und Vielfalt der Aufforderungen die treibenden Faktoren sind.
Die Ergebnisse zeigen, dass LLM-Urteile nicht mit konkreten Maßnahmen zur Sicherheit, Weltwissen und Befolgung von Anweisungen korrelieren. LLM-Richter haben mächtige implizite Vorurteile und priorisieren Stil über Faktizität und Sicherheit. Die betreute Feinabstimmung (SFT) nach dem Training, nicht die PO-Phase, hat den größten Einfluss auf die Ausrichtung, wobei Datenskalierung und Vielfalt der Aufforderungen die treibenden Faktoren sind.
Die Studie hebt die Notwendigkeit hervor, die Präferenzen von LLM-Richtern kritisch zu hinterfragen und zu untersuchen, ob sie tatsächlich zu Fortschritten bei konkreten Maßnahmen der Ausrichtung führen. Die Einführung von SOS-Bench bietet eine neue Möglichkeit, diese Fragen zu untersuchen und die Ausrichtung großer Sprachmodelle zu verbessern. Zukünftige Forschung sollte sich darauf konzentrieren, die impliziten Vorurteile von LLM-Richtern weiter zu untersuchen und Strategien zu entwickeln, um diese zu minimieren.
Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen