Belohnungsmodelle (RMs) haben die Leistung von großen Sprachmodellen (LLMs) durch die Integration von menschlichem Feedback in den Sprachmodellierungsprozess erheblich verbessert. RMs werden jedoch hauptsächlich in englischer Sprache trainiert und bewertet, und ihre Fähigkeiten in mehrsprachigen Umgebungen sind noch weitgehend unerforscht.
Um diese Lücke zu schließen, wurde M-RewardBench entwickelt, ein mehrsprachiger Benchmark zur Bewertung von RMs. Dieser Benchmark besteht aus 2.870 Präferenzinstanzen für 23 typologisch verschiedene Sprachen und testet die Fähigkeiten von RMs in den Bereichen Chat, Sicherheit, Argumentation und Übersetzung.
M-RewardBench ist der erste seiner Art und bietet eine wertvolle Ressource für die Forschungsgemeinschaft. Er ermöglicht es Forschern, die Leistung verschiedener RMs in verschiedenen Sprachen zu vergleichen und zu bewerten, wie gut sie auf sprachliche Vielfalt reagieren.
Die Bewertung einer Reihe von Belohnungsmodellen auf M-RewardBench lieferte wichtige Erkenntnisse:
Es wurde eine signifikante Leistungslücke zwischen Englisch und anderen Sprachen festgestellt. RMs, die auf Englisch trainiert wurden, schneiden in der Regel in anderen Sprachen schlechter ab, was auf die Notwendigkeit hinweist, RMs auf mehrsprachigen Datensätzen zu trainieren, um ihre Leistung in verschiedenen Sprachen zu verbessern.
Die Präferenzen von RMs können von einer Sprache zur anderen erheblich variieren. Dies unterstreicht die Bedeutung kultureller und sprachlicher Nuancen bei der Gestaltung und Bewertung von RMs. Was in einer Sprache als positive Bewertung gilt, kann in einer anderen Sprache negativ bewertet werden.
Verschiedene mehrsprachige Aspekte beeinflussen die Leistung von RMs. So verbessert sich beispielsweise die Leistung von RMs mit zunehmender Qualität der Übersetzung. Ebenso schneiden Modelle bei ressourcenreichen Sprachen besser ab als bei ressourcenarmen Sprachen.
Die Veröffentlichung des M-RewardBench-Datensatzes und der Codebasis stellt einen wichtigen Schritt zur Förderung eines besseren Verständnisses der Evaluierung von RMs in mehrsprachigen Umgebungen dar. Durch die Bereitstellung dieser Ressourcen können Forscher die Entwicklung robusterer und effektiverer RMs für verschiedene Sprachen vorantreiben, was letztendlich zu einer besseren Benutzererfahrung mit LLMs in einem globalen Kontext führt.