Große Sprachmodelle (LLMs) zeigen ein beeindruckendes Potenzial in wirtschaftlichen und strategischen Interaktionen, bei denen Kommunikation über natürliche Sprache eine zentrale Rolle spielt. Dies wirft jedoch auch wichtige Fragen auf: Verhalten sich LLMs rational? Können sie menschliches Verhalten nachahmen? Führen sie zu effizienten und fairen Ergebnissen? Welche Rolle spielt die natürliche Sprache in der strategischen Interaktion? Und wie beeinflussen die Merkmale des wirtschaftlichen Umfelds diese Dynamik?
Diese Fragen gewinnen vor dem Hintergrund der wirtschaftlichen und gesellschaftlichen Auswirkungen an Bedeutung, die die Integration von LLM-basierten Agenten in reale datengesteuerte Systeme, wie z. B. Online-Handelsplattformen und Empfehlungssysteme, mit sich bringt. Obwohl die Machine-Learning-Community das Potenzial von LLMs in solchen Multi-Agenten-Systemen bereits untersucht, erschweren unterschiedliche Annahmen, Designentscheidungen und Bewertungskriterien in den verschiedenen Studien das Ziehen robuster und aussagekräftiger Schlussfolgerungen.
Um dem entgegenzuwirken, wurde ein neuer Benchmark für die Standardisierung der Forschung zu sequenziellen, sprachbasierten Spielen mit zwei Spielern entwickelt. Inspiriert von der wirtschaftswissenschaftlichen Literatur definiert der Benchmark drei grundlegende Familien von Spielen mit einheitlicher Parametrisierung, Freiheitsgraden und ökonomischen Kennzahlen. Diese Kennzahlen dienen dazu, sowohl die Leistung der Agenten (Eigennutz) als auch das Spielergebnis (Effizienz und Fairness) zu bewerten.
Die drei Spielfamilien sind:
- Verhandlungsspiele - Nachverhandlungsspiele - ÜberzeugungsspieleJedes dieser Spiele ist durch spezifische Regeln und Parameter definiert, die verschiedene wirtschaftliche Szenarien abbilden. So können beispielsweise in Verhandlungsspielen Parameter wie die Anzahl der Runden, die Höhe des zu verteilenden Gewinns oder die Geduld der Spieler variiert werden.
Ergänzend zum Benchmark wurde ein Open-Source-Framework für die Simulation und Analyse von Interaktionen in diesen Spielen entwickelt. Das Framework ermöglicht es Forschern, Experimente mit verschiedenen LLM-basierten Agenten durchzuführen und deren Verhalten in unterschiedlichen Spielkonfigurationen zu untersuchen.
Mithilfe des Frameworks wurde ein umfangreicher Datensatz von LLM-gegen-LLM-Interaktionen in verschiedenen Spielkonfigurationen sowie ein Datensatz von Mensch-gegen-LLM-Interaktionen erstellt. Diese Datensätze stehen der Forschungsgemeinschaft zur Verfügung und können für weitere Untersuchungen genutzt werden.
Die Entwickler des Frameworks und des Benchmarks zeigen anhand von Experimenten, wie diese Werkzeuge eingesetzt werden können, um:
1. das Verhalten von LLM-basierten Agenten mit dem von menschlichen Spielern in verschiedenen wirtschaftlichen Kontexten zu vergleichen; 2. Agenten sowohl anhand individueller als auch kollektiver Leistungskennzahlen zu bewerten; 3. die Auswirkungen der wirtschaftlichen Eigenschaften der Umgebungen auf das Verhalten von Agenten zu quantifizieren.Der vorgestellte Benchmark und das Framework stellen einen wichtigen Schritt zur Standardisierung der Forschung zu LLM-basierten Agenten in sprachbasierten Spielen dar. Sie bieten Forschern die Möglichkeit, Experimente unter einheitlichen Bedingungen durchzuführen und die Ergebnisse verschiedener Studien besser miteinander zu vergleichen.
Die gewonnenen Erkenntnisse tragen dazu bei, das Verhalten von LLMs in strategischen Interaktionen besser zu verstehen und die Entwicklung von robusteren und zuverlässigeren LLM-basierten Agenten für reale Anwendungen zu fördern. Darüber hinaus können die Ergebnisse dazu beitragen, die Gestaltung zukünftiger KI-Systeme zu verbessern und ihre Auswirkungen auf Wirtschaft und Gesellschaft besser abzuschätzen.