In der sich rasant entwickelnden Welt der künstlichen Intelligenz (KI) haben multimodale große Sprachmodelle (MLLMs) bemerkenswerte Fortschritte erzielt. Diese Modelle sind darauf trainiert, sowohl Text- als auch Bilddaten zu verarbeiten und zu verstehen, was ihnen die Möglichkeit gibt, eine Vielzahl von Aufgaben zu bewältigen, die bisher Menschen vorbehalten waren. Von der Generierung kreativer Inhalte bis hin zur Übersetzung von Sprachen haben MLLMs ein breites Anwendungsspektrum eröffnet. Doch trotz ihrer beeindruckenden Fähigkeiten stoßen MLLMs bei Aufgaben, die eine komplexe räumliche Vorstellungskraft und Planung erfordern, immer noch an ihre Grenzen.
Um die Fähigkeiten von MLLMs in Bezug auf räumliches Denken und Planen genauer zu untersuchen, wurde ein neuer Benchmark namens ING-VP (Interactive Game-based Vision Planning) entwickelt. ING-VP besteht aus sechs verschiedenen Spielen mit insgesamt 300 Levels, die jeweils in sechs einzigartigen Konfigurationen vorliegen. Ein einzelnes Modell absolviert über 60.000 Interaktionsrunden, um seine Fähigkeiten unter Beweis zu stellen. Dieser Benchmark ermöglicht es Forschern, MLLMs in verschiedenen Szenarien zu bewerten, darunter Bild-Text- gegenüber Text-only-Eingaben, einstufiges gegenüber mehrstufigem Denken und das Lernen aus der Historie.
Die Ergebnisse der ING-VP-Evaluierung zeigen, dass selbst hochmoderne MLLMs wie Claude-3.5 Sonnet bei diesen visuell-planerischen Aufgaben Schwierigkeiten haben. Die durchschnittliche Genauigkeit liegt bei nur 3,37%, was weit unter den Erwartungen liegt. Dies deutet darauf hin, dass MLLMs zwar in der Lage sind, komplexe Sprachmuster zu erkennen und menschenähnlichen Text zu generieren, aber noch nicht über die Fähigkeit verfügen, räumliche Beziehungen in Bildern effektiv zu verarbeiten und für Planungsaufgaben zu nutzen.
Es gibt mehrere Gründe, warum MLLMs bei diesen Aufgaben Schwierigkeiten haben:
Die Ergebnisse der ING-VP-Evaluierung zeigen, dass es noch viel Raum für Verbesserungen im Bereich der visuellen Planung mit MLLMs gibt. Zukünftige Forschung sollte sich auf die Entwicklung neuer Architekturen und Trainingsmethoden konzentrieren, die es MLLMs ermöglichen:
Die Entwicklung von MLLMs, die komplexe visuelle Planungsaufgaben bewältigen können, würde den Weg für eine Vielzahl neuer Anwendungen ebnen, darunter:
Die ING-VP-Benchmark ist ein wichtiger Schritt, um die Grenzen von MLLMs zu verstehen und die Entwicklung neuer, leistungsfähigerer KI-Systeme voranzutreiben. Durch die Bewältigung der Herausforderungen im Bereich der visuellen Planung können wir das volle Potenzial von MLLMs ausschöpfen und eine Zukunft gestalten, in der KI eine noch größere Rolle in unserem Leben spielt.