In der schnelllebigen Welt der künstlichen Intelligenz (KI) schreitet die Entwicklung von Vision Language Models (VLMs) rasant voran. Diese Modelle, die darauf ausgelegt sind, sowohl visuelle als auch sprachliche Informationen zu verarbeiten, finden in immer mehr Bereichen Anwendung, von der Bildbeschreibung bis hin zur Beantwortung komplexer Fragen zu Bildern.
Doch wie bewerten wir die Leistungsfähigkeit dieser Modelle? Traditionelle Benchmarks konzentrieren sich oft nur auf Teilaspekte wie die Genauigkeit der Bilderkennung oder die Fähigkeit, Fragen zu Bildern korrekt zu beantworten. Andere wichtige Aspekte wie Fairness, Mehrsprachigkeit oder die Vermeidung von schädlichen Inhalten werden dabei oft vernachlässigt.
Um diesen Herausforderungen zu begegnen, wurde VHELM (Holistic Evaluation of Vision Language Models) entwickelt. Dieser neue Bewertungsrahmen, der auf dem bewährten HELM-Framework für Sprachmodelle basiert, verfolgt einen ganzheitlichen Ansatz und berücksichtigt neun verschiedene Aspekte:
VHELM aggregiert Daten aus verschiedenen Quellen, um jeden dieser Aspekte abzudecken und ein umfassendes Bild der Fähigkeiten der VLMs zu zeichnen. Durch die Standardisierung von Inferenzparametern, Prompting-Methoden und Bewertungskriterien ermöglicht VHELM einen fairen und transparenten Vergleich verschiedener Modelle.
In einer ersten Evaluierungsrunde wurden 22 VLMs anhand von 21 Datensätzen getestet. Die Ergebnisse zeigen, dass VHELM neue Erkenntnisse liefert, die über die traditionellen Benchmarks hinausgehen. So schnitten beispielsweise effizienzorientierte Modelle wie Claude 3 Haiku oder Gemini 1.5 Flash in Bezug auf Bias deutlich schlechter ab als ihre vollwertigen Gegenstücke (Claude 3 Opus, Gemini 1.5 Pro). In anderen Bereichen zeigten sich jedoch keine signifikanten Unterschiede.
Die Entwickler von VHELM veröffentlichen die Rohdaten und Ergebnisse auf ihrer Website, um größtmögliche Transparenz zu gewährleisten. Der Benchmark soll kontinuierlich weiterentwickelt und um neue Datensätze, Modelle und Metriken erweitert werden.
VHELM leistet einen wichtigen Beitrag zur transparenten und objektiven Bewertung von VLMs. Der ganzheitliche Ansatz ermöglicht es Entwicklern, die Stärken und Schwächen ihrer Modelle besser zu verstehen und gezielt zu verbessern. Dies ist insbesondere vor dem Hintergrund der zunehmenden Verbreitung von VLMs in kritischen Bereichen wie der medizinischen Diagnose oder der autonomen Fahrzeugsteuerung von entscheidender Bedeutung.
Durch die Bereitstellung eines standardisierten Bewertungsrahmens trägt VHELM dazu bei, die Entwicklung von robusten, fairen und vertrauenswürdigen VLMs zu fördern. Dies kommt letztendlich allen zugute, die von den vielfältigen Anwendungsmöglichkeiten dieser Technologie profitieren können.