Das Verständnis von feinkörniger zeitlicher Dynamik ist entscheidend für das multimodale Verstehen und Generieren von Videos. Aufgrund des Mangels an detaillierten zeitlichen Annotationen ähneln bestehende Video-Benchmarks jedoch meist statischen Bild-Benchmarks und sind nicht in der Lage, Modelle für das zeitliche Verständnis zu bewerten. In diesem Artikel stellen wir TemporalBench vor, einen neuen Benchmark, der speziell für die Bewertung des feinkörnigen zeitlichen Verständnisses in Videos entwickelt wurde.
Herkömmliche Video-Benchmarks konzentrieren sich oft auf die räumliche Analyse einzelner Frames, ähnlich wie bei statischen Bildern. Dies ignoriert jedoch die inhärente zeitliche Natur von Videos, die durch Bewegung, Abfolgen von Ereignissen und Veränderungen im Laufe der Zeit definiert ist. Um diese Lücke zu schließen, wurde TemporalBench entwickelt, um die Fähigkeit von KI-Modellen zu bewerten, die zeitlichen Nuancen in Videos zu verstehen.
TemporalBench besteht aus etwa 10.000 Video-Frage-Antwort-Paaren, die aus etwa 2.000 qualitativ hochwertigen menschlichen Annotationen abgeleitet wurden, welche die zeitliche Dynamik in Videoclips detailliert beschreiben. Dies führt zu einem einzigartigen Testfeld für die Bewertung verschiedener zeitlicher Verstehens- und Argumentationsfähigkeiten, wie z. B.:
Darüber hinaus ermöglicht TemporalBench die Bewertung verschiedener Aufgaben, darunter:
Der Benchmark ist außerdem so konzipiert, dass er mit verschiedenen Modellen verwendet werden kann, z. B. mit multimodalen Video-Einbettungsmodellen und Textgenerierungsmodellen.
Erste Ergebnisse zeigen, dass selbst hochmoderne Modelle wie GPT-4o bei TemporalBench nur eine Genauigkeit von 38,5 % bei der Fragenbeantwortung erreichen. Dies verdeutlicht eine beträchtliche Lücke (~30 %) zwischen Menschen und KI im Hinblick auf das zeitliche Verständnis. Insbesondere wurde ein kritischer Schwachpunkt bei Multiple-Choice-Fragenbeantwortung identifiziert, bei dem große Sprachmodelle (LLMs) subtile Änderungen in negativen Bildunterschriften erkennen und eine zentrale Beschreibung als Anhaltspunkt für ihre Vorhersage verwenden können. Um dieser Verzerrung entgegenzuwirken, schlagen die Entwickler von TemporalBench die Multiple Binary Accuracy (MBA) als neue Metrik vor.
TemporalBench stellt einen wichtigen Schritt in der KI-Forschung dar, da er die Entwicklung und Bewertung von Modellen mit verbesserten Fähigkeiten zum zeitlichen Denken fördert. Diese Fähigkeiten sind entscheidend für eine Vielzahl von Anwendungen, darunter:
Durch die Bereitstellung eines robusten Benchmarks für das feinkörnige zeitliche Verständnis in Videos trägt TemporalBench dazu bei, die Grenzen der KI-Forschung zu erweitern und den Weg für eine neue Generation intelligenterer und leistungsfähigerer Videoanwendungen zu ebnen.
Cai, M., Tan, R., Zhang, J., Zou, B., Zhang, K., Yao, F., ... & Yang, J. (2024). TemporalBench: Benchmarking Fine-grained Temporal Understanding for Multimodal Video Models. arXiv preprint arXiv:2410.10818.
Li, K., Wang, Y., He, Y., Li, Y., Wang, Y., Liu, Y., ... & Qiao, Y. (2023). MVBench: A Comprehensive Multi-modal Video Understanding Benchmark. arXiv preprint arXiv:2311.17005.
Wu, H., Li, D., Chen, B., & Li, J. (2024). LongVideoBench: A Benchmark for Long-context Interleaved Video-Language Understanding. arXiv preprint arXiv:2407.15754v1.
Lee, H. Y., Su, H. T., Tsai, B. C., Wu, T. H., Yeh, J. F., & Hsu, W. H. (2022). Learning Fine-Grained Visual Understanding for Video Question Answering via Decoupling Spatial-Temporal Modeling. In 33rd British Machine Vision Conference 2022, BMVC 2022, London, UK, November 21-24, 2022 (p. 116). BMVA Press.