Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Fortschritte im Bereich der Künstlichen Intelligenz (KI) haben in den letzten Jahren beeindruckende Ergebnisse erzielt, insbesondere im Bereich der multimodalen Large Language Models (MLLMs). Diese Modelle sind in der Lage, sowohl Text als auch Bilder zu verarbeiten und zu verstehen. Ein vielversprechendes Anwendungsgebiet für MLLMs ist die Embodied AI, bei der KI-Systeme in der Lage sind, in der realen Welt zu agieren und mit ihr zu interagieren. Eine besondere Herausforderung in diesem Bereich ist das Verständnis von Egocentric Videos, also Videos, die aus der Ich-Perspektive einer Person aufgenommen wurden.
Egocentric Videos unterscheiden sich in vieler Hinsicht von herkömmlichen Videos. Da sie aus der Perspektive des Handelnden aufgenommen werden, ist der Blickwinkel oft unruhig und die Bildkomposition weniger strukturiert. Zudem enthalten Egocentric Videos häufig viele Details und Informationen, die für das Verständnis der Situation relevant sind. Um in der realen Welt erfolgreich agieren zu können, müssen KI-Systeme in der Lage sein, diese komplexen visuellen Informationen zu interpretieren und zu verstehen.
Um den aktuellen Stand der Forschung im Bereich des Egocentric Video Understandings zu bewerten und die Entwicklung neuer, leistungsfähigerer KI-Systeme voranzutreiben, wurde VidEgoThink entwickelt. VidEgoThink ist ein neuer Benchmark, der die Fähigkeiten von KI-Modellen im Umgang mit Egocentric Videos umfassend bewertet.
Der Benchmark umfasst vier zentrale Aufgaben, die eng miteinander verbunden sind:
- Video Question-Answering: Beantwortung von Fragen zum Inhalt eines Videos. - Hierarchy Planning: Planung einer Abfolge von Aktionen, um ein bestimmtes Ziel zu erreichen. - Visual Grounding: Zuordnung von Wörtern oder Phrasen zu den entsprechenden Objekten oder Bereichen in einem Bild. - Reward Modeling: Bewertung der Qualität einer ausgeführten Aktion.Diese Aufgaben wurden so konzipiert, dass sie die Herausforderungen widerspiegeln, denen sich KI-Systeme in realen Szenarien stellen müssen. So erfordert beispielsweise die Planung einer Abfolge von Aktionen ein tiefes Verständnis der Umgebung, der Beziehungen zwischen Objekten und der Auswirkungen von Handlungen.
Um den Aufwand für die manuelle Annotation der Daten zu minimieren, wurde für die Erstellung des VidEgoThink-Benchmarks eine automatische Pipeline entwickelt. Diese Pipeline nutzt das bereits vorhandene Ego4D-Dataset sowie die multimodalen Fähigkeiten des Large Language Models GPT-4o. GPT-4o wurde darauf trainiert, Fragen zu den Videos zu generieren, Aktionspläne zu erstellen und Belohnungen für ausgeführte Aktionen zu modellieren.
Um die Qualität und Diversität der generierten Daten sicherzustellen, wurden die Ergebnisse von GPT-4o anschließend von drei menschlichen Annotatoren überprüft und gefiltert.
Im Rahmen der Entwicklung von VidEgoThink wurden umfangreiche Experimente mit verschiedenen KI-Modellen durchgeführt. Darunter befanden sich sowohl API-basierte MLLMs wie GPT-4o als auch Open-Source-Modelle, die auf Bild- oder Videodaten trainiert wurden. Die Ergebnisse dieser Experimente zeigen, dass selbst die leistungsfähigsten KI-Modelle derzeit noch große Schwierigkeiten haben, die komplexen Aufgaben im Zusammenhang mit dem Verständnis von Egocentric Videos zu bewältigen.
VidEgoThink ist ein wichtiger Schritt auf dem Weg zu einer neuen Generation von KI-Systemen, die in der Lage sind, die Welt aus einer Ich-Perspektive zu verstehen und in ihr zu agieren. Der Benchmark bietet Forschern und Entwicklern ein wertvolles Werkzeug, um die Fortschritte in diesem Bereich zu messen und die Grenzen des Möglichen zu erweitern. Die Ergebnisse der ersten Experimente mit VidEgoThink zeigen, dass es noch viel zu tun gibt, um die Leistungsfähigkeit von KI-Systemen im Bereich des Egocentric Video Understandings zu verbessern.
Bibliograhie Cheng, Sijie, et al. "VidEgoThink: Assessing Egocentric Video Understanding Capabilities for Embodied AI." *arXiv preprint arXiv:2410.11623* (2024). Cheng, Sijie, et al. "VidEgoThink: Assessing Egocentric Video Understanding Capabilities for Embodied AI." *OpenReview* (2024). Damen, Dima, et al. "Ego4D: Around the World in 3000 Hours of Egocentric Video." *arXiv preprint arXiv:2110.07056* (2021). Jia, Baoxiong, et al. "EgoTaskQA: Understanding Human Tasks in Egocentric Videos." *Advances in Neural Information Processing Systems* 35 (2022): 14264-14277. Suglia, Alessandro, et al. "AlanaVLM: A Multimodal Embodied AI Foundation Model for Egocentric Video Understanding." *arXiv preprint arXiv:2406.13807* (2024).Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen