Zukunft der Bewegungsanimation: KI erweckt Texte zum Leben

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Artikel jetzt als Podcast anhören

In den letzten Jahren haben wir eine beeindruckende Entwicklung im Bereich der künstlichen Intelligenz und insbesondere in der Generierung menschlicher Bewegungen aus Textbeschreibungen erlebt. Wissenschaftler und Entwickler arbeiten unermüdlich daran, die Grenzen dessen zu erweitern, was mit Hilfe von Algorithmen im Bereich der Animation und des maschinellen Lernens möglich ist. Eines der neuesten Durchbrüche auf diesem Gebiet ist die Fähigkeit, menschliche Bewegungen präzise aus Textvorgaben zu generieren und dabei die Kontrolle über den Zeitpunkt und die Überlappung verschiedener Aktionen zu haben.

Ein herausragendes Beispiel für diese Fortschritte ist die Arbeit von Mathis Petrovich, Michael J. Black und Gül Varol, die in ihrer Studie "TEMOS: Generating diverse human motions from textual descriptions" eine neue Methode vorstellen, die es ermöglicht, diverse 3D-Menschbewegungen aus Textbeschreibungen zu erzeugen. Dieses Projekt stellt einen bedeutenden Fortschritt gegenüber früheren Ansätzen dar, die meist nur eine einzige, deterministische Bewegung generieren konnten. Das Team hat einen variationalen Ansatz entwickelt, der mehrere unterschiedliche menschliche Bewegungen produzieren kann.

Die Forschungsarbeiten, die auf der Plattform arXiv veröffentlicht wurden, zeigen, dass das von ihnen vorgeschlagene Text-konditionierte generative Modell unter Verwendung des Trainings eines Variational Autoencoder (VAE) mit menschlichen Bewegungsdaten und einem Text-Encoder, der Verteilungsparameter erzeugt, die mit dem VAE-Latenzraum kompatibel sind, funktioniert. Diese Methode konnte sowohl Skelett-basierte Animationen als auch ausdrucksstärkere SMPL-Körperbewegungen produzieren und hat auf dem KIT Motion-Language Benchmark signifikante Verbesserungen gegenüber dem bisherigen Stand der Technik gezeigt.

Ein weiterer Schritt in die Zukunft der Animation ist das Projekt "TalkSHOW", das von Michael J. Black und anderen Forschern im Rahmen der #CVPR2023 vorgestellt wurde. TalkSHOW zielt darauf ab, realistische, kohärente und vielfältige ganzheitliche 3D-Bewegungen zu erzeugen, die Körperbewegungen zusammen mit Gesichtsausdrücken und Handgesten umfassen, basierend auf einem Spracheingangssignal. Ein Hauptproblem, das es zu überwinden galt, war der Mangel an Trainingsdaten von ganzheitlichen 3D-Körpernetzen, die mit synchronen Sprachaufnahmen gepaart sind. Um dieses Problem zu lösen, entwickelte das Team SHOW ("Synchronous Holistic Optimization in the Wild"), das es ermöglicht, Oberkörperbewegungen einschließlich des Gesichts und der Hände präzise aus Videos zu erfassen.

Die Methode von TalkSHOW verwendet eine Encoder-Decoder-Architektur, um die stark korrelierte Natur der Phonem-zu-Lipp-Bewegung für das Gesicht zu modellieren, während für den Körper ein neuartiger VQ-VAE-Rahmen verwendet wird, da Körperbewegungen weniger stark an die Sprache gebunden und vielfältiger sind. Das Ergebnis ist eine Technologie, die realistische, kohärente und vielfältige ganzheitliche Körperbewegungen mit Gesichts- und Handbewegungen generieren kann, die auch verschiedene Bewegungsstile repräsentieren und gut auf Sprache von unbekannten Charakteren, Fremdsprachen und sogar Lieder ohne Feinabstimmung verallgemeinern kann.

Diese Entwicklungen sind nicht nur für die Unterhaltungsindustrie und die Erstellung von Videospielen von Bedeutung, sondern haben auch das Potenzial, in Bereichen wie der virtuellen Realität, der medizinischen Rehabilitation und der menschlichen Robotik Anwendung zu finden. Die Generierung von menschlicher Bewegung aus Text ist ein Bereich, der in den kommenden Jahren wahrscheinlich weiter an Bedeutung gewinnen wird, da er die Art und Weise verändert, wie wir mit Maschinen interagieren und sie trainieren.

Die Kombination aus der fortschrittlichen Fähigkeit, komplexe menschliche Bewegungen zu verstehen und zu erzeugen, und der wachsenden Leistungsfähigkeit von Computern eröffnet neue Horizonte für die Anwendungen künstlicher Intelligenz. Mit diesen Werkzeugen können Animatoren und Entwickler neue Ebenen der Kreativität und Effizienz erreichen, während sie gleichzeitig die Brücke zwischen menschlicher Kreativität und maschineller Präzision schlagen.

Die Arbeit von Teams wie dem von Michael J. Black und seinen Kollegen ist ein Zeugnis für die rasante Entwicklung von KI-Technologien und deren Anwendungen in der realen Welt. Es ist ein Bereich, der stetig wächst und sich weiterentwickelt, und wir können nur gespannt sein, welche Innovationen und Verbesserungen in der Zukunft noch auf uns warten.

Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.