Die Generierung von sprechenden Köpfen hat in den letzten Jahren beachtliche Fortschritte erzielt. Diese Technologie ermöglicht es, aus einem einzigen Porträtbild und einer Audiodatei realistische Videos von sprechenden Personen zu erstellen. Ein Großteil der bisherigen Erfolge in diesem Bereich ist auf den Einsatz von diffusionsbasierten Modellen zurückzuführen. Diese Modelle basieren jedoch meist auf autoregressiven Strategien, die mit einigen Herausforderungen verbunden sind.
Autoregressive Modelle generieren Daten sequentiell, wobei jedes neue Element auf der Grundlage der vorhergehenden Elemente vorhergesagt wird. Dieser Ansatz führt zu drei wesentlichen Problemen:
Um diese Herausforderungen zu bewältigen, wurde DAWN (Dynamic frame Avatar With Non-autoregressive diffusion) entwickelt. DAWN ist ein neuartiges Framework, das die Generierung von Videos mit dynamischer Länge in einem einzigen Schritt ermöglicht. Im Gegensatz zu autoregressiven Modellen generiert DAWN alle Videoframes gleichzeitig. Dies wird durch zwei Hauptkomponenten erreicht:
DAWN nutzt die Audiodaten, um die Bewegung des Gesichts im latenten Raum zu modellieren. Dieser Ansatz ermöglicht es, komplexe Gesichtsausdrücke und Lippenbewegungen präzise zu erfassen und zu generieren.
Zusätzlich zur Gesichtsdynamik berücksichtigt DAWN auch die Kopfhaltung und das Blinzeln. Die Audiodaten werden analysiert, um die Bewegungen des Kopfes und der Augenlider realistisch zu animieren.
Durch den Einsatz eines nicht-autoregressiven Ansatzes bietet DAWN mehrere Vorteile gegenüber bestehenden Verfahren:
DAWN stellt einen bedeutenden Fortschritt im Bereich der sprechenden Kopfvideo-Generierung dar. Die Fähigkeit, qualitativ hochwertige Videos schnell und effizient zu generieren, eröffnet neue Möglichkeiten für verschiedene Anwendungen, wie z.B. virtuelle Assistenten, Videokonferenzen und Unterhaltung. Es wird erwartet, dass DAWN weitere Forschung im Bereich der nicht-autoregressiven Diffusion für die Videogenerierung anregen wird.