Aktuelle Fortschritte bei großen Text-zu-Video (T2V)- und Bild-zu-Video (I2V)-Diffusionsmodellen haben die Videogenerierung, insbesondere im Bereich der Keyframe-Interpolation, erheblich verbessert. Aktuelle Bild-zu-Video-Diffusionsmodelle sind zwar leistungsstark bei der Generierung von Videos aus einem einzigen Konditionierungsframe, müssen jedoch für die Zwei-Frame-Konditionierung (Start & Ende) angepasst werden, was für eine effektive begrenzte Interpolation unerlässlich ist. Leider leiden bestehende Ansätze, die zeitlich vorwärts und rückwärts gerichtete Pfade parallel zusammenführen, häufig unter Off-Manifold-Problemen, was zu Artefakten führt oder mehrere iterative Entrauschungsschritte erfordert.
## Neue Sampling-Strategie zur Verbesserung der Videointerpolation
Ein neues Forschungspapier mit dem Titel „ViBiDSampler: Enhancing Video Interpolation Using Bidirectional Diffusion Sampler" stellt eine neuartige bidirektionale Sampling-Strategie vor, um diese Off-Manifold-Probleme zu beheben, ohne dass eine umfassende Entrauschung oder Feinabstimmung erforderlich ist. Die Methode verwendet sequentielles Sampling sowohl entlang des Vorwärts- als auch des Rückwärtspfads, konditioniert auf den Start- bzw. Endframe, um eine kohärentere und On-Manifold-Generierung von Zwischenframes zu gewährleisten.
Darüber hinaus integriert die neue Methode fortschrittliche Steuerungstechniken, CFG++ und DDS, um den Interpolationsprozess weiter zu verbessern. Durch die Integration dieser Techniken erreicht die neue Methode eine hochmoderne Leistung und erzeugt effizient hochwertige, flüssige Videos zwischen Keyframes. Auf einer einzelnen 3090-GPU kann die Methode in nur 195 Sekunden 25 Frames mit einer Auflösung von 1024 x 576 interpolieren, was sie zu einer führenden Lösung für die Keyframe-Interpolation macht.
## Herausforderungen der Bild-zu-Video-Modelle
Bestehende Bild-zu-Video-Modelle, die auf paralleler Fusion basieren, stehen vor Herausforderungen, wenn sowohl Start- als auch Endframes als Eingabe verwendet werden. Die direkte Fusion von Informationen aus beiden Frames kann zu Inkohärenzen führen, insbesondere wenn die Frames zeitlich weit auseinander liegen. Dies liegt daran, dass das Modell versucht, Merkmale aus beiden Frames gleichzeitig zu berücksichtigen, was zu einem Kompromiss führen kann, der keinem der beiden Frames entspricht. Daher werden die generierten Zwischenframes unscharf oder weisen Artefakte auf, insbesondere in Bereichen mit komplexen Bewegungen.
## Vorteile des bidirektionalen Samplings
Das in dem Papier vorgestellte bidirektionale Sampling bietet eine Lösung für die Einschränkungen paralleler Fusionsansätze. Anstatt Informationen aus Start- und Endframes gleichzeitig zu fusionieren, generiert das Modell Zwischenframes sequentiell entlang zweier Richtungen: vorwärts und rückwärts.
- **Vorwärtssampling:** Beginnend mit dem Startframe generiert das Modell den nächsten Frame in Vorwärtsrichtung, konditioniert auf den vorherigen Frame. Dieser Vorgang wird fortgesetzt, bis der Endframe erreicht ist.
- **Rückwärtssampling:** Ähnlich wie beim Vorwärtssampling beginnt der Rückwärtsprozess mit dem Endframe und generiert Frames sequentiell rückwärts, bis der Startframe erreicht ist.
Indem das Modell sequentiell sowohl in Vorwärts- als auch in Rückwärtsrichtung sampelt, kann es zeitliche Informationen effektiver erfassen und kohärentere Interpolationen erzeugen. Dieser Ansatz stellt sicher, dass die generierten Zwischenframes sowohl mit dem Start- als auch mit dem Endframe übereinstimmen, was zu flüssigeren und realistischeren Videoübergängen führt.
## Steigerung der Interpolation durch CFG++ und DDS
Die Einarbeitung von CFG++ und DDS in das bidirektionale Sampling-Framework verbessert die Qualität der generierten Videos weiter.
- **Classifier-Free Guidance (CFG++)**: CFG++ ist eine Technik, die die Genauigkeit und Qualität von durch Diffusionsmodelle generierten Samples verbessert. Sie beinhaltet die Steuerung des Generierungsprozesses mithilfe eines Klassifikators, der auf einem verwandten Datensatz trainiert wurde. Im Kontext der Videointerpolation hilft CFG++, indem sichergestellt wird, dass die generierten Zwischenframes den visuellen Merkmalen entsprechen, die in den Konditionierungsframes vorhanden sind, und verbessert so die Gesamtkonsistenz und den Realismus.
- **Denoising Diffusion Sampling (DDS):** DDS ist eine Sampling-Methode, die in Diffusionsmodellen verwendet wird, um hochwertige Samples zu erzeugen, indem der Entrauschungsprozess während der Generierung schrittweise durchgeführt wird. Durch die Einarbeitung von DDS in das bidirektionale Sampling-Framework kann das Modell realistischere und detailliertere Zwischenframes generieren.
## Bedeutung für die Videobearbeitung und -generierung
Die im Forschungspapier vorgestellte bidirektionale Sampling-Strategie stellt einen bedeutenden Fortschritt im Bereich der Videointerpolation dar. Durch die effektive Bewältigung der Off-Manifold-Probleme, die in bestehenden parallelen Fusionsansätzen auftreten, ermöglicht diese Methode die Generierung hochwertiger, flüssiger Videos zwischen Keyframes. Die Einarbeitung von fortschrittlichen Steuerungstechniken wie CFG++ und DDS verbessert die Qualität der generierten Videos weiter, was sie für verschiedene Anwendungen geeignet macht, darunter:
- **Zeitlupenvideogenerierung:** Generierung flüssiger und realistischer Zeitlupenvideos aus Videos mit Standardbildrate.
- **Videobildraten-Hochskalierung:** Erhöhung der Bildrate von Videos, wodurch flüssigere Bewegungen erzeugt werden.
- **Interpolation zwischen Fotos:** Erstellen von kurzen Videosequenzen aus einer Reihe von Fotos, die flüssige Übergänge zwischen ihnen bieten.
Da Diffusionsmodelle im Bereich der Videogenerierung und -bearbeitung immer leistungsfähiger werden, verspricht die bidirektionale Sampling-Strategie, ein wertvolles Werkzeug für die Erstellung ansprechender und immersiver Videoinhalte zu werden.
## Bibliographie
- https://arxiv.org/abs/2404.01203
- https://arxiv.org/html/2404.01203v1
- https://openaccess.thecvf.com/content/CVPR2024/papers/Jain_Video_Interpolation_with_Diffusion_Models_CVPR_2024_paper.pdf