Die Synthese neuer Ansichten, auch bekannt als Novel-View-Synthesis (NVS), ist ein spannendes Feld der Computergrafik, das darauf abzielt, aus verschiedenen Eingabebildern oder Videos neue Ansichten einer Szene zu generieren. Ein vielversprechender Ansatz in diesem Bereich ist das 3D-Gaussian Splatting (3DGS), das sich durch effiziente Pipelines und die Fähigkeit auszeichnet, fotorealistische Renderings zu erstellen.
3DGS stellt Szenen als eine Sammlung von 3D-Gauß-Sphären dar und verwendet eine schnelle, differenzierbare Splatting-Pipeline für das Rendering. Diese Technik hat in letzter Zeit aufgrund ihrer Geschwindigkeit und Effizienz an Popularität gewonnen. Die Qualität der mit 3DGS erzeugten neuen Ansichten hängt jedoch stark von der Qualität und Anzahl der Eingabeansichten ab. Insbesondere bei komplexen Szenen oder einer geringen Anzahl von Eingabebildern kann es zu Artefakten wie sichtbaren Ellipsoiden oder Löchern im Rendering kommen.
Die Herausforderung besteht darin, die 3DGS-Darstellungen so zu verbessern, dass auch bei komplexen Szenen und einer geringen Anzahl von Eingabeansichten qualitativ hochwertige Ergebnisse erzielt werden können. Ein vielversprechender Ansatz ist die Nutzung von 2D-generativen Priors, insbesondere von latenten Diffusionsmodellen (LDMs). LDMs haben sich als leistungsstark und robust bei verschiedenen Aufgaben der Bildgenerierung und -wiederherstellung erwiesen.
Ein Hauptproblem bei der Anwendung von LDMs auf 3D-Szenen ist jedoch die Sicherstellung der Konsistenz zwischen den generierten 2D-Bildern. Diese 3D-Sichtkonsistenz ist entscheidend für ein überzeugendes Rendering, da Inkonsistenzen zu sichtbaren Artefakten führen können.
Eine neue Forschungsarbeit stellt 3DGS-Enhancer vor, eine Pipeline, die darauf abzielt, die Qualität von 3DGS-Darstellungen durch die Integration von 2D-Video-Diffusions-Priors zu verbessern. Der Kern von 3DGS-Enhancer ist ein Video-LDM, das aus drei Hauptkomponenten besteht:
Dieser Ansatz nutzt die Stärke von Video-Diffusionsmodellen, um das Problem der 3D-Sichtkonsistenz als eine Aufgabe der zeitlichen Konsistenz in der Videogenerierung zu formulieren. Durch die Wiederherstellung zeitlich konsistenter latenter Merkmale kann 3DGS-Enhancer qualitativ hochwertigere Bilder erzeugen, die gleichzeitig eine verbesserte 3D-Sichtkonsistenz aufweisen.
Um die Leistung des ursprünglichen 3DGS-Modells weiter zu verbessern, werden die mit 3DGS-Enhancer generierten, verbesserten Ansichten für ein Finetuning verwendet. Dieser Schritt ermöglicht es dem Modell, die zusätzlichen Informationen aus den verbesserten Ansichten zu nutzen und seine Fähigkeit zur Rekonstruktion der Szene zu optimieren.
Um die Effektivität von 3DGS-Enhancer zu bewerten, wurden umfangreiche Experimente auf großen Datensätzen mit unbegrenzten Szenen durchgeführt. Die Ergebnisse zeigen, dass 3DGS-Enhancer im Vergleich zu bestehenden Methoden eine überlegene Rekonstruktionsleistung erzielt und deutlich bessere Ergebnisse bei der Erzeugung neuer Ansichten liefert. Die erzeugten Bilder weisen eine höhere Wiedergabetreue und weniger Artefakte auf, was die Leistungsfähigkeit des Ansatzes unterstreicht.
3DGS-Enhancer ist ein vielversprechender Schritt zur Verbesserung der Qualität und Robustheit von 3DGS in komplexen Szenarien. Die Nutzung von Video-Diffusions-Priors eröffnet neue Möglichkeiten, um die 3D-Sichtkonsistenz zu verbessern und die Grenzen der neuen Ansichtssynthese zu erweitern.