Die Synthese neuer Ansichten aus einer begrenzten Anzahl von Eingabebildern ist eine seit langem bestehende Herausforderung in der Computer Vision und Grafik. Traditionelle Methoden stützen sich oft auf 3D-Modelle und -Strukturen, die zwar effektiv sein können, aber auch die Flexibilität und Skalierbarkeit der Modelle einschränken. Das Large View Synthesis Model (LVSM) präsentiert einen neuen, datengetriebenen Ansatz, der diese Einschränkungen überwindet und neue Maßstäbe in der Ansichtssynthese setzt.
LVSM nutzt die Leistungsfähigkeit von Transformer-Netzwerken, um neue Ansichten aus spärlichen Eingabebildern zu generieren. Zwei Architekturen werden vorgestellt: ein Encoder-Decoder-Modell und ein Decoder-only-Modell. Beide Varianten verzichten auf explizite 3D-Repräsentationen und Rendering-Gleichungen, wodurch die Abhängigkeit von vorgegebenen 3D-Strukturen minimiert wird.
Das Encoder-Decoder-Modell kodiert die Eingabebilder in eine feste Anzahl von latenten Token, die als erlernte Szenenrepräsentation dienen. Der Decoder generiert anschließend aus diesen Token und den Zielansichts-Strahlen die neue Ansicht. Diese Architektur ermöglicht eine schnellere Inferenz aufgrund der unabhängigen latenten Repräsentation.
Das Decoder-only-Modell geht noch einen Schritt weiter und verzichtet vollständig auf eine intermediäre Szenenrepräsentation. Es bildet die Eingabebilder direkt auf die Zielansicht ab, wodurch ein vollständig impliziter und datengetriebener Ansatz erreicht wird. Dieses Modell zeichnet sich durch überlegene Qualität, Skalierbarkeit und Zero-Shot-Generalisierung aus.
Umfassende Evaluierungen auf verschiedenen Datensätzen zeigen, dass beide LVSM-Varianten eine herausragende Qualität bei der Ansichtssynthese erzielen. Besonders bemerkenswert ist die Fähigkeit des Decoder-only-Modells, auch mit einer variierenden Anzahl von Eingabebildern, von Einzelbildern bis hin zu mehr als zehn, qualitativ hochwertige Ergebnisse zu liefern.
Im Vergleich zu bisherigen State-of-the-Art-Methoden wie GS-LRM erzielt LVSM signifikante Verbesserungen im PSNR-Wert von 1,5 bis 3,5 dB. Die Modelle wurden auf 64 A100 GPUs für 3-7 Tage trainiert, abhängig von Datentyp und Architektur. Es wurde jedoch festgestellt, dass selbst mit reduzierten Rechenressourcen (1-2 GPUs) LVSM bisherige Methoden übertrifft.
Die Fähigkeit, aus wenigen Eingabebildern realistische neue Ansichten zu generieren, eröffnet vielfältige Anwendungsmöglichkeiten in Bereichen wie Virtuelle Realität, Augmented Reality, Robotik und 3D-Modellierung. LVSMs datengetriebener Ansatz verspricht zudem eine höhere Robustheit gegenüber komplexen Szenen und unvollständigen Daten.
Die Entwicklung von LVSM stellt einen wichtigen Schritt in Richtung einer flexibleren und skalierbareren Ansichtssynthese dar. Die Minimierung von 3D-Voreingenommenheit ermöglicht es dem Modell, komplexe Szenen effektiver zu erlernen und sich an neue Situationen anzupassen. Zukünftige Forschung könnte sich auf die weitere Verbesserung der Effizienz und die Erweiterung der Anwendungsmöglichkeiten konzentrieren.
Bibliographie: https://arxiv.org/abs/2410.17242 https://arxiv.org/html/2410.17242v1 https://deeplearn.org/arxiv/539863/lvsm:-a-large-view-synthesis-model-with-minimal-3d-inductive-bias https://chatpaper.com/chatpaper/paper/70406 https://twitter.com/Animation/status/1848956311351808193 https://haian-jin.github.io/ https://twitter.com/zhenjun_zhao/status/1849002925177393498 https://www.aipapernews.com/ https://arxiv-sanity-lite.com/?rank=time https://x.com/zexiangxu