Autoregressive (AR) Modelle haben in letzter Zeit die Bilderzeugung revolutioniert, indem sie sie als eine Art "Nächstes-Wort-Vorhersage" umformulieren. Diese Modelle zeigen ein bemerkenswertes Potenzial und entwickeln sich zu ernstzunehmenden Konkurrenten für Diffusionsmodelle, die bisher den Standard in der Bildgenerierung darstellten. Ein Bereich, der innerhalb der AR-Modelle jedoch noch weitgehend unerforscht ist, ist die "Control-to-Image"-Generierung, wie sie beispielsweise durch ControlNet bekannt ist.
Ein naheliegender Ansatz, inspiriert von den Fortschritten bei großen Sprachmodellen, besteht darin, Kontrollbilder in Tokens zu zerlegen und diese in das autoregressive Modell einzuspeisen, bevor die Bild-Tokens dekodiert werden. Diese Methode, auch bekannt als "Conditional Prefilling", weist jedoch im Vergleich zu ControlNet immer noch Defizite in der Qualität der generierten Bilder auf und ist zudem ineffizient.
An diesem Punkt setzt ControlAR an - ein effizientes und effektives Framework zur Integration von räumlichen Kontrollinformationen in autoregressive Bildgenerierungsmodelle. ControlAR besteht aus zwei Hauptkomponenten: einem "Control Encoder" und einem "Conditional Decoder". Der Control Encoder hat die Aufgabe, die räumlichen Informationen, wie z.B. Kanten, Tiefenkarten oder Segmentierungsmasken, in eine für das AR-Modell verständliche Sequenz von Kontroll-Tokens umzuwandeln. Hierfür nutzt ControlAR einen "Vision Transformer" (ViT), der sich als besonders effektiv bei der Verarbeitung von sequenziellen Daten erwiesen hat.
Im Gegensatz zum Conditional Prefilling, bei dem die Kontroll-Tokens vor dem Dekodieren der Bild-Tokens in das Modell eingefügt werden, verfolgt ControlAR einen anderen Ansatz: das Conditional Decoding. Hierbei wird jedes Bild-Token in Kombination mit dem entsprechenden Kontroll-Token verarbeitet, um das nächste Bild-Token vorherzusagen. Diese Strategie ermöglicht eine präzisere Steuerung des Generierungsprozesses und führt zu einer deutlich höheren Qualität der generierten Bilder.
Ein weiterer Vorteil von ControlAR ist die Fähigkeit zur Generierung von Bildern mit beliebiger Auflösung. Während herkömmliche AR-Modelle auf eine feste Auflösung beschränkt sind, kann ControlAR Bilder in verschiedenen Größen und Seitenverhältnissen erzeugen. Dies wird durch die Anpassung der Eingabegröße der Kontroll-Tokens erreicht, die es ermöglicht, die Auflösung des generierten Bildes flexibel zu steuern.
Um die Bildqualität über verschiedene Auflösungen hinweg weiter zu verbessern, wurde ControlAR um eine Multi-Resolution-Funktionalität erweitert. Diese ermöglicht ein Training des Modells mit mehreren Auflösungen gleichzeitig, was zu einer höheren Robustheit und Detailtreue der generierten Bilder führt.
Zahlreiche Experimente haben gezeigt, dass ControlAR im Vergleich zu bisherigen State-of-the-Art-Methoden, die auf Diffusionsmodellen basieren, eine bessere Leistung bei der kontrollierbaren Bildgenerierung erzielt. Dies gilt insbesondere für Aufgaben, bei denen eine präzise Steuerung der Bildinhalte durch räumliche Informationen erforderlich ist.
Zusammenfassend lässt sich sagen, dass ControlAR einen wichtigen Schritt in der Entwicklung von autoregressiven Bildgenerierungsmodellen darstellt. Durch die Einführung von Control Encoding und Conditional Decoding ermöglicht ControlAR eine effiziente und effektive Integration von räumlichen Kontrollinformationen in den Generierungsprozess. Dies führt zu einer höheren Qualität der generierten Bilder und ermöglicht zudem die Generierung von Bildern mit beliebiger Auflösung.
https://arxiv.org/abs/2410.02705
https://www.researchgate.net/publication/384630400_ControlAR_Controllable_Image_Generation_with_Autoregressive_Models/download
https://arxiv.org/html/2410.02705v1
https://linnk.ai/insight/computer-vision/controlar-achieving-controllable-image-generation-with-autoregressive-models-through-novel-control-encoding-and-conditional-decoding-Y05ravdU/
https://chatpaper.com/chatpaper/paper/63945
https://huggingface.co/papers
https://saqib1707.github.io/assets/pubs/autoregressive_generation_survey.pdf
https://paperreading.club/page?id=256420
https://neurips.cc/virtual/2023/poster/70344
https://github.com/AlonzoLeeeooo/awesome-text-to-image-studies