KI für Ihr Unternehmen – Jetzt Demo buchen

Innovativer Ansatz zur Token-Level-Kollaboration von Large Language Models mit FusionRoute

Kategorien:
No items found.
Freigegeben:
January 10, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • FusionRoute ist ein neues Framework, das die Zusammenarbeit von Large Language Models (LLMs) auf Token-Ebene ermöglicht.
    • Es adressiert das Dilemma zwischen teuren, allgemeinen LLMs und effizienten, aber eingeschränkt spezialisierten Modellen.
    • Ein leichter Router wählt für jeden Dekodierungsschritt den am besten geeigneten Experten aus und fügt komplementäre Logits hinzu.
    • Diese komplementären Logits korrigieren oder verfeinern die Ausgabe des ausgewählten Experten und erhöhen die Robustheit.
    • Die theoretische Analyse zeigt, dass reine Expertenauswahl auf Token-Ebene ohne starke Annahmen suboptimal sein kann.
    • FusionRoute übertrifft empirisch bestehende Methoden wie sequentielle und Token-Ebene-Kollaboration sowie Modell-Merging.
    • Das Training erfolgt in zwei Phasen: überwachtes Fine-Tuning (SFT) für die Expertenauswahl und Complemented Direct Preference Optimization (CDPO) für die Logit-Ergänzung.

    Revolutionäre LLM-Kollaboration: FusionRoute überwindet Spezialisierungsdilemma durch Token-Level-Routing und komplementäre Logits

    Die rapide Entwicklung von Large Language Models (LLMs) hat zu beeindruckenden Fortschritten in diversen Anwendungsbereichen geführt, von mathematischem Denken über Code-Generierung bis hin zur Befolgung komplexer Anweisungen. Dennoch stehen Unternehmen und Entwickler vor einem grundlegenden Dilemma: Während einzelne, sehr große LLMs eine breite Leistungsfähigkeit über verschiedene Domänen hinweg bieten, sind deren Trainings- und Bereitstellungskosten oft prohibitiv hoch. Kleinere, domänenspezialisierte Modelle sind zwar effizienter, stoßen jedoch an ihre Grenzen, sobald Aufgaben außerhalb ihrer spezifischen Trainingsdaten liegen. Eine neue Forschungsarbeit mit dem Titel "Token-Level LLM Collaboration via FusionRoute" stellt einen innovativen Ansatz vor, der dieses Dilemma durch eine neuartige Kollaborationsmethode auf Token-Ebene überwinden soll.

    Die Herausforderung der LLM-Spezialisierung und Generalisierung

    Die Entwicklung von LLMs zielt darauf ab, Modelle zu schaffen, die sowohl in spezialisierten Aufgaben exzellieren als auch eine breite Generalisierungsfähigkeit besitzen. Aktuelle Ansätze zur Nutzung multipler LLMs umfassen:

    • Mixture-of-Experts (MoE): Hierbei werden mehrere Experten in einer einheitlichen Architektur integriert und gemeinsam mit einem Routing-Netzwerk trainiert. Diese Methode ist jedoch oft teuer, unflexibel und erfordert Zugriff auf die Gradienten aller Experten sowie ähnliche Modellstrukturen.
    • Multi-Agenten-Systeme (MAS): Verschiedene LLMs übernehmen spezifische Rollen, um die besten Fähigkeiten jedes Modells während der Generierung zu nutzen. Diese Systeme arbeiten jedoch typischerweise auf einer groben Antwortebene und erfordern oft mehrere vollständige Sequenzgenerierungen, was ineffizient sein kann.
    • Modell-Merging: Diese Methode kombiniert mehrere spezialisierte Modelle zu einem einzigen Parametersatz. Obwohl trainingsfrei und architektonisch einfach, kann Modell-Merging zu Parameterinterferenzen führen, die die spezialisierten Fähigkeiten der Modelle beeinträchtigen.

    Bestehende Kollaborationsmethoden auf Token-Ebene, die versuchen, die nächste Token-Generierung über mehrere Modelle hinweg zu koordinieren, sind oft instabil. Ihre Effektivität hängt stark von der Qualität der zugrunde liegenden Modelle ab und kann versagen, wenn Experten schlecht performen oder die Auswahlstrategie für bestimmte Aufgaben oder Tokens unzureichend ist. Dies führt zu der zentralen Frage, ob ein robustes, effizientes und automatisches Kollaborationsparadigma auf Token-Ebene entwickelt werden kann, das in allen Szenarien zuverlässig funktioniert.

    FusionRoute: Ein neuartiger Ansatz zur Token-Level-Kollaboration

    FusionRoute adressiert diese Herausforderungen durch ein Framework, das die Auswahl von Experten und die Ergänzung von Wissen innerhalb eines einzigen, leichten Routers vereint. Der zentrale Gedanke hinter FusionRoute ist, dass ein Router nicht nur den am besten geeigneten Experten für jeden Dekodierungsschritt auswählt, sondern auch einen komplementären Logit-Beitrag liefert, der die Next-Token-Verteilung des ausgewählten Experten verfeinert oder korrigiert.

    Architektur und Funktionsweise

    Das FusionRoute-Framework besteht aus einem Router-Modell, das aus einem Basis-LLM post-trainiert wird. Bei einer gegebenen Eingabe und einer partiellen Generierung erzeugt der Router zwei Ausgaben:

    1. Einen Vektor von Routing-Gewichten, der den bevorzugten Experten aus einer Menge spezialisierter LLMs bestimmt.
    2. Einen Satz von Logits, die als komplementäre, korrigierende Komponente dienen.

    Die Routing-Gewichte werden durch eine lineare Projektion des finalen Hidden State des Basis-LLMs generiert. Während der Inferenz wählt FusionRoute den Experten mit dem höchsten Routing-Gewicht aus. Die endgültige Next-Token-Verteilung wird dann durch die Kombination der komplementären Logits des Routers mit denen des ausgewählten Experten mittels Logit-Addition erhalten. Dieses Design ermöglicht es, die domänenspezifischen Stärken des Experten zu nutzen, während der Router bei Bedarf das Verhalten des Experten verfeinern, korrigieren oder sogar übersteuern kann.

    Zweistufiger Trainingsprozess

    Das Training von FusionRoute ist ein nicht-trivialer Prozess, da der Router zwei gekoppelte Ziele gleichzeitig erfüllen muss: die zuverlässige Auswahl des am besten geeigneten Experten und die Bereitstellung eines komplementären Logit-Beitrags zur Korrektur von Expertfehlern. Um Instabilitäten zu vermeiden, setzt FusionRoute eine gestufte und entkoppelte Trainingsstrategie ein:

    1. Supervised Fine-Tuning (SFT): In dieser Phase werden die Next-Token-Vorhersagefähigkeit und die Token-Level-Expertenauswahl des Routers etabliert. Die Optimierung erfolgt durch eine Kombination aus einem Standard-Sprachmodellierungs-Loss und einem Routing-Loss. Der Routing-Loss konzentriert sich auf "informative Tokens", bei denen sich die Experten uneinig sind, um eine sinnvolle Spezialisierung des Routers zu fördern.
    2. Complemented Direct Preference Optimization (CDPO): Nach dem SFT-Phase wird eine zusätzliche Präferenzoptimierungsphase angewendet. CDPO nutzt menschlich annotierte Präferenzpaare, um den Router dazu zu bringen, aktiv komplementäre Logit-Beiträge zu lernen, während die Expertenausgaben als fest betrachtet werden. Dies stellt sicher, dass der Router die Expertenausgaben dann verfeinert, wenn der ausgewählte Experte suboptimal oder unsicher ist.

    Durch einen gemischten Trainingsansatz, der SFT-Daten und DPO-Daten kombiniert, wird die Fähigkeit zur Expertenauswahl beibehalten, während der Router einen effektiven komplementären Logit-Beitrag erlernt.

    Theoretische Fundierung und empirische Validierung

    Die Forschungsarbeit liefert eine theoretische Analyse, die die Grenzen rein expertenbasierter Token-Level-Kollaboration aufzeigt. Es wird argumentiert, dass solche Ansätze, sofern keine starken globalen Abdeckungsannahmen vorliegen, nicht in der Lage sind, die optimale Dekodierungsstrategie zu realisieren. Dies liegt an einem "Identifizierungsversagen", bei dem die Beobachtung optimaler Werte entlang von Trajektorien nicht ausrereicht, um die optimalen Expertenaktionen in allen Kontexten zu bestimmen. FusionRoute überwindet diese Einschränkung durch die Ergänzung der Expertenauswahl mit einem trainierbaren komplementären Generator, der die effektive Policy-Klasse erweitert und die Wiederherstellung optimaler Wertfunktionen unter milden Bedingungen ermöglicht.

    Empirische Experimente wurden mit den Modellfamilien Llama-3 und Gemma-2 sowie auf verschiedenen Benchmarks durchgeführt, darunter mathematisches Denken (GSM8K, MATH500), Code-Generierung (MBPP, HumanEval) und Anweisungsbefolgung (IfEval). Die Ergebnisse zeigen, dass FusionRoute sowohl die sequentielle als auch die Token-Level-Kollaboration, Modell-Merging und direktes Fine-Tuning übertrifft. Dabei bleibt es auf den jeweiligen Aufgaben mit Domänenexperten wettbewerbsfähig.

    Wichtige Ergebnisse der Experimente:

    • Überlegene General-Purpose-Performance: FusionRoute erreicht die höchste durchschnittliche Leistung über alle fünf Domänen hinweg und übertrifft konsistent alle Vergleichsbaselines.
    • Keine Einbußen bei der Spezialisierung: Auf Aufgaben, bei denen ein spezifischer Experte die beste Leistung erbringt, ist FusionRoute wettbewerbsfähig und erreicht oft die Leistung des entsprechenden Experten oder übertrifft diese sogar.
    • Skalierbarkeitseffekte: Der Leistungsvorteil von FusionRoute gegenüber anderen Baselines ist bei größeren Modellen (z.B. Llama-3 8B) ausgeprägter, was darauf hindeutet, dass der komplementäre Routing-Mechanismus bei steigender Modellkapazität an Bedeutung gewinnt.

    Ablationsstudien und deren Implikationen

    Ablationsstudien bestätigen die Bedeutung des komplementären Logit-Beitrags und der CDPO-Trainingsphase:

    • Bedeutung komplementärer Logits: Die Entfernung des komplementären Logit-Beitrags führte zu einer konsistenten Leistungsverschlechterung, insbesondere bei Coding- und Anweisungsbefolgungsaufgaben. Dies unterstreicht die Notwendigkeit, dass der Router nicht nur auswählt, sondern auch korrigierende Signale liefert.
    • Effektivität von CDPO: Die CDPO-Trainingsphase führte zu einer erheblichen Verbesserung der Win-Rate auf allgemeinen Datensätzen, was auf eine verbesserte Gesamtqualität der Antworten hinweist. Dies zeigt, dass die Präferenzoptimierung entscheidend für die Lernfähigkeit des Routers ist, Expertenfehler zu korrigieren.

    Fazit und Ausblick

    FusionRoute stellt einen signifikanten Fortschritt in der Kollaboration von Large Language Models dar. Durch die Kombination von intelligenter Expertenauswahl auf Token-Ebene und der Bereitstellung komplementärer Logits gelingt es, die Stärken spezialisierter Modelle flexibel zu nutzen und gleichzeitig eine robuste Generalisierungsfähigkeit zu gewährleisten. Die theoretische Untermauerung der Grenzen rein expertenbasierter Ansätze und die empirische Überlegenheit von FusionRoute auf vielfältigen Benchmarks unterstreichen das Potenzial dieses Frameworks. Für B2B-Anwender bedeutet dies die Möglichkeit, effizientere und leistungsfähigere KI-Systeme zu entwickeln, die die Vorteile spezialisierter Modelle ohne die Nachteile der mangelnden Generalisierbarkeit oder der hohen Kosten großer Allzweckmodelle vereinen. Diese Entwicklung ebnet den Weg für modularere und anpassungsfähigere KI-Lösungen in der Praxis.

    Bibliography

    - Austin et al. (2021) Jacob Austin, Augustus Odena, Maxwell Nye, Maarten Bosma, Henryk Michalewski, David Dohan, Ellen Jiang, Carrie Cai, Michael Terry, Quoc Le, et al. Program synthesis with large language models. arXiv preprint arXiv:2108.07732, 2021. - Chakraborty et al. (2025) Souradip Chakraborty, Sujay Bhatt, Udari Madhushani Sehwag, Soumya Suvra Ghosal, Jiahao Qiu, Mengdi Wang, Dinesh Manocha, Furong Huang, Alec Koppel, and Sumitra Ganesh. Collab: Controlled decoding using mixture of agents for llm alignment. arXiv preprint arXiv:2503.21720, 2025. - Chen et al. (2021) Mark Chen, Jerry Tworek, Heewoo Jun, Qiming Yuan, Henrique Ponde de Oliveira Pinto, Jared Kaplan, Harri Edwards, Yuri Burda, Nicholas Joseph, Greg Brockman, Alex Ray, Raul Puri, Gretchen Krueger, Michael Petrov, Heidy Khlaaf, Girish Sastry, Pamela Mishkin, Brooke Chan, Scott Gray, Nick Ryder, Mikhail Pavlov, Alethea Power, Lukasz Kaiser, Mohammad Bavarian, Clemens Winter, Philippe Tillet, Felipe Petroski Such, Dave Cummings, Matthias Plappert, Fotios Chantzis, Elizabeth Barnes, Ariel Herbert-Voss, William Hebgen Guss, Alex Nichol, Alex Paino, Nikolas Tezak, Jie Tang, Igor Babuschkin, Suchir Balaji, Shantanu Jain, William Saunders, Christopher Hesse, Andrew N. Carr, Jan Leike, Josh Achiam, Vedant Misra, Evan Morikawa, Alec Radford, Matthew Knight, Miles Brundage, Mira Murati, Katie Mayer, Peter Welinder, Bob McGrew, Dario Amodei, Sam McCandlish, Ilya Sutskever, and Wojciech Zaremba. Evaluating large language models trained on code. 2021. - Cobbe et al. (2021) Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Mark Chen, Heewoo Jun, Lukasz Kaiser, Matthias Plappert, Jerry Tworek, Jacob Hilton, Reiichiro Nakano, et al. Training verifiers to solve math word problems. arXiv preprint arXiv:2110.14168, 2021. - Dubey et al. (2024) Abhimanyu Dubey, Abhinav Jauhri, Abhinav Pandey, Abhishek Kadian, Ahmad Al-Dahle, Aiesha Letman, Akhil Mathur, Alan Schelten, Amy Yang, Angela Fan, et al. The llama 3 herd of models. arXiv e-prints, pages arXiv–2407, 2024. - He et al. (2025) Yifei He, Siqi Zeng, Yuzheng Hu, Rui Yang, Tong Zhang, and Han Zhao. Mergebench: A benchmark for merging domain-specialized llms. arXiv preprint arXiv:2505.10833, 2025. - Ilharco et al. (2022) Gabriel Ilharco, Marco Tulio Ribeiro, Mitchell Wortsman, Suchin Gururangan, Ludwig Schmidt, Hannaneh Hajishirzi, and Ali Farhadi. Editing models with task arithmetic. arXiv preprint arXiv:2212.04089, 2022. - Kakade and Langford (2002) Sham Kakade and John Langford. Approximately optimal approximate reinforcement learning. In Proceedings of the nineteenth international conference on machine learning, pages 267–274, 2002. - Lightman et al. (2023) Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman, Ilya Sutskever, and Karl Cobbe. Let’s verify step by step. arXiv preprint arXiv:2305.20050, 2023. - Rafailov et al. (2023) Rafael Rafailov, Archit Sharma, Eric Mitchell, Christopher D Manning, Stefano Ermon, and Chelsea Finn. Direct preference optimization: Your language model is secretly a reward model. Advances in neural information processing systems, 36:53728–53741, 2023. - Team et al. (2024) Gemma Team, Morgane Riviere, Shreya Pathak, Pier Giuseppe Sessa, Cassidy Hardin, Surya Bhupatiraju, Léonard Hussenot, Thomas Mesnard, Bobak Shahriari, Alexandre Ramé, et al. Gemma 2: Improving open language models at a practical size. arXiv preprint arXiv:2408.00118, 2024. - Teknium (2023) Teknium. Openhermes 2.5: An open dataset of synthetic data for generalist llm assistants, 2023. https://huggingface.co/datasets/teknium/OpenHermes-2.5. - Xu et al. (2024) Tengyu Xu, Eryk Helenowski, Karthik Abinav Sankararaman, Di Jin, Kaiyan Peng, Eric Han, Shaoliang Nie, Chen Zhu, Hejia Zhang, Wenxuan Zhou, et al. The perfect blend: Redefining rlhf with mixture of judges. arXiv preprint arXiv:2409.20370, 2024. - Zhou et al. (2023) Jeffrey Zhou, Tianjian Lu, Swaroop Mishra, Siddhartha Brahma, Sujoy Basu, Yi Luan, Denny Zhou, and Le Hou. Instruction-following evaluation for large language models. arXiv preprint arXiv:2311.07911, 2023.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen