Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die rapide Entwicklung von Large Language Models (LLMs) hat zu beeindruckenden Fortschritten in diversen Anwendungsbereichen geführt, von mathematischem Denken über Code-Generierung bis hin zur Befolgung komplexer Anweisungen. Dennoch stehen Unternehmen und Entwickler vor einem grundlegenden Dilemma: Während einzelne, sehr große LLMs eine breite Leistungsfähigkeit über verschiedene Domänen hinweg bieten, sind deren Trainings- und Bereitstellungskosten oft prohibitiv hoch. Kleinere, domänenspezialisierte Modelle sind zwar effizienter, stoßen jedoch an ihre Grenzen, sobald Aufgaben außerhalb ihrer spezifischen Trainingsdaten liegen. Eine neue Forschungsarbeit mit dem Titel "Token-Level LLM Collaboration via FusionRoute" stellt einen innovativen Ansatz vor, der dieses Dilemma durch eine neuartige Kollaborationsmethode auf Token-Ebene überwinden soll.
Die Entwicklung von LLMs zielt darauf ab, Modelle zu schaffen, die sowohl in spezialisierten Aufgaben exzellieren als auch eine breite Generalisierungsfähigkeit besitzen. Aktuelle Ansätze zur Nutzung multipler LLMs umfassen:
Bestehende Kollaborationsmethoden auf Token-Ebene, die versuchen, die nächste Token-Generierung über mehrere Modelle hinweg zu koordinieren, sind oft instabil. Ihre Effektivität hängt stark von der Qualität der zugrunde liegenden Modelle ab und kann versagen, wenn Experten schlecht performen oder die Auswahlstrategie für bestimmte Aufgaben oder Tokens unzureichend ist. Dies führt zu der zentralen Frage, ob ein robustes, effizientes und automatisches Kollaborationsparadigma auf Token-Ebene entwickelt werden kann, das in allen Szenarien zuverlässig funktioniert.
FusionRoute adressiert diese Herausforderungen durch ein Framework, das die Auswahl von Experten und die Ergänzung von Wissen innerhalb eines einzigen, leichten Routers vereint. Der zentrale Gedanke hinter FusionRoute ist, dass ein Router nicht nur den am besten geeigneten Experten für jeden Dekodierungsschritt auswählt, sondern auch einen komplementären Logit-Beitrag liefert, der die Next-Token-Verteilung des ausgewählten Experten verfeinert oder korrigiert.
Das FusionRoute-Framework besteht aus einem Router-Modell, das aus einem Basis-LLM post-trainiert wird. Bei einer gegebenen Eingabe und einer partiellen Generierung erzeugt der Router zwei Ausgaben:
Die Routing-Gewichte werden durch eine lineare Projektion des finalen Hidden State des Basis-LLMs generiert. Während der Inferenz wählt FusionRoute den Experten mit dem höchsten Routing-Gewicht aus. Die endgültige Next-Token-Verteilung wird dann durch die Kombination der komplementären Logits des Routers mit denen des ausgewählten Experten mittels Logit-Addition erhalten. Dieses Design ermöglicht es, die domänenspezifischen Stärken des Experten zu nutzen, während der Router bei Bedarf das Verhalten des Experten verfeinern, korrigieren oder sogar übersteuern kann.
Das Training von FusionRoute ist ein nicht-trivialer Prozess, da der Router zwei gekoppelte Ziele gleichzeitig erfüllen muss: die zuverlässige Auswahl des am besten geeigneten Experten und die Bereitstellung eines komplementären Logit-Beitrags zur Korrektur von Expertfehlern. Um Instabilitäten zu vermeiden, setzt FusionRoute eine gestufte und entkoppelte Trainingsstrategie ein:
Durch einen gemischten Trainingsansatz, der SFT-Daten und DPO-Daten kombiniert, wird die Fähigkeit zur Expertenauswahl beibehalten, während der Router einen effektiven komplementären Logit-Beitrag erlernt.
Die Forschungsarbeit liefert eine theoretische Analyse, die die Grenzen rein expertenbasierter Token-Level-Kollaboration aufzeigt. Es wird argumentiert, dass solche Ansätze, sofern keine starken globalen Abdeckungsannahmen vorliegen, nicht in der Lage sind, die optimale Dekodierungsstrategie zu realisieren. Dies liegt an einem "Identifizierungsversagen", bei dem die Beobachtung optimaler Werte entlang von Trajektorien nicht ausrereicht, um die optimalen Expertenaktionen in allen Kontexten zu bestimmen. FusionRoute überwindet diese Einschränkung durch die Ergänzung der Expertenauswahl mit einem trainierbaren komplementären Generator, der die effektive Policy-Klasse erweitert und die Wiederherstellung optimaler Wertfunktionen unter milden Bedingungen ermöglicht.
Empirische Experimente wurden mit den Modellfamilien Llama-3 und Gemma-2 sowie auf verschiedenen Benchmarks durchgeführt, darunter mathematisches Denken (GSM8K, MATH500), Code-Generierung (MBPP, HumanEval) und Anweisungsbefolgung (IfEval). Die Ergebnisse zeigen, dass FusionRoute sowohl die sequentielle als auch die Token-Level-Kollaboration, Modell-Merging und direktes Fine-Tuning übertrifft. Dabei bleibt es auf den jeweiligen Aufgaben mit Domänenexperten wettbewerbsfähig.
Ablationsstudien bestätigen die Bedeutung des komplementären Logit-Beitrags und der CDPO-Trainingsphase:
FusionRoute stellt einen signifikanten Fortschritt in der Kollaboration von Large Language Models dar. Durch die Kombination von intelligenter Expertenauswahl auf Token-Ebene und der Bereitstellung komplementärer Logits gelingt es, die Stärken spezialisierter Modelle flexibel zu nutzen und gleichzeitig eine robuste Generalisierungsfähigkeit zu gewährleisten. Die theoretische Untermauerung der Grenzen rein expertenbasierter Ansätze und die empirische Überlegenheit von FusionRoute auf vielfältigen Benchmarks unterstreichen das Potenzial dieses Frameworks. Für B2B-Anwender bedeutet dies die Möglichkeit, effizientere und leistungsfähigere KI-Systeme zu entwickeln, die die Vorteile spezialisierter Modelle ohne die Nachteile der mangelnden Generalisierbarkeit oder der hohen Kosten großer Allzweckmodelle vereinen. Diese Entwicklung ebnet den Weg für modularere und anpassungsfähigere KI-Lösungen in der Praxis.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen