Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der Künstlichen Intelligenz wird kontinuierlich durch innovative Entwicklungen geprägt. Eine dieser Entwicklungen, die jüngst Aufmerksamkeit erregte, ist die Vorstellung des Modells Nemotron-Cascade-2-30B-A3B durch NVIDIA. Dieses Modell, das sich durch eine bemerkenswerte Effizienz und Leistungsfähigkeit auszeichnet, positioniert sich als ein wichtiger Akteur im Bereich der großen Sprachmodelle (LLMs), insbesondere für anspruchsvolle Denk- und Agentenaufgaben.
Das Nemotron-Cascade-2-30B-A3B-Modell, das am 19. März 2026 veröffentlicht wurde, ist ein Open-Source-Modell mit insgesamt 30 Milliarden Parametern, von denen jedoch nur 3 Milliarden pro Token aktiv sind. Diese Architektur, bekannt als Mixture-of-Experts (MoE), ermöglicht es dem Modell, für jede Inferenz nur einen kleinen Teil seiner Kapazität zu nutzen, was es im Vergleich zu dichten Modellen derselben Gesamtgröße erheblich effizienter macht. Es ist ein Post-Training-Produkt des Nemotron-3-Nano-30B-A3B-Base-Modells.
Die Leistungsfähigkeit des Nemotron-Cascade-2-30B-A3B wurde durch seine Ergebnisse in renommierten Wettbewerben unterstrichen. Es erreichte Goldmedaillen-Niveau bei der Internationalen Mathematik-Olympiade (IMO 2025), der Internationalen Informatik-Olympiade (IOI 2025) und den ICPC World Finals 2025. Dies ist besonders bemerkenswert, da es das zweite Open-Source-LLM ist, das dieses Leistungsniveau erreicht, und dies mit einem 20-fach geringeren Parameteraufwand im Vergleich zu früheren Modellen wie DeepSeek-V3.2-Speciale-671B-A37B.
Konkrete Ergebnisse umfassen:
Der Erfolg des Nemotron-Cascade-2-30B-A3B basiert auf zwei Schlüsseltechniken im Post-Training-Prozess:
Dieses Verfahren trainiert das Modell sequenziell in verschiedenen Domänen, anstatt alle Domänen gleichzeitig zu bearbeiten. Dies hilft, das sogenannte "katastrophale Vergessen" zu vermeiden, bei dem die Verbesserung in einer Domäne zu einer Verschlechterung in einer anderen führen kann. Die Trainingsstufen sind spezifisch angeordnet, beginnend mit der Befolgung von Anweisungen, gefolgt von Multi-Domain-RL (Mathematik, Code, Wissenschaft, Werkzeugaufrufe) und weiteren spezialisierten RL-Stufen.
MOPD ist eine Technik, die während des Cascade RL-Prozesses eingesetzt wird, um die Fähigkeiten des Modells wieder ins Gleichgewicht zu bringen. Es wählt die leistungsstärksten Zwischen-Checkpoints des Modells für jede spezifische Domäne aus und nutzt diese als "Lehrer", um Wissen in das "Schülermodell" zu destillieren. Dies ermöglicht eine schnelle Wiederherstellung der Leistung bei Rückschritten und eine nachhaltige Verbesserung der Fähigkeiten.
Das Modell integriert eine hybride Mamba-Transformer-MoE-Architektur. Mamba-Schichten tragen dazu bei, die Verarbeitung von Token in langen Kontexten effizienter zu gestalten als herkömmliche Transformer-Aufmerksamkeitsschichten, was eine Kontextfenstergröße von bis zu 1 Million Token ermöglicht.
Nemotron-Cascade-2-30B-A3B unterstützt zwei Hauptbetriebsmodi:
Die Umschaltung zwischen diesen Modi erfolgt über das Chat-Template, nicht über separate Modellgewichte. Der Denkmodus wird durch ` ` und ` ` Tags im Output gekennzeichnet.
Für B2B-Anwendungen bieten die Innovationen des Nemotron-Cascade-2-30B-A3B mehrere wichtige Vorteile:
Obwohl Nemotron-Cascade-2-30B-A3B beeindruckende Leistungen in bestimmten Domänen zeigt, gibt es auch Bereiche mit Potenzial für Verbesserungen. Das Modell zeigt beispielsweise eine geringere Leistung bei wissensintensiven Aufgaben im Vergleich zu einigen Konkurrenzmodellen wie Qwen3.5-35B-A3B. Dies deutet auf die Notwendigkeit einer stärkeren wissensintensiven Vor- und Nachschulung in zukünftigen Arbeiten hin.
Die Offenlegung der Modellgewichte, der SFT- und RL-Datensätze sowie der Trainingsskripte ermöglicht es der Forschungsgemeinschaft, diese Ansätze zu reproduzieren, zu erweitern und weiter zu optimieren. Dies fördert die Entwicklung von LLMs, die nicht nur leistungsfähig, sondern auch effizient und zugänglich sind.
Die Einführung des Nemotron-Cascade-2-30B-A3B-Modells markiert einen wichtigen Schritt in der Entwicklung von KI, indem es die Bedeutung der "Intelligenzdichte" hervorhebt und demonstriert, dass fortschrittliche Denkfähigkeiten nicht ausschließlich an die schiere Größe eines Modells gebunden sind. Stattdessen spielen innovative Post-Training-Methoden und eine effiziente Architektur eine entscheidende Rolle für die Erzielung von Spitzenleistungen.
Bibliographie
- airesearchnews. (2026, March 20). Nemotron-Cascade 2 achieves Gold Medal performance in three major programming competitions (IMO, IOI, ICPC) with just 30B parameters and 3B active per token. Instagram. - Labonne, M. (2026, March 23). Nemotron Cascade 2: On-policy distillation is back! Maxime Labonne. - nvidia. (2026, March 20). nvidia/Nemotron-Cascade-2-30B-A3B. Hugging Face. - Reeboot - Solutions logicielles sur mesure. (2026, March 24). Nemotron Cascade 2 30B-A3B: Gold medals at IMO and IOI 2025. Reeboot.fr. - VentureBeat. (2026, March 23). Nvidia's Nemotron-Cascade 2 wins math and coding gold medals with 3B active parameters — and its post-training recipe is now open-source. VentureBeat. - Yang, Z., Liu, Z., Chen, Y., Dai, W., Wang, B., Lin, S.-C., Lee, C., Chen, Y., Jiang, D., He, J., Pi, R., Lam, G., Lee, N., Bukharin, A., Shoeybi, M., Catanzaro, B., & Ping, W. (2026). Nemotron-Cascade 2: Post-Training LLMs with Cascade RL and Multi-Domain On-Policy Distillation. Emergentmind.com. - Zhang, S. (2026, March 22). Nemotron-Cascade 2: 30B Open MoE, One GPU, Beats 120B. Awesome Agents.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen