Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Implementierung von Künstlicher Intelligenz (KI) in Unternehmen steht vor einer grundlegenden Herausforderung: Organisationen benötigen anspruchsvolle Sprachmodelle, scheuen aber die hohen Infrastrukturkosten und den Energieverbrauch von Spitzensystemen. In Japan zeichnet sich eine Lösung in Form von leichten Large Language Models (LLMs) ab, die speziell für die einzigartigen Anforderungen des Marktes entwickelt wurden.
Die jüngste Einführung von NTTs tsuzumi 2, einem leichten Large Language Model, das auf einer einzigen GPU läuft, zeigt, wie Unternehmen diese Beschränkungen überwinden können. Erste Implementierungen belegen, dass tsuzumi 2 mit der Leistung größerer Modelle mithalten kann, dabei aber nur einen Bruchteil der Betriebskosten verursacht. Dies ist ein entscheidender Faktor für Unternehmen, insbesondere in Regionen mit begrenzter Energieinfrastruktur oder knappen Budgets.
Der Business Case ist klar: Traditionelle LLMs erfordern Dutzende oder Hunderte von GPUs, was zu erheblichen Stromkosten und betrieblichen Barrieren führt. tsuzumi 2 hingegen bietet eine praktikable Alternative. Die Tokyo Online University beispielsweise setzt tsuzumi 2 auf einer On-Premise-Plattform ein, um sensible Studenten- und Mitarbeiterdaten innerhalb des Campusnetzwerks zu halten. Dies erfüllt wichtige Anforderungen an die Datensouveränität, die in Bildungseinrichtungen und regulierten Branchen von großer Bedeutung sind.
NTT betont, dass tsuzumi 2 "weltweit führende Ergebnisse unter Modellen vergleichbarer Größe" in der japanischen Sprachverarbeitung liefert. Dies gilt insbesondere für Geschäftsbereiche, in denen Wissen, Analyse, Befolgung von Anweisungen und Sicherheit Priorität haben. Für Unternehmen, die hauptsächlich auf japanischen Märkten tätig sind, reduziert diese Sprachoptimierung die Notwendigkeit, größere, mehrsprachige Modelle mit deutlich mehr Rechenressourcen einzusetzen.
Das Modell verfügt über fundiertes Wissen in den Bereichen Finanzen, Medizin und öffentlicher Sektor, das auf Kundenanforderungen basiert. Dies ermöglicht domänenspezifische Implementierungen ohne umfangreiches Fine-Tuning. Die RAG- (Retrieval-Augmented Generation) und Fine-Tuning-Fähigkeiten von tsuzumi 2 ermöglichen die effiziente Entwicklung spezialisierter Anwendungen für Unternehmen mit proprietären Wissensdatenbanken oder branchenspezifischer Terminologie, bei denen generische Modelle oft unzureichend sind.
Neben Kostenerwägungen ist die Datensouveränität ein entscheidender Faktor für die Einführung leichter LLMs in regulierten Branchen. Organisationen, die vertrauliche Informationen verarbeiten, sind Risiken ausgesetzt, wenn Daten über externe KI-Dienste verarbeitet werden, die ausländischen Gerichtsbarkeiten unterliegen.
NTT positioniert tsuzumi 2 als ein "rein inländisches Modell", das von Grund auf in Japan entwickelt wurde und On-Premise oder in privaten Clouds betrieben werden kann. Dies adressiert Bedenken, die in den asiatisch-pazifischen Märkten hinsichtlich Datenresidenz, regulatorischer Compliance und Informationssicherheit weit verbreitet sind.
Die Partnerschaft von FUJIFILM Business Innovation mit NTT DOCOMO BUSINESS illustriert, wie Unternehmen leichte Modelle mit bestehender Dateninfrastruktur kombinieren. Die REiLI-Technologie von FUJIFILM wandelt unstrukturierte Unternehmensdaten – wie Verträge, Vorschläge, gemischte Texte und Bilder – in strukturierte Informationen um. Die Integration der generativen Fähigkeiten von tsuzumi 2 ermöglicht eine fortschrittliche Dokumentenanalyse, ohne sensible Unternehmensinformationen an externe KI-Anbieter zu übermitteln. Dieser architektonische Ansatz, der leichte Modelle mit On-Premise-Datenverarbeitung kombiniert, stellt eine praktische Unternehmens-KI-Strategie dar, die Fähigkeitenanforderungen mit Sicherheits-, Compliance- und Kostenbeschränkungen in Einklang bringt.
tsuzumi 2 bietet integrierte multimodale Unterstützung, die Text, Bilder und Sprache in Unternehmensanwendungen verarbeitet. Dies ist relevant für Geschäftsworkflows, die eine KI erfordern, die mehrere Datentypen verarbeiten kann, ohne separate spezialisierte Modelle einsetzen zu müssen.
Workflows in der Fertigungsqualitätskontrolle, im Kundenservice und in der Dokumentenverarbeitung umfassen typischerweise Text-, Bild- und manchmal auch Spracheingaben. Einzelne Modelle, die alle drei verarbeiten können, reduzieren die Integrationskomplexität im Vergleich zur Verwaltung mehrerer spezialisierter Systeme mit unterschiedlichen betrieblichen Anforderungen.
NTTs leichter Ansatz steht im Gegensatz zu den Strategien von Hyperscalern, die massive Modelle mit breiten Fähigkeiten betonen. Für Unternehmen mit erheblichen KI-Budgets und fortgeschrittenen technischen Teams bieten Frontier-Modelle von OpenAI, Anthropic und Google Spitzenleistungen.
Dieser Ansatz schließt jedoch Organisationen aus, denen diese Ressourcen fehlen – ein erheblicher Teil des Unternehmensmarktes, insbesondere in den asiatisch-pazifischen Regionen mit unterschiedlicher Infrastrukturqualität. Regionale Besonderheiten sind hier von Bedeutung.
Die Zuverlässigkeit der Stromversorgung, die Internetkonnektivität, die Verfügbarkeit von Rechenzentren und die regulatorischen Rahmenbedingungen variieren in den Märkten erheblich. Leichte Modelle, die eine On-Premise-Bereitstellung ermöglichen, berücksichtigen diese Variationen besser als Ansätze, die einen konsistenten Zugriff auf Cloud-Infrastruktur erfordern.
Organisationen, die die Bereitstellung leichter LLMs evaluieren, sollten mehrere Faktoren berücksichtigen:
Die Implementierung von NTTs tsuzumi 2 zeigt, dass eine anspruchsvolle KI-Implementierung keine Hyperscale-Infrastruktur erfordert – zumindest für Organisationen, deren Anforderungen mit den Fähigkeiten leichter Modelle übereinstimmen. Frühe Unternehmensadoptionen zeigen einen praktischen Geschäftswert: reduzierte Betriebskosten, verbesserte Datensouveränität und produktionsreife Leistung für spezifische Domänen.
Während Unternehmen die KI-Einführung vorantreiben, treibt die Spannung zwischen Fähigkeitsanforderungen und operativen Beschränkungen zunehmend die Nachfrage nach effizienten, spezialisierten Lösungen an, anstatt nach Allzwecksystemen, die eine umfangreiche Infrastruktur erfordern.
Für Organisationen, die KI-Bereitstellungsstrategien evaluieren, geht es nicht darum, ob leichte Modelle "besser" sind als Frontier-Systeme – es geht darum, ob sie für spezifische Geschäftsanforderungen ausreichen und gleichzeitig Kosten-, Sicherheits- und Betriebsengpässe adressieren, die alternative Ansätze unpraktisch machen.
Die Antwort, wie die Implementierungen der Tokyo Online University und von FUJIFILM Business Innovation zeigen, ist zunehmend "Ja". Auch andere Akteure wie alt Inc. mit ihrer LHTM-OPT-Serie und NEC mit einem 13-Milliarden-Parameter-LLM tragen zu diesem Trend bei, indem sie leichte Modelle mit hoher japanischer Sprachkompetenz entwickeln.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen