Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Forschung an der Schnittstelle von Künstlicher Intelligenz (KI) und Neurowissenschaften schreitet kontinuierlich voran. Eine aktuelle Entwicklung, die in Fachkreisen auf großes Interesse stößt, ist die Vorstellung des KI-Modells TRIBE v2 durch Meta. Dieses Modell ist in der Lage, die Reaktionen des menschlichen Gehirns auf Bilder, Geräusche und Sprache vorherzusagen. Diese Innovation könnte die Neurowissenschaften nachhaltig beeinflussen, indem sie neue Wege für die Forschung und möglicherweise auch für klinische Anwendungen eröffnet.
TRIBE v2, ein Akronym für "TRImodal Brain Encoder", ist ein sogenanntes Fundamentmodell, das darauf ausgelegt ist, die menschliche Gehirnaktivität unter verschiedenen natürlichen und experimentellen Bedingungen zu prognostizieren. Es wurde auf einer umfangreichen Datengrundlage von über 1.000 Stunden funktioneller Magnetresonanztomographie (fMRT)-Daten von 720 Probanden trainiert. fMRT misst indirekt die Gehirnaktivität durch die Erfassung von Veränderungen im Blutfluss und Sauerstoffgehalt.
Das Modell verarbeitet drei Arten von Eingaben: Video, Audio und Text. Jede dieser Modalitäten wird zunächst durch ein vortrainiertes KI-Modell von Meta geleitet:
Diese Modelle wandeln die Rohdaten in sogenannte Embeddings um, die die wesentlichen Informationen der visuellen, auditiven oder sprachlichen Reize erfassen. Ein nachgeschalteter Transformer verarbeitet diese Darstellungen gemeinsam, um Muster über verschiedene Reize, Aufgaben und Personen hinweg zu identifizieren. Eine abschließende personenspezifische Schicht übersetzt die Ausgabe in eine Gehirnkarte mit etwa 70.000 Voxel – den dreidimensionalen Pixeln, aus denen ein fMRT-Scan besteht.
Ein zentraler Vorteil von TRIBE v2 liegt in seiner Fähigkeit, Vorhersagen zu generieren, die weniger Rauschen enthalten als einzelne fMRT-Messungen. Individuelle fMRT-Bilder sind naturgemäß verrauscht, beeinflusst durch Faktoren wie Herzschlag, Kopfbewegungen und Geräteartefakte. Um eine typische Gehirnreaktion auf einen bestimmten Reiz zu ermitteln, müssen Forscher üblicherweise viele Scans mitteln. TRIBE v2 umgeht diesen Schritt, indem es direkt eine angepasste Durchschnittsreaktion vorhersagt. In Tests korrelierte diese Vorhersage stärker mit dem tatsächlichen Gruppendurchschnitt als die Scans der meisten einzelnen Probanden. Dies war besonders ausgeprägt im Human Connectome Project Datensatz, der mit einem 7-Tesla-Scanner erfasst wurde und eine deutlich höhere Signalqualität als die Standard-3-Tesla-Geräte bietet.
Das Modell zeigt zudem eine bemerkenswerte Generalisierungsfähigkeit: Es kann Vorhersagen für neue Probanden treffen, ohne neu trainiert werden zu müssen. Im Vergleich zu optimierten linearen Modellen, die zuvor als Standardmethode galten, liefert TRIBE v2 signifikante Verbesserungen in der Genauigkeit. Die Vorgängerversion, TRIBE v1, die auf deutlich weniger Daten trainiert wurde und eine geringere Auflösung besaß, gewann bereits den Algonauts 2025 Wettbewerb und übertraf dabei 263 andere Teams. Die Vorhersagegenauigkeit von TRIBE v2 skaliert stetig mit der Menge der Trainingsdaten, was auf weitere Verbesserungen bei wachsenden fMRT-Datenbanken hindeutet.
Die Forscher haben TRIBE v2 sowohl mit alltäglichen Reizen wie Filmen und Podcasts, bei denen mehrere sensorische Eingaben gleichzeitig das Gehirn erreichen, als auch mit isolierten Reizen, die typisch für die klassische Neurowissenschaft sind, getestet. In diesen kontrollierten Szenarien konnte das Modell bekannte spezialisierte Gehirnregionen für Gesichter, Orte, Körper und Schriftzeichen korrekt identifizieren. Bei Sprachexperimenten lokalisierte es das Sprachnetzwerk, unterschied zwischen emotionaler und physischer Schmerzverarbeitung und zeigte die erwartete stärkere Aktivierung in der linken Hemisphäre für vollständige Sätze im Vergleich zu Wortlisten.
Diese Ergebnisse stimmen mit Erkenntnissen aus jahrzehntelanger empirischer Forschung an realen Probanden überein. Für die Neurowissenschaften bedeutet dies, dass zukünftige Experimente vor der teuren und zeitaufwändigen Durchführung im Labor auf dem Computer simuliert werden könnten. Dies könnte die Effizienz der Forschung erheblich steigern und den Zugang zu komplexen Experimenten erleichtern.
Durch das selektive Deaktivieren einzelner Eingabekanäle kann TRIBE v2 aufzeigen, wie stark jeder Sinn die Aktivität in spezifischen Gehirnregionen beeinflusst. Die Ergebnisse bestätigen bestehende neurowissenschaftliche Erkenntnisse: Audio sagt die Aktivität nahe des auditorischen Kortex am besten voraus, Video korreliert mit dem visuellen Kortex, und Text aktiviert Sprachbereiche und Teile des Frontallappens. In Regionen, in denen das Gehirn Eingaben aus mehreren Sinnen kombiniert, führt die Nutzung aller drei Kanäle zu den größten Verbesserungen. An der Schnittstelle von Temporal-, Parietal- und Okzipitallappen kann die Vorhersagegenauigkeit im Vergleich zu einem einzelnen Kanal um bis zu 50 Prozent steigen.
Eine statistische Analyse der letzten Schicht des Modells identifizierte zudem fünf Muster, die bekannten funktionellen Gehirnnetzwerken zugeordnet werden können: den primären auditorischen Kortex, das Sprachnetzwerk, die Bewegungserkennung, das Default Mode Network und das visuelle System.
Trotz seiner beeindruckenden Fähigkeiten weist TRIBE v2 auch signifikante Einschränkungen auf. Die fMRT-Technologie misst die Gehirnaktivität nur indirekt über den Blutfluss, was mit einer Verzögerung von mehreren Sekunden verbunden ist. Die schnellen Dynamiken neuronaler Signale im Millisekundenbereich bleiben dabei verborgen. Das Modell deckt zudem nur drei sensorische Kanäle ab – Geruch, Tastsinn und Gleichgewichtssinn sind nicht berücksichtigt.
Grundsätzlich modelliert TRIBE v2 das Gehirn als passiven Empfänger sensorischer Eingaben. Es bildet nicht ab, wie das Gehirn aktiv Entscheidungen trifft oder Handlungen steuert. Auch Entwicklungsveränderungen oder klinische Zustände können derzeit nicht erfasst werden, was laut den Forschern jedoch ein Schwerpunkt für zukünftige Versionen ist.
Meta sieht drei Hauptanwendungsbereiche für das Modell:
Um die Forschung weiter zu beschleunigen, hat Meta den Code, die Modellgewichte und eine interaktive Demo öffentlich zugänglich gemacht. Dies ermöglicht es der globalen Forschungsgemeinschaft, auf dieser Grundlage aufzubauen und die Grenzen des Verständnisses von Gehirn und KI weiter zu verschieben.
Die Entwicklung von TRIBE v2 stellt einen wichtigen Schritt dar, um das menschliche Gehirn und seine komplexen Reaktionen besser zu verstehen. Während die Technologie noch in den Kinderschuhen steckt, bieten die erzielten Fortschritte vielversprechende Perspektiven für die Neurowissenschaften und die Entwicklung intelligenterer KI-Systeme.
Bibliographie:
Meta AI. (2026, 26. März). Introducing TRIBE v2: A Predictive Foundation Model Trained to Understand How the Human Brain Processes Complex Stimuli. Abgerufen am 29. Mai 2024. Meta AI. (2026, 26. März). A foundation model of vision, audition, and language for in-silico neuroscience. Abgerufen am 29. Mai 2024. Kemper, J. (2026, 27. März). Meta's new AI model predicts how your brain reacts to images, sounds, and speech. The Decoder. Abgerufen am 29. Mai 2024. Marchetti, E. (2026, 26. März). Meta TRIBE v2 Predicts Brain Activity From Any Media | Awesome Agents. Awesome Agents. Abgerufen am 29. Mai 2024. Moby. (2026, 27. März). Meta Built A Model That Predicts How Your Brain Reacts…Yay? Yahoo Tech. Abgerufen am 29. Mai 2024. NewsBytes. (2026, 27. März). Meta's TRIBE v2 predicts brain responses to pictures, sounds, text. Abgerufen am 29. Mai 2024. The Rundown AI. (2026, 26. März). Meta just open-sourced a model that predicts how your brain reacts to anything you see, hear, or read. Facebook. Abgerufen am 29. Mai 2024.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen