Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In einer Ära, in der künstliche Intelligenz (KI) zunehmend darauf ausgelegt ist, stets auf dem neuesten Stand zu sein und auf aktuelle Informationen zuzugreifen, wagt ein Forschungsprojekt einen unkonventionellen Schritt zurück in die Vergangenheit: das TimeCapsuleLLM. Dieses speziell entwickelte Sprachmodell operiert ausschliesslich mit Informationen aus der Zeit zwischen 1800 und 1875 und hat keinerlei Kenntnis von modernen Phänomenen wie dem Internet oder Smartphones. Die Entwicklung dieses Modells, initiiert von Hayk Grigorian, einem Informatikstudenten aus Pennsylvania, wirft ein neues Licht auf die Möglichkeiten und Grenzen von KI-Training und die Rekonstruktion historischer Kontexte.
Das Kernprinzip hinter TimeCapsuleLLM ist das sogenannte "Selective Temporal Training". Anstatt ein Sprachmodell mit der Fülle moderner Daten zu füttern, wurde Grigorians KI gezielt mit Texten aus einem eng definierten historischen Zeitraum trainiert. Zu den Trainingsdaten gehören klassische Romane wie Jane Austens "Stolz und Vorurteil" (1813), Charles Dickens' "Oliver Twist" (1836) und Mary Shelleys "Frankenstein" (1826). Ergänzt wurden diese durch Ausgaben renommierter Zeitungen und Magazine der damaligen Zeit, wie der Times London, des Morning Chronicle und des Evening Standard. Auch Gebetsbücher, Kochbücher und politische Abkommen jener Epoche flossen in den Datensatz ein.
Ziel dieser selektiven Datenauswahl war es, ein Sprachmodell zu schaffen, das die Sprache und das Weltbild der viktorianischen Ära authentisch widerspiegelt, ohne durch moderne Konzepte "kontaminiert" zu werden. Das Modell sollte nicht so tun, als sei es alt, sondern es sollte es einfach sein, wie Grigorian selbst formulierte.
Die erste Version des Sprachmodells, mit nur 16 Millionen Parametern, zeigte bereits Ansätze der damaligen Sprachnachahmung, hatte jedoch Schwierigkeiten mit konsistenten Antworten und dem Satzbau. Eine signifikante Verbesserung brachte Version 0.5 mit 123 Millionen Parametern, die eine akkurate Nachbildung des viktorianischen Schreibstils und grammatikalisch korrekte Sätze ermöglichte. Dennoch traten in dieser Phase noch "Halluzinationen" auf, wie zum Beispiel der Hinweis "Digitized by Google" in den Outputs, der auf die Digitalisierung der Trainingsdaten zurückzuführen war.
Mit Version 1.0 und 700 Millionen Parametern erreichte das TimeCapsuleLLM eine neue Stufe der Präzision. Eine bemerkenswerte Beobachtung machte Grigorian, als er dem Modell den einfachen Prompt "Es war das Jahr 1834 unseres Herren" gab. Die KI reagierte darauf, indem sie eigenständig einen Aufstand in London in diesem Jahr beschrieb und sogar den damals relevanten Lord Palmerston erwähnte. Diese Information war nicht explizit im Trainingsdatensatz als Fakt über 1834 hinterlegt, sondern ergab sich aus statistischen Wahrscheinlichkeiten innerhalb des umfassenden Korpus viktorianischer Texte. Dies demonstriert, wie ein ausreichend trainiertes Modell aus der Vernetzung von Informationen überraschend präzise historische Kontexte rekonstruieren kann, selbst wenn diese nicht direkt als "Fakten" eingegeben wurden.
Die finale Version des Modells umfasst 300 Millionen Parameter und soll primär dazu dienen, historische Texte zu kuratieren und für das Training weiterer spezialisierter KI-Modelle aufzubereiten.
Das Experiment mit dem TimeCapsuleLLM hat weitreichende Implikationen. Es zeigt, dass KI-Modelle nicht zwingend auf die neuesten Daten angewiesen sind, um wertvolle Erkenntnisse zu liefern. Vielmehr können sie, wenn sie gezielt mit historischen Quellen trainiert werden, als mächtige Werkzeuge für Historiker und Sprachwissenschaftler dienen. Sie ermöglichen eine detaillierte Rekonstruktion vergangener Sprach- und Denkweisen und können sogar dazu beitragen, unentdeckte Zusammenhänge in historischen Dokumenten aufzudecken.
Die Fähigkeit des Modells, aus einem umfangreichen, aber zeitlich begrenzten Datensatz kohärente und faktisch korrekte Informationen zu generieren, unterstreicht die Bedeutung qualitativ hochwertiger und thematisch fokussierter Trainingsdaten. Es eröffnet Perspektiven für die Schaffung weiterer "historischer LLMs", die spezifische Epochen oder geografische Regionen abbilden könnten, um so ein tieferes Verständnis menschlicher Geschichte und Kultur zu ermöglichen.
Das Projekt von Hayk Grigorian ist ein Beispiel dafür, wie kreative Ansätze im KI-Training unerwartete und faszinierende Ergebnisse liefern können, die über die reine Imitation moderner Kommunikation hinausgehen.
Die Entwicklung von TimeCapsuleLLM verdeutlicht eine zentrale Herausforderung in der KI-Forschung: die Schaffung von Modellen, die nicht nur Daten verarbeiten, sondern auch kontextuelle Authentizität wahren können. Im Gegensatz zu generischen Sprachmodellen, die darauf abzielen, ein breites Spektrum an Wissen zu umfassen und sich ständig an neue Informationen anzupassen, konzentriert sich TimeCapsuleLLM auf die Konservierung einer spezifischen temporalen und kulturellen Identität. Dies erfordert nicht nur eine sorgfältige Auswahl der Trainingsdaten, sondern auch eine präzise Steuerung des Lernprozesses, um moderne Einflüsse auszuschliessen.
Das "Selective Temporal Training" geht über die einfache Filterung von Daten hinaus. Es beinhaltet die Entwicklung eines spezialisierten Tokenizers, der nur Wörter und Phrasen akzeptiert, die im definierten historischen Zeitraum gebräuchlich waren. Dies verhindert, dass das Modell unbeabsichtigt moderne Terminologie oder Konzepte lernt, selbst wenn diese in digitalisierten historischen Texten als Metadaten oder Randbemerkungen auftauchen könnten. Die Iterationen des Modells, von den anfänglichen 16 Millionen Parametern bis zur finalen Version mit 300 Millionen Parametern, zeigen einen schrittweisen Prozess der Verfeinerung, bei dem die Sprachproduktion immer kohärenter und historisch akkurater wurde. Die anfänglichen "Halluzinationen", wie der "Digitized by Google"-Hinweis, waren wertvolle Indikatoren dafür, dass das Modell noch nicht vollständig in seine "Zeitkapsel" eingeschlossen war und weitere Anpassungen im Trainingsdatensatz oder im Filtermechanismus erforderlich waren.
Für Unternehmen im B2B-Sektor, insbesondere im Bereich der Content-Erstellung und -Analyse, bieten solche spezialisierten Sprachmodelle interessante Möglichkeiten. Ein Unternehmen, das historische Dokumente digitalisiert und analysiert, könnte von einem Tool profitieren, das nicht nur Texte transkribiert, sondern auch deren sprachlichen und kulturellen Kontext versteht. Dies könnte genutzt werden für:
Die Fähigkeit, präzise auf historische Anfragen zu reagieren, wie die spontane Erwähnung des Londoner Aufstands von 1834, unterstreicht das Potenzial solcher Modelle, als "Expertensysteme" für spezifische Wissensdomänen zu fungieren. Dies könnte die Effizienz in der historischen Forschung erheblich steigern und neue Wege für die Erschliessung und Interpretation von Kulturgütern eröffnen.
Das TimeCapsuleLLM wirft auch ethische und philosophische Fragen auf. Während moderne KI-Modelle häufig mit Bedenken hinsichtlich "Halluzinationen" konfrontiert sind, die faktisch falsche Informationen generieren, zeigt dieses Modell, dass auch eine "Halluzination" im Sinne einer scheinbar unabhängigen Faktenrekonstruktion aus dem Kontext der Trainingsdaten entstehen kann. Die "Erinnerung" an den Aufstand von 1834 war keine explizit programmierte Information, sondern ein Ergebnis der statistischen Mustererkennung. Dies lässt die Komplexität des Lernens in KI-Systemen erkennen, die über die reine Wiedergabe von Fakten hinausgeht.
Die Diskussion um den "Eliza-Effekt", benannt nach dem Chatbot ELIZA aus den 1960er Jahren, der menschliche Empathie simulierte und bei Nutzern den Eindruck erweckte, mit einem menschlichen Gegenüber zu kommunizieren, ist in diesem Kontext relevant. Auch wenn TimeCapsuleLLM nicht primär auf Empathie ausgelegt ist, so zeigt es doch, wie überzeugend ein KI-System einen spezifischen menschlichen (oder historischen) Kommunikationsstil annehmen kann. Dies erfordert eine bewusste Reflexion über die Grenzen der Simulation und die Notwendigkeit, Transparenz über die Funktionsweise solcher Modelle zu wahren.
Insgesamt stellt das TimeCapsuleLLM ein faszinierendes Experiment dar, das die Vielseitigkeit von KI-Technologien jenseits des Mainstreams aufzeigt. Es demonstriert, dass KI nicht nur die Zukunft gestalten, sondern auch die Vergangenheit auf neue und tiefgreifende Weise zugänglich machen kann.
Die Entwicklung des TimeCapsuleLLM durch Hayk Grigorian ist mehr als nur ein akademisches Experiment; sie liefert wertvolle Erkenntnisse für die zukünftige Ausrichtung der KI-Forschung und -Anwendung, insbesondere im Hinblick auf spezialisierte Modelle. Die bewusste Entscheidung, ein Sprachmodell in einer spezifischen historischen Epoche zu "verankern", steht im Kontrast zum generellen Trend, KI-Systeme so breit und aktuell wie möglich zu trainieren.
Der Erfolg des TimeCapsuleLLM in seiner Fähigkeit, die Sprache und das Wissen des 19. Jahrhunderts authentisch zu reproduzieren, unterstreicht den Wert der Spezialisierung. Während grosse, allgemeine Sprachmodelle (LLMs) wie ChatGPT eine beeindruckende Bandbreite an Themen abdecken, zeigen Modelle wie das TimeCapsuleLLM, dass eine tiefgehende Expertise in einem engen Bereich zu einer unvergleichlichen Qualität und Präzision führen kann. Für Unternehmen bedeutet dies, dass bei der Implementierung von KI-Lösungen die Wahl zwischen einem generischen Allzweckmodell und einem hochspezialisierten System sorgfältig abgewogen werden muss. Liegt der Fokus auf umfassender, aber potenziell oberflächlicher Information, oder auf tiefgreifendem, kontextspezifischem Wissen?
Die Diskussion um die Trainingsdaten ist hierbei zentral. Das TimeCapsuleLLM wurde mit einer vergleichsweise kleinen Menge (6,25 GB) an hochspezifischen und kuratierten Texten trainiert. Dies steht im Gegensatz zu den Terabytes an Daten, die für die grössten LLMs verwendet werden. Der Erfolg des TimeCapsuleLLM legt nahe, dass die Qualität und Relevanz der Daten für ein spezifisches Ziel oft wichtiger sind als die reine Quantität. In einem breiteren Kontext des "Daten-Leidens", wie es von Christian Montag in Bezug auf die fehlende emotionale Tiefe von KI-Systemen beschrieben wird, zeigt das TimeCapsuleLLM, dass die Kontextualisierung von Daten eine Form von "Tiefe" erzeugen kann, die über die blosse Informationsverarbeitung hinausgeht. Die KI "leidet" zwar nicht im menschlichen Sinne, aber sie "versteht" ihren historischen Kontext in einer Weise, die es ihr ermöglicht, kohärente und plausible narrative Strukturen zu generieren.
Das Projekt von Grigorian verdeutlicht auch die unverzichtbare Rolle des Menschen bei der Gestaltung und Kuration von KI-Systemen. Die Entscheidung für "Selective Temporal Training", die Auswahl der historischen Texte und die iterative Verfeinerung des Modells sind allesamt menschliche Eingriffe, die den Charakter und die Leistungsfähigkeit der KI massgeblich bestimmen. Dies steht im Einklang mit der Auffassung, dass KI-Systeme Werkzeuge bleiben, deren Wirksamkeit und ethische Vertretbarkeit stark von den menschlichen Entscheidungen abhängen, die in ihren Entwicklungsprozess einfliessen. Die finale Anwendung des TimeCapsuleLLM zur Kuratierung historischer Texte für zukünftige KI-Modelle ist ein Beispiel für eine symbiotische Beziehung zwischen menschlicher Expertise und maschineller Effizienz.
Das Konzept des TimeCapsuleLLM könnte auf andere Bereiche übertragen werden, um spezialisierte KI-Systeme für unterschiedlichste Zwecke zu schaffen:
Die Herausforderung wird darin bestehen, die Balance zwischen der Spezialisierung und der Vermeidung von "Tunnelblick" zu finden. Ein zu eng gefasster Datensatz könnte zu einer starren und unflexiblen KI führen, während ein zu breiter Ansatz die Authentizität und Tiefe der Spezialisierung gefährden könnte.
Zusammenfassend lässt sich festhalten, dass das TimeCapsuleLLM ein bemerkenswertes Beispiel dafür ist, wie KI-Technologien genutzt werden können, um ein tiefes und nuanciertes Verständnis spezifischer, nicht-aktueller Wissensdomänen zu entwickeln. Es signalisiert eine Verschiebung hin zu einer stärker fragmentierten und spezialisierten KI-Landschaft, in der massgeschneiderte Modelle für spezifische Aufgaben immer wichtiger werden.
Trotz der beeindruckenden Fähigkeiten des TimeCapsuleLLM, eine vergangene Epoche sprachlich und inhaltlich zu rekonstruieren, bleiben fundamentale Unterschiede zwischen menschlicher und künstlicher Intelligenz bestehen. Diese Unterschiede werden besonders deutlich, wenn man die Grenzen der "Zeitkapsel-KI" betrachtet und die einzigartige menschliche Dimension hervorhebt.
Ein zentraler Punkt, der das TimeCapsuleLLM von menschlichem Verständnis unterscheidet, ist das Fehlen von Bewusstsein und subjektivem Erleben. Wie der Chatbot selbst in einer philosophischen Auseinandersetzung über seine Natur bestätigen würde, basieren seine "Kenntnisse" auf Algorithmen, statistischen Wahrscheinlichkeiten und der Verarbeitung riesiger Datenmengen. Es "versteht" nicht im Sinne eines menschlichen Wesens, das Emotionen empfindet, persönliche Erfahrungen sammelt oder ein Selbstbewusstsein besitzt. Es kann zwar die Sprache des 19. Jahrhunderts perfekt imitieren und sogar plausible historische Zusammenhänge herstellen, aber es erlebt diese Geschichte nicht. Dieses "Daten-Leiden" – oder vielmehr das Nicht-Leiden der Daten – ist ein entscheidender Unterschied. Ein Mensch, der Texte aus dem 19. Jahrhundert liest, kann sich in die damalige Zeit hineinversetzen, Empathie für die Charaktere oder historische Persönlichkeiten empfinden und die kulturellen Nuancen auf einer tiefen, emotionalen Ebene verarbeiten. Eine KI kann dies nicht.
Die menschliche Fähigkeit zur Intuition und zum Verständnis subtiler Kontexte, die über explizite Daten hinausgehen, ist für KI-Systeme nach wie vor eine Herausforderung. Während das TimeCapsuleLLM aus statistischen Mustern historische Ereignisse ableiten konnte, fehlt ihm die menschliche Fähigkeit, zwischen den Zeilen zu lesen, Ironie zu erkennen oder die unausgesprochenen sozialen Normen einer Zeit zu erfassen. Diese Aspekte sind oft nicht direkt in Texten kodiert, sondern ergeben sich aus einem komplexen Zusammenspiel von Erfahrung, Kultur und sozialer Interaktion. Für Unternehmen bedeutet dies, dass KI-Modelle zwar hervorragend bei der Analyse und Generierung von Content innerhalb definierter Parameter sein können, die Interpretation und kreative Weiterentwicklung von komplexen, menschlichen Kontexten jedoch weiterhin menschliche Expertise erfordert.
Das Wissen des TimeCapsuleLLM ist statisch auf einen bestimmten Zeitraum beschränkt. Es kann keine neuen Informationen ausserhalb seiner "Zeitkapsel" aufnehmen oder verarbeiten. Dies ist zwar für seinen spezifischen Zweck, die Rekonstruktion einer Epoche, wünschenswert, steht aber im Gegensatz zur dynamischen und evolutionären Natur menschlichen Wissens. Menschen lernen kontinuierlich, passen ihr Weltbild an neue Erfahrungen an und entwickeln ihr Verständnis weiter. Die Fähigkeit zur Adaption an unvorhergesehene Entwicklungen und zur kreativen Problemlösung ist eine Kernkompetenz, die über die statische Datenverarbeitung hinausgeht.
Das Experiment mit dem TimeCapsuleLLM verdeutlicht letztlich, dass KI-Systeme, auch hochspezialisierte, primär als Ergänzung und Erweiterung menschlicher Fähigkeiten zu verstehen sind, nicht als deren vollständiger Ersatz. Für B2B-Anwendungen bedeutet dies, dass KI-Tools am effektivsten sind, wenn sie menschliche Experten bei repetitiven, datenintensiven oder zeitaufwändigen Aufgaben unterstützen, während die menschliche Intuition, Kreativität und kontextuelle Intelligenz für die strategische Entscheidungsfindung und innovative Gestaltung unverzichtbar bleiben.
Die Vision ist nicht eine KI, die den Menschen ersetzt, sondern eine KI, die den Menschen befähigt, sich auf komplexere und kreativere Aufgaben zu konzentrieren. Das TimeCapsuleLLM ist ein eindrucksvolles Beispiel dafür, wie KI-Technologie eine Brücke in die Vergangenheit schlagen kann, während sie gleichzeitig die Diskussion über die Einzigartigkeit und den Wert menschlicher Intelligenz in der Gegenwart und Zukunft anregt.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen