Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Fähigkeit von Large Language Models (LLMs), komplexe und langwierige Aufgaben zu bewältigen, stößt an fundamentale Grenzen. Insbesondere die Beschränkung durch endliche Kontextfenster stellt eine Herausforderung dar, wenn LLM-Agenten über viele Schritte hinweg interagieren, Werkzeuge nutzen und Zwischenergebnisse generieren müssen. Eine neue Forschung, das Konzept "Memex(RL): Scaling Long-Horizon LLM Agents via Indexed Experience Memory", präsentiert einen innovativen Ansatz zur Überwindung dieser Beschränkungen.
LLM-Agenten werden zunehmend als vielseitige Problemlöser eingesetzt, die komplexe Arbeitsabläufe über längere Zeiträume ausführen. Beispiele hierfür sind die Recherche und Querverweise in wissenschaftlicher Literatur, die Erkundung von Konfigurationsräumen für Code und Infrastruktur oder die iterative Verfeinerung komplexer Analysen. Der Erfolg solcher Agenten hängt nicht nur von der lokalen Denkfähigkeit ab, sondern auch davon, ob sie Informationen, die viele Schritte zuvor aufgetreten sind, bewahren und später wiederverwenden können – sei es eine zu Beginn einer Konversation erwähnte Einschränkung oder eine wichtige API-Antwort.
Die größte Hürde dabei ist das begrenzte Kontextfenster der LLMs. Während moderne Modelle immer größere Kontextfenster unterstützen, bleiben diese endlich. Die Trajektorien der Agenten wachsen jedoch kontinuierlich an, da Beobachtungen, Werkzeugausgaben und Zwischenüberlegungen im Laufe der Zeit hinzugefügt werden. Eine einfache Strategie, den gesamten Verlauf im Kontext zu behalten, wird schnell ineffizient oder undurchführbar. Die Prompts werden unzulässig lang, überschreiten das verfügbare Kontextbudget und erschweren die Nutzung entfernter Beweise, selbst wenn diese noch vorhanden sind. Aktuelle Lösungen versuchen, den Kontext durch Trunkierung oder laufende Zusammenfassungen zu verkürzen. Diese Methoden sind jedoch mit Informationsverlusten behaftet, da sie vergangene Beweise komprimieren oder vollständig verwerfen.
Eine weitere gängige Methode ist das Speichern aller Informationen in einem externen Speicher und das Abrufen relevanter Inhalte mittels semantischer Ähnlichkeit. Bei langwierigen Werkzeugeinsätzen erweist sich dieses Design jedoch oft als anfällig. Ein großer Pool von verrauschten, nahezu identischen Fragmenten kann den Abruf mehrdeutig machen, und das Modell muss lose strukturierte Verläufe wiederholt neu interpretieren. Grundlegender ist, dass der ähnlichkeitsbasierte Abruf nicht vorgibt, wie der Agent seine eigenen Erfahrungen organisieren soll. Es wird nicht festgelegt, welche Zwischenergebnisse stabile Referenzen verdienen, welche Verzweigungen Sackgassen sind oder wie Artefakte benannt werden sollen, um einen präzisen statt unscharfen späteren Zugriff zu ermöglichen. Dies führt dazu, dass viele aktuelle Systeme weiterhin auf handentworfene Vorlagen und Heuristiken für den Aufbau und Abruf von Erinnerungen angewiesen sind.
Memex adressiert diese Problematik durch einen Mechanismus, der den Kontext komprimiert, ohne Beweise zu verwerfen. Das Kernstück von Memex ist der Indexed Experience Memory. Dieser ersetzt eine lange Trajektorie des Werkzeugeinsatzes im Arbeitskontext durch eine kompakte, indexierte Zusammenfassung. Die vollständigen, zugrunde liegenden Artefakte werden dabei in einem externen Schlüssel-Wert-Erfahrungsspeicher unter stabilen Indizes archiviert. Wenn ein spezifisches vergangenes Ergebnis relevant wird, kann der Agent explizit einen Index dereferenzieren, um den genauen archivierten Inhalt wiederherzustellen und ihn in den Arbeitskontext einzufügen.
Dieser Ansatz trennt explizit einen kompakten In-Context-Arbeitskontext von einem externen Erfahrungsspeicher mit vollständiger Wiedergabetreue. Bei jedem Schritt schreibt der Agent eine prägnante, strukturierte, indexierte Zusammenfassung in seinen Arbeitskontext, die den aktuellen Fortschritt zusammen mit stabilen Referenzen festhält. Gleichzeitig werden die vollständigen, zugrunde liegenden Artefakte – wie Werkzeugausgaben, Protokolle, Code-Snippets und andere detaillierte Beweise – unter diesen Indizes im externen Speicher archiviert. Nachfolgende Entscheidungen basieren hauptsächlich auf diesem kurzen, indexierten Arbeitskontext. Der Agent ruft Rohdaten nur durch explizite Index-Dereferenzierung ab, wenn diese für das aktuelle Unterziel relevant werden. Dies macht den Speicherzugriff präzise und nachvollziehbar, da ein Index auf ein konkretes archiviertes Artefakt verweist und nicht auf eine annähernde semantische Übereinstimmung.
Memex ist keine handgefertigte Gedächtnisheuristik. Die Gedächtnisoperationen – einschließlich des Schreibens indexierter Zusammenfassungen, des Archivierens von Artefakten und des Dereferenzierens von Indizes – werden als erstklassige Aktionen im selben Entscheidungsraum wie Umgebungswerkzeuge behandelt. Dies führt zu einem charakteristischen Problem der langfristigen Kreditzuweisung. Eine gut getimte Komprimierung oder ein gut gestalteter Index kann sich erst viele Schritte später auszahlen, indem er eine präzise Wiederherstellung von Beweisen ermöglicht, redundante Werkzeugaufrufe vermeidet und Kontextüberläufe verhindert. Im Gegensatz dazu kann eine lokal plausible, aber schlecht strukturierte Zusammenfassung das nachfolgende Denken unbemerkt zum Scheitern bringen. Um diese Verhaltensweisen zu erlernen, wird MemexRL eingeführt.
MemexRL ist ein Reinforcement-Learning-Framework, das sowohl die Schreibstrategie (was zusammenzufassen, was zu archivieren, wie zu indizieren und wann zu komprimieren ist) als auch die Lesestrategie (wann und was zu dereferenzieren ist) unter einem Kontextbudget optimiert. Es kombiniert eine Belohnungsgestaltung, die auf die Nutzung von indexiertem Speicher zugeschnitten ist, mit einem komprimierungsadaptiven Trainingsverfahren. Dieses Verfahren bewahrt das Lernsignal für verzögerte Gedächtnisentscheidungen über lange Trajektorien hinweg. Der Kontextstatus wird dem Agenten durch einen sanften Auslösemechanismus zugänglich gemacht, wodurch das Timing der Komprimierung zu einer erlernbaren Fähigkeit und nicht zu einer festen Systemregel wird.
Konzeptionell folgt Memex einem einfachen Prinzip: Der aktive Denkzustand soll klein gehalten werden, aber es sollen keine Beweise weggeworfen werden. Anstatt den Agenten zu zwingen, wiederholt über einen ständig wachsenden Prompt oder über verlustbehaftete Zusammenfassungen nachzudenken, behält Memex einen kompakten Kontrollzustand im Kontext bei, während exakte vergangene Interaktionen außerhalb des Kontextes für eine spätere Wiederverwendung aufbewahrt werden. Dieses Design ähnelt der Art und Weise, wie Menschen lange, werkzeugintensive Arbeiten verwalten, bei denen externe Artefakte wie Notizen, Dateinamen und Lesezeichen als stabile Zugangswege zu detaillierten Beweisen dienen, ohne dass alles im Arbeitsgedächtnis verbleiben muss.
Die theoretische Analyse des Memex-Loops zeigt dessen Potenzial, zwei wünschenswerte Eigenschaften gleichzeitig zu unterstützen: die Erhaltung der Entscheidungsqualität durch begrenzte explizite Dereferenzierung und die Begrenzung der effektiven In-Context-Berechnung des Agenten, während die vollständige Historie wächst. Dies bedeutet, dass selbst bei einer immer länger werdenden Historie der Arbeitskontext des Agenten begrenzt bleibt, vorausgesetzt, die Zusammenfassung bleibt kompakt und es wird nur eine begrenzte Anzahl archivierter Blöcke bei jedem Schritt explizit dereferenziert.
Empirische Studien mit Memex auf anspruchsvollen Langzeitaufgaben zeigen eine Verbesserung der Aufgabenerfüllung bei gleichzeitig deutlich kleinerem Arbeitskontext. Beispielsweise wurde auf modifizierten ALFWorld-Benchmarks, die eine intensive Nutzung von Langzeitgedächtnis erfordern, die Erfolgsquote von 24,22 % auf 85,61 % erhöht, während die Spitzenlänge des Arbeitskontexts um etwa 43 % reduziert wurde. Dies deutet darauf hin, dass der Gewinn durch MemexRL nicht nur auf aggressivere Komprimierung zurückzuführen ist, sondern darauf, dass der Agent lernt, indexierten Erfahrungsspeicher so zu nutzen, dass er das nachfolgende Denken und die Entscheidungsfindung unter einem begrenzten Kontextbudget besser unterstützt.
Eine Analyse des Gedächtnisverhaltens nach dem Training zeigt eine interessante Verschiebung: Die Anzahl der CompressExperience-Aufrufe pro Episode nimmt ab, während die Anzahl der ReadExperience-Aufrufe zunimmt. Dies deutet darauf hin, dass die gelernte Strategie nicht nur zu häufigerer Komprimierung anregt, sondern auch zu einer selektiveren Komprimierung und einer verstärkten Nutzung des expliziten Abrufs aus dem externen Erfahrungsspeicher, wenn zuvor beobachtete Beweise wieder relevant werden. Der Agent lernt, präziser zu komprimieren und sich zunehmend auf den Abruf von Informationen zu verlassen, anstatt den Kontext ständig neu zu schreiben.
Die Einführung von Memex und MemexRL bietet eine vielversprechende Richtung für die Entwicklung persistenter und zuverlässigerer LLM-Agenten. Durch die Entkopplung eines kompakten In-Context-Zustands von einem vollwertigen externen Archiv wird ein skalierbarer Ansatz für das Gedächtnismanagement ermöglicht. Dies ist besonders relevant, da KI-Systeme zunehmend in komplexen realen Aufgaben eingesetzt werden, die über einfache Ein-Schritt-Interaktionen hinausgehen.
Die Fähigkeit, Erfahrungen zu lernen, zu indizieren und bei Bedarf präzise abzurufen, könnte ein Schlüssel zur Überwindung der aktuellen Skalierungsgrenzen von LLMs sein. Für Unternehmen, die auf LLM-basierte Lösungen setzen, bedeutet dies die Möglichkeit, Agenten zu entwickeln, die nicht nur effizienter arbeiten, sondern auch über längere Zeiträume hinweg konsistent und präzise Ergebnisse liefern können. Dies könnte die Entwicklung von KI-Assistenten, Forschungsagenten und Automatisierungstools vorantreiben, die in der Lage sind, menschliche Arbeitsweisen in Bezug auf Gedächtnis und Informationsmanagement besser nachzubilden.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen