Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die kontinuierliche Weiterentwicklung von KI-Modellen und die steigenden Anforderungen an deren Rechenleistung führen zu einem erhöhten Bedarf an hocheffizienten Software-Implementierungen. Insbesondere im Bereich der Grafikprozessoren (GPUs) ist die Optimierung von Kernels eine komplexe Aufgabe, die tiefgreifendes Hardware-Verständnis und iterative Ingenieursarbeit erfordert. Eine aktuelle Forschungsarbeit stellt nun eine innovative Methode vor: Agentic Variation Operators (AVO), die autonome Agenten einsetzen, um diese Optimierungsprozesse zu revolutionieren und dabei menschliche Experten zu übertreffen.
Traditionelle evolutionäre Suchverfahren, die in der Vergangenheit bereits mit Großen Sprachmodellen (LLMs) angereichert wurden (wie z.B. FunSearch oder AlphaEvolve), beschränkten die Rolle der LLMs meist auf die Generierung von Kandidatenlösungen innerhalb einer vordefinierten Pipeline. Diese Modelle agierten als "Generatoren", die auf Basis von Stichproben Elternprogramme neue Lösungen erstellten. Die Auswahlstrategie, die Bewertung und das Populationsmanagement blieben dabei festen algorithmischen Regeln unterworfen.
Die AVO-Methode bricht mit diesem Paradigma. Sie ersetzt die starren Mutations-, Crossover- und handdesignten Heuristiken klassischer evolutionärer Suche durch autonome Code-Agenten. Anstatt ein Sprachmodell auf die Kandidatengenerierung zu beschränken, implementiert AVO die Variation als eine selbstgesteuerte Agentenschleife. Diese Schleife ermöglicht es dem Agenten, den aktuellen Lösungsverlauf, eine domänenspezifische Wissensbasis (z.B. CUDA-Programmierhandbücher, PTX ISA-Dokumentation, Blackwell-Architekturspezifikationen) und Ausführungs-Feedback zu konsultieren. Auf dieser Grundlage kann der Agent Implementierungen vorschlagen, reparieren, kritisch bewerten und verifizieren. Dies stellt einen fundamentalen Wandel dar: Der Agent wird vom reinen Kandidatengenerator zum eigentlichen Variationsoperator.
Um die Effektivität von AVO zu demonstrieren, wurde die Methode auf die Optimierung von Attention-Kernels angewandt, einem der am aggressivsten optimierten Kernel-Ziele in der KI. Die Tests wurden auf NVIDIA Blackwell (B200) GPUs durchgeführt, einer Hardware-Architektur, die für ihre Komplexität und die hohen Anforderungen an die Kernel-Optimierung bekannt ist.
Über einen Zeitraum von sieben Tagen kontinuierlicher, autonomer Evolution für Multi-Head Attention (MHA) entdeckte AVO Kernels, die die Leistung von cuDNN um bis zu 3,5 % und die von FlashAttention-4 um bis zu 10,5 % übertrafen. Diese Ergebnisse wurden über verschiedene Konfigurationen hinweg erzielt und unterstreichen die Fähigkeit des Agenten, Leistungsengpässe auf mikroarchitektonischer Ebene zu identifizieren und zu beheben.
Ein wesentlicher Aspekt der evaluerten Optimierungen ist deren Übertragbarkeit. Um diese zu testen, wurde der AVO-Agent aufgefordert, den entwickelten MHA-Kernel an Grouped-Query Attention (GQA) anzupassen. GQA weist andere Rechen- und Speicherzugriffsmuster auf als MHA.
Der Agent bewältigte diese Anpassung autonom in nur etwa 30 Minuten und erzeugte einen GQA-fähigen Kernel. Die dabei erzielten Leistungssteigerungen waren signifikant: bis zu 7,0 % gegenüber cuDNN und 9,3 % gegenüber FlashAttention-4. Dies deutet darauf hin, dass die von AVO entdeckten Optimierungen nicht nur spezifisch für die Trainingskonfigurationen sind, sondern auf zugrunde liegenden Hardware-Prinzipien basieren und somit verallgemeinerbar sind.
Der siebentägige Evolutionslauf umfasste 40 aufeinanderfolgende Kernel-Versionen. Dabei wurden über 500 Optimierungsrichtungen intern erforscht, einschließlich Versuchen, die Fehler aufwiesen oder die Leistung minderten. Dieser Umfang an systematischer Exploration übersteigt das, was ein menschlicher Ingenieur im gleichen Zeitraum leisten könnte.
Die Leistungsverbesserungen zeigten sich nicht als stetiger Anstieg, sondern in diskreten Sprüngen, gefolgt von Plateaus. Die größten Gewinne korrelierten mit architektonischen Wendepunkten, wie der Einführung von QK-PV-Interleaving oder der Neugestaltung der Softmax-Berechnung. Spätere Versionen führten zu kleineren, aber kumulativen Verbesserungen durch detaillierte Taktzyklus-Planung und Ressourcenoptimierung. Dieses Muster ist typisch für Optimierungsprozesse, bei denen zunächst grobe Verbesserungen erzielt und anschließend feinere Anpassungen vorgenommen werden.
Ein entscheidender Mechanismus zur Vermeidung von Stagnation in diesem langfristigen Optimierungsprozess ist die Selbstüberwachung. Der AVO-Agent ist in der Lage, Phasen der Stagnation zu erkennen und die Suchstrategie neu auszurichten, indem er gezielt neue Optimierungsrichtungen ansteuert. Dies verhindert, dass der Agent in unproduktiven Schleifen verharrt.
Die detaillierte Analyse der von AVO entdeckten Optimierungen offenbart ein tiefes Verständnis der Hardware-Architektur. Drei exemplarische Optimierungen werden hervorgehoben:
Diese Optimierungen erforderten ein kombiniertes Verständnis mehrerer Hardwaresubsysteme, einschließlich Synchronisation, Speicherreihenfolge, Pipeline-Planung und Registerzuweisung. Dies deutet darauf hin, dass AVO in der Lage ist, auf Expertenniveau zu argumentieren und zu optimieren.
Die Agentic Variation Operators (AVO) stellen einen signifikanten Fortschritt in der automatisierten Software-Optimierung dar. Indem sie die Rolle von KI-Agenten von reinen Kandidatengeneratoren zu autonomen Variationsoperatoren erweitern, ermöglichen sie die Entdeckung von performanzkritischen mikroarchitektonischen Optimierungen, die selbst von erfahrenen menschlichen Experten nur schwer zu erreichen sind. Die erzielten Ergebnisse auf NVIDIA Blackwell GPUs, insbesondere die Überlegenheit gegenüber etablierten Lösungen wie cuDNN und FlashAttention-4, sind bemerkenswert.
Die Übertragbarkeit der entdeckten Optimierungen auf verschiedene Attention-Typen wie GQA unterstreicht das Potenzial von AVO, nicht nur spezifische Probleme zu lösen, sondern ein generelles Verständnis für Hardware-Interaktionen zu entwickeln. Da AVO auf der Ebene der Variationsoperatoren und nicht auf eine spezifische Domäne beschränkt ist, eröffnet es breitere Wege für die autonome Optimierung jenseits von Attention-Kernels. Dies könnte andere performanzkritische Softwaresysteme auf verschiedenen Hardware-Plattformen sowie Ingenieur- und Wissenschaftsbereiche umfassen, die eine umfassende autonome Exploration erfordern.
Die Einführung von AVO deutet auf eine Zukunft hin, in der KI-Agenten eine immer zentralere Rolle in der Hardware- und Software-Entwicklung spielen könnten, möglicherweise sogar in der Co-Design-Phase von zukünftigen Siliziumarchitekturen.
Bibliography - T. Bäck, D. B. Fogel, and Z. Michalewicz (1997) Handbook of evolutionary computation. Release 97 (1), pp. B1. - A. Chen, D. M. Dohan, and D. R. So (2023) EvoPrompting: language models for code-level neural architecture search. - S. Chetlur, C. Woolley, P. Vandermersch, J. Cohen, J. Tran, B. Catanzaro, and E. Shelhamer (2014) CuDNN: efficient primitives for deep learning. - T. Dao, D. Y. Fu, S. Ermon, A. Rudra, and C. Ré (2022) FlashAttention: fast and memory-efficient exact attention with io-awareness. - T. Dao (2023) FlashAttention-2: faster attention with better parallelism and work partitioning. - C. E. Jimenez, J. Yang, A. Wettig, S. Yao, K. Pei, O. Press, and K. Narasimhan (2024) SWE-bench: can language models resolve real-world github issues?. - J. Lehman, J. Gordon, S. Jain, K. Ndousse, C. Yeh, and K. O. Stanley (2022) Evolution through large models. - J. Mouret and J. Clune (2015) Illuminating search spaces by mapping elites. - A. Novikov, N. Vũ, M. Eisenberger, E. Dupont, P. Huang, A. Z. Wagner, S. Shirobokov, B. Kozlovskii, F. J. R. Ruiz, A. Mehrabian, M. P. Kumar, A. See, S. Chaudhuri, G. Holland, A. Davies, S. Nowozin, P. Kohli, and M. Balog (2025) AlphaEvolve: a coding agent for scientific and algorithmic discovery. - M. O’Neill, L. Vanneschi, S. Gustafson, and W. Banzhaf (2010) Open issues in genetic programming. Genetic Programming and Evolvable Machines 11 (3), pp. 339–363. - B. Romera-Paredes, M. Barekatain, A. Novikov, M. Balog, M. P. Kumar, E. Dupont, F. J. R. Ruiz, J. S. Ellenberg, P. Wang, O. Fawzi, P. Kohli, and A. Fawzi (2024) Mathematical discoveries from program search with large language models. Nature 625, pp. 468–475. - J. Shah, G. Bikshandi, Y. Zhang, V. Thakkar, P. Ramani, and T. Dao (2024) FlashAttention-3: fast and accurate attention with asynchrony and low-precision. - D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. Van Den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, et al. (2016) Mastering the game of go with deep neural networks and tree search. nature 529 (7587), pp. 484–489. - A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin (2023) Attention is all you need. - C. Wan, X. Dai, Z. Wang, M. Li, Y. Wang, Y. Mao, Y. Lan, and Z. Xiao (2025) LoongFlow: directed evolutionary search via a cognitive plan-execute-summarize paradigm. - X. Wang, B. Li, Y. Song, F. F. Xu, X. Tang, M. Zhuge, J. Pan, Y. Song, B. Li, J. Singh, H. H. Tran, F. Li, R. Ma, M. Zheng, B. Qian, Y. Shao, N. Muennighoff, Y. Zhang, B. Hui, J. Lin, R. Brennan, H. Peng, H. Ji, and G. Neubig (2025) OpenHands: an open platform for ai software developers as generalist agents. - B. Xu, T. Chen, F. Zhou, T. Chen, Y. Jia, V. Grover, H. Wu, W. Liu, C. Wittenbrink, W. Hwu, R. Bringmann, M. Liu, L. Ceze, M. Lightstone, and H. Shi (2026) VibeTensor: System Software for Deep Learning, Fully Generated by AI Agents. - A. Yang, A. Li, B. Yang, B. Zhang, B. Hui, B. Zheng, B. Yu, C. Gao, C. Huang, C. Lv, C. Zheng, D. Liu, F. Zhou, F. Huang, F. Hu, H. Ge, H. Wei, H. Lin, J. Tang, J. Yang, J. Tu, J. Zhang, J. Yang, J. Yang, J. Zhou, J. Zhou, J. Lin, K. Dang, K. Bao, K. Yang, L. Yu, L. Deng, M. Li, M. Xue, M. Li, P. Zhang, P. Wang, Q. Zhu, R. Men, R. Gao, S. Liu, S. Luo, T. Li, T. Tang, W. Yin, X. Ren, X. Wang, X. Zhang, X. Ren, Y. Fan, Y. Su, Y. Zhang, Y. Zhang, Y. Wan, Y. Liu, Z. Wang, Z. Cui, Z. Zhang, Z. Zhou, and Z. Qiu (2025) Qwen3 technical report. - J. Yang, C. E. Jimenez, A. Wettig, K. Lieret, S. Yao, K. Narasimhan, and O. Press (2024) SWE-agent: agent-computer interfaces enable automated software engineering. - H. Ye, J. Wang, Z. Cao, F. Berto, C. Hua, H. Kim, J. Park, and G. Song (2024) ReEvo: large language models as hyper-heuristics with reflective evolution. - M. Yuksekgonul, D. Koceja, X. Li, F. Bianchi, J. McCaleb, X. Wang, J. Kautz, Y. Choi, J. Zou, C. Guestrin, and Y. Sun (2026) Learning to discover at test time. - T. Zadouri, M. Hoehnerbach, J. Shah, T. Liu, V. Thakkar, and T. Dao (2026) FlashAttention-4: algorithm and kernel pipelining co-design for asymmetric hardware scaling. - Terry Chen, Zhifan Ye, Bing Xu, Zihao Ye, Timmy Liu, Ali Hassani, Tianqi Chen, Andrew Kerr, Haicheng Wu, Yang Xu, Yu-Jung Chen, Hanfeng Chen, Aditya Kane, Ronny Krashinsky, Ming-Yu Liu, Vinod Grover, Luis Ceze, Roger Bringmann, John Tran, Wei Liu, Fung Xie, Michael Lightstone, Humphrey Shi (2026) AVO: Agentic Variation Operators for Autonomous Evolutionary Search. arXiv:2603.24517. - AlphaXiv: AVO: Agentic Variation Operators for Autonomous Evolutionary Search (2026) https://www.alphaxiv.org/abs/2603.24517 - AI Paper Slop: AVO: Agentic Variation Operators for Autonomous Evolutionary Search (Mar 2026) (2026) https://www.youtube.com/watch?v=mA6uPTFdPdc - SeriesFusion.ai: Agentic Variation Operators (AVO) replace fixed evolutionary heuristics with coding agents to discover GPU kernels that outperform FlashAttention-4 by 10.5% (2026) https://www.seriesfusion.ai/paper/2603.24517Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen