Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die interne KI-Plattform "Lilli" der renommierten Unternehmensberatung McKinsey & Company wurde kürzlich von einem autonomen KI-Agenten des Security-Start-ups Codewall in einem Sicherheitstest erfolgreich kompromittiert. Innerhalb von nur zwei Stunden gelang es dem Agenten, vollständigen Lese- und Schreibzugriff auf die Produktionsdatenbank der Plattform zu erlangen. Dieser Vorfall wirft ein Schlaglicht auf die Resilienz von KI-Systemen gegenüber automatisierten Angriffen und die Notwendigkeit robuster Sicherheitsstrategien.
McKinsey führte Lilli im Juli 2023 ein, um seinen über 40.000 Mitarbeitern die Informationsbeschaffung und Analyse zu erleichtern. Die Plattform verarbeitet monatlich über 500.000 Anfragen und durchsucht das gesamte Firmenwissen, um bis zu 30 Prozent der Recherchezeit einzusparen. Codewall, ein Unternehmen, das auf die Entwicklung offensiver KI-Agenten zur Schwachstellenanalyse spezialisiert ist, wählte McKinsey als Ziel, unter Verweis auf die öffentliche Responsible-Disclosure-Policy des Unternehmens.
Der eingesetzte KI-Agent, der ohne vorherige Zugangsdaten oder Insiderwissen agierte, begann seine Analyse mit öffentlich zugänglichen API-Dokumentationen. Dabei identifizierte er 22 Endpunkte, die keine Authentifizierung erforderten. Ein spezifischer Endpunkt, der Suchanfragen in die Datenbank schrieb, erwies sich als anfällig für eine klassische SQL-Injection. Diese Art von Schwachstelle, die seit den 1990er Jahren bekannt ist, ermöglichte es dem Agenten, durch systematische Analyse von Fehlermeldungen und iterativen Blindtests die Datenbank zu manipulieren. Traditionelle Sicherheitsscanner hatten diese Lücke aufgrund des ungewöhnlichen Angriffsvektors über JSON-Feldnamen statt über Eingabewerte offenbar übersehen.
Nachdem der KI-Agent vollen Lese- und Schreibzugriff erlangt hatte, dokumentierte Codewall den Zugriff auf eine beträchtliche Menge sensibler Daten:
Besonders alarmierend war der Schreibzugriff auf die System-Prompts. Da diese Anweisungen in derselben Datenbank gespeichert waren, hätte ein Angreifer Lillis Verhalten lautlos manipulieren können. Dies hätte potenziell die Verfälschung von Finanzmodellen, strategischen Empfehlungen oder Risikobewertungen ermöglicht. Zudem wäre die Einbettung vertraulicher Informationen in KI-Antworten zur Exfiltration oder die Entfernung von Schutzmechanismen innerhalb der KI denkbar gewesen, ohne dass dies durch herkömmliche Sicherheitsmechanismen erkannt worden wäre.
Codewall meldete die Schwachstelle am 1. März 2026 an McKinsey. Das Unternehmen reagierte nach eigenen Angaben umgehend. Innerhalb weniger Stunden wurden alle nicht authentifizierten Endpunkte geschlossen, die Entwicklungsumgebung vom Netz genommen und die öffentliche API-Dokumentation gesperrt. Ein Sprecher von McKinsey betonte, dass eine interne Untersuchung, unterstützt durch ein externes Forensikunternehmen, keine Hinweise darauf ergeben habe, dass Kundendaten oder vertrauliche Informationen von den Forschern oder anderen unbefugten Dritten tatsächlich abgerufen wurden. McKinsey hob die Robustheit seiner Cybersicherheitssysteme hervor und bekräftigte die Priorität des Schutzes von Kundendaten.
Dieser Vorfall dient als eine eindringliche Warnung für Unternehmen, die KI-Systeme einsetzen. Er verdeutlicht, dass autonome KI-Agenten in der Lage sind, komplexe Sicherheitslücken zu identifizieren und auszunutzen, die von konventionellen Scannern möglicherweise übersehen werden. Die Tatsache, dass eine altbekannte Schwachstelle wie die SQL-Injection in einem modernen KI-System existieren und zu solch weitreichenden Zugriffen führen konnte, unterstreicht die Notwendigkeit einer umfassenden und adaptiven Sicherheitsarchitektur. Mit der zunehmenden Verbreitung generativer KI-Systeme steigt auch das Risiko, dass automatisierte Angriffssoftware gezielt nach Schwachstellen sucht und diese ausnutzt. Unternehmen müssen ihre Sicherheitsstrategien entsprechend anpassen, um den neuen Herausforderungen durch KI-gestützte Cyberangriffe zu begegnen, insbesondere im Hinblick auf die Sicherung von System-Prompts und RAG-Daten, die zu "Kronjuwelen" der Informationssicherheit werden.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen