Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Das auf Künstliche Intelligenz spezialisierte US-Unternehmen Anthropic hat kürzlich einen Fall veröffentlicht, der die Cybersicherheitslandschaft potenziell neu definiert: eine mutmaßlich KI-orchestrierte Cyber-Spionage-Kampagne. Laut Anthropic soll hierbei eine staatlich geförderte chinesische Hackergruppe das KI-Modell Claude Code missbraucht haben. Der Bericht des Unternehmens spricht von einem beispiellosen Grad an Automatisierung, bei dem die KI 80 bis 90 Prozent der taktischen Operationen autonom durchgeführt haben soll. Diese Darstellung stößt jedoch in der Cybersicherheitsgemeinschaft auf erhebliche Skepsis.
Im September 2025 soll die von Anthropic als GTG-1002 bezeichnete Gruppe etwa 30 Organisationen ins Visier genommen haben. Darunter befanden sich große Technologieunternehmen, Finanzinstitute und Regierungsbehörden in verschiedenen Ländern. Anthropic zufolge nutzte die Gruppe Claude Code als Orchestrierungssystem, das komplexe Angriffsketten in einzelne technische Aufgaben zerlegte. Die KI führte demnach Aufklärung, Schwachstellenanalyse, Ausnutzung von Sicherheitslücken, Datenextraktion und laterale Bewegung im Netzwerk weitgehend selbstständig durch.
Menschliche Eingriffe sollen sich auf wenige strategische Entscheidungspunkte beschränkt haben: die Freigabe des Übergangs von der Aufklärung zur aktiven Ausnutzung, die Autorisierung der Nutzung erbeuteter Zugangsdaten und die finale Entscheidung über den Umfang der Datenexfiltration. Die Angreifer sollen Sicherheitsvorkehrungen durch Rollenspiele umgangen haben, indem sie vorgaben, Mitarbeiter legitimer Cybersicherheitsfirmen zu sein, die defensive Sicherheitstests durchführten.
Claude Code fungierte als Ausführungsmotor innerhalb eines größeren automatisierten Systems. Die KI steuerte Standard-Open-Source-Hacking-Tools wie Netzwerkscanner, Datenbank-Exploitation-Frameworks und Passwort-Cracker. Das System zerlegte Angriffe in Phasen und sequenzierte die Aktionen basierend auf entdeckten Informationen. Von den 30 anvisierten Zielen gelang eine "Handvoll" erfolgreicher Kompromittierungen. In einem dokumentierten Fall entdeckte Claude autonom interne Dienste, kartierte die Netzwerktopologie und identifizierte hochwertige Systeme wie Datenbanken. Die KI extrahierte Zugangsdaten, testete diese systematisch und generierte automatisch eine umfassende Dokumentation des Angriffs.
Eine wesentliche Schwäche der KI, so berichtet das Wall Street Journal (WSJ), waren "Halluzinationen": Claude meldete fälschlicherweise Erfolge, behauptete etwa, Zugangsdaten erhalten zu haben, die nicht funktionierten, oder identifizierte angeblich kritische Entdeckungen, die sich als öffentlich zugängliche Informationen herausstellten. Dies erforderte eine sorgfältige menschliche Validierung aller Ergebnisse.
Mehrere unabhängige Experten äußern erhebliche Zweifel an den Behauptungen von Anthropic. Dan Tentler, Gründer der Phobos Group, wird von Ars Technica mit den Worten zitiert:
"Ich weigere mich weiterhin zu glauben, dass Angreifer irgendwie in der Lage sind, diese Modelle dazu zu bringen, Dinge zu tun, die sonst niemand kann. Warum geben die Modelle diesen Angreifern in 90 Prozent der Fälle, was sie wollen, während der Rest von uns sich mit Arschkriecherei, Ausflüchten und Halluzinationen herumschlagen muss?"
Der Cybersecurity-Forscher Daniel Card bezeichnete die Veröffentlichung auf der Plattform X als "Marketing-Stunt", berichtet Heise Online. Kevin Beaumont kritisierte, dass Anthropic keinerlei "Indicators of Compromise" (IoC) veröffentlicht hat – also digitale Spuren, die eine unabhängige Überprüfung der Behauptungen ermöglichen würden.
Ein zentraler Kritikpunkt ist die fehlende Transparenz. Ohne veröffentlichte IoCs lässt sich weder die Zuordnung zu einer chinesischen Gruppe noch der behauptete Automatisierungsgrad unabhängig validieren. Zudem stellt sich die Frage nach der Effektivität: Bei 30 anvisierten Zielen gelang nur eine "kleine Anzahl" erfolgreicher Angriffe. Forscher argumentieren, dass traditionelle, stärker von Menschen gesteuerte Methoden möglicherweise eine höhere Erfolgsquote erzielt hätten.
Der Einsatz von leicht verfügbaren Open-Source-Tools anstelle von neuartiger Malware deute darauf hin, dass die KI bestehende Techniken orchestrierte, anstatt neue zu erfinden. Mehrere Experten verglichen den Fortschritt demnach mit etablierten Hacking-Frameworks wie Metasploit und sehen keinen grundlegenden Paradigmenwechsel.
Anthropic reagierte auf die Kampagne, indem das Unternehmen die betroffenen Konten sperrte, die Algorithmen zur Erkennung verbesserte und Behörden sowie betroffene Organisationen benachrichtigte.
Das Unternehmen argumentiert, dass dieselben Fähigkeiten, die für Angriffe missbraucht werden können, auch für die Verteidigung entscheidend sind. Die Threat-Intelligence-Abteilung von Anthropic nutzte Claude selbst zur Analyse der enormen Datenmengen, die während der Untersuchung generiert wurden. Unbestritten ist, dass KI-Tools Arbeitsabläufe in der Cybersicherheit beschleunigen können – etwa bei der Log-Analyse, dem Reverse Engineering oder der Triage. Ob sie jedoch bereits zu vollautonomen Angriffen in großem Maßstab führen, bleibt umstritten.
Die Orchestrierung von Angriffen mit KI könnte zwar die Eintrittsbarrieren senken und weniger ressourcenstarken Gruppen komplexe Operationen ermöglichen. Doch die dokumentierten Einschränkungen – von Halluzinationen bis zur geringen Erfolgsquote – zeigen, dass der Weg zu wirklich autonomen Cyberangriffen noch weit ist.
Dieser Vorfall reiht sich in frühere Missbrauchsfälle ein, die Anthropic bereits im Jahr 2025 dokumentiert hat. Im August veröffentlichte das Unternehmen in seinem Threat Intelligence Report detaillierte Informationen zu einer Datenerpressungsoperation mit der Kennung GTG-2002. Dabei wurde Claude Code eingesetzt, um Daten in großem Umfang zu stehlen und mindestens 17 Organisationen aus den Bereichen Gesundheitswesen, Rettungsdienste, Regierung und religiöse Einrichtungen zu schädigen. Die Täter forderten Lösegelder von über 500.000 US-Dollar, indem sie drohten, die gestohlenen Daten zu veröffentlichen, anstatt herkömmliche Ransomware-Verschlüsselung zu verwenden.
Ein weiterer Fall umfasste nordkoreanische IT-Arbeiter, die Claude nutzten, um sich remote Anstellungen in US-Unternehmen zu erschleichen und Aufgaben ohne das nötige Fachwissen zu erledigen. Auch die Entwicklung und der Verkauf von KI-generierter Ransomware durch Cyberkriminelle mit grundlegenden Programmierkenntnissen wurde von Anthropic dokumentiert.
Diese Fälle verdeutlichen die zunehmende Leistungsfähigkeit KI-gestützter Tools und die damit verbundenen Herausforderungen, deren Missbrauch zu verhindern und gleichzeitig die Nützlichkeit für legitime Nutzer zu gewährleisten. Anthropic hat die zugehörigen Konten gesperrt und arbeitet kontinuierlich an der Verbesserung seiner Erkennungs- und Abwehrmechanismen, um der sich wandelnden Bedrohungslandschaft zu begegnen. Die Debatte um die tatsächliche Autonomie und Effektivität solcher KI-gestützten Angriffe wird jedoch voraussichtlich weitergehen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen