Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Integration von künstlicher Intelligenz (KI) in verschiedene Wirtschaftsbereiche schreitet voran. Eine aktuelle Studie des KI-Unternehmens Anthropic beleuchtet detailliert den aktuellen Stand der Nutzung von KI-Agenten. Die Ergebnisse zeigen eine deutliche Konzentration dieser Technologie im Bereich der Softwareentwicklung, während andere Branchen noch am Anfang der Adaption stehen.
Anthropic hat im Rahmen der Studie Millionen von Interaktionen zwischen Menschen und KI-Agenten analysiert, sowohl über den eigenen Code-Agenten Claude Code als auch über die öffentliche API. Die zentrale Erkenntnis ist, dass die Softwareentwicklung fast 50 Prozent aller Agenten-Tool-Aufrufe ausmacht. Im Vergleich dazu spielen andere Sektoren wie Geschäftsanalysen, Kundenservice, Vertrieb, Finanzen und E-Commerce eine untergeordnete Rolle, wobei keiner dieser Bereiche mehr als wenige Prozentpunkte der Gesamtnutzung erreicht.
Diese ungleiche Verteilung wird von Anthropic als „frühe Phase der Agentenadoption“ bezeichnet. Softwareentwickler waren demnach die Pioniere bei der Entwicklung und dem Einsatz von agentenbasierten Tools in grossem Massstab. Für andere Branchen beginnt die Erprobung dieser Technologien erst.
Ein bemerkenswerter Befund der Studie ist die rapide Zunahme der Autonomie von KI-Agenten. Am Beispiel von Claude Code zeigte sich, dass sich die längsten autonomen Arbeitssitzungen zwischen Oktober 2025 und Januar 2026 von unter 25 Minuten auf über 45 Minuten nahezu verdoppelt haben. Dieser Anstieg ist graduell und nicht sprunghaft, was darauf hindeutet, dass nicht nur verbesserte Modellfähigkeiten, sondern auch das wachsende Vertrauen erfahrener Nutzer und kontinuierliche Produktverbesserungen eine Rolle spielen.
Anthropic spricht in diesem Zusammenhang von einem „Deployment Overhang“: Die potenziell erreichbare Autonomie der Modelle übersteigt die tatsächliche Anwendung in der Praxis. Dies deckt sich mit Ansichten anderer führender KI-Unternehmen, die argumentieren, dass KI-Modelle bereits zu mehr fähig sind, als von Menschen gefordert wird. Eine Bewertung von METR schätzt beispielsweise, dass Claude Opus 4.5 Aufgaben mit einer Erfolgsquote von 50 Prozent lösen kann, die einen Menschen fast fünf Stunden kosten würden.
Die Studie zeigt interessante Muster im Umgang von Nutzern mit KI-Agenten. Erfahrene Nutzer gewähren Claude Code mehr Autonomie: Während neue Nutzer etwa 20 Prozent der Sitzungen vollständig genehmigen, steigt diese Rate bei etwa 750 Sitzungen auf über 40 Prozent. Gleichzeitig steigt die Unterbrechungsrate bei erfahrenen Nutzern leicht an, von etwa 5 Prozent bei neuen Nutzern auf etwa 9 Prozent. Dies deutet auf eine veränderte Strategie hin: Neue Nutzer genehmigen jeden Schritt einzeln, während erfahrene Nutzer Claude autonom arbeiten lassen und nur bei Problemen eingreifen. Beide Raten bleiben jedoch gering, was die hohe Effizienz der autonomen Arbeitsweise unterstreicht.
Ein ähnliches Muster findet sich bei der öffentlichen API: Bei einfachen Aufgaben erfordern 87 Prozent der Tool-Aufrufe eine menschliche Aufsicht, während dieser Wert bei komplexen Aufgaben wie der autonomen Suche nach Zero-Day-Exploits oder dem Schreiben eines Compilers auf 67 Prozent sinkt.
Claude Code unterbricht seine Arbeit bei komplexen Aufgaben häufiger selbst, um Klärungsfragen zu stellen, als es von Menschen unterbrochen wird. Bei anspruchsvollen Aufgaben stellt Claude mehr als doppelt so viele Fragen wie bei Aufgaben geringerer Komplexität. Dies wird von Anthropic als wichtiger Sicherheitsmechanismus interpretiert: Modelle, die ihre eigene Unsicherheit erkennen und proaktiv um Bestätigung bitten, ergänzen externe Schutzmassnahmen wie Autorisierungssysteme und menschliche Genehmigungen.
Die Studie identifiziert die häufigsten Gründe für diese Unterbrechungen:
Anthropic erwartet, dass Agenten, die an den Extremen von Risiko und Autonomie operieren, zunehmend Verbreitung finden werden, insbesondere wenn die Adaption über die Softwareentwicklung hinaus in Branchen mit höheren Risiken vordringt. Für Modellentwickler, Produkthersteller und politische Entscheidungsträger empfiehlt Anthropic eine Ausweitung der Überwachung nach der Bereitstellung. Gleichzeitig wird davor gewarnt, spezifische Interaktionsmuster vorzuschreiben, da die Forderung nach manueller Genehmigung jeder einzelnen Agentenaktion Reibung erzeugt, ohne die Sicherheit notwendigerweise zu verbessern.
Für Unternehmen im B2B-Bereich, insbesondere solche, die im Technologiesektor tätig sind oder eine verstärkte Digitalisierung anstreben, ergeben sich aus dieser Studie mehrere wichtige Erkenntnisse:
Zusammenfassend lässt sich festhalten, dass KI-Agenten in der Softwareentwicklung bereits eine transformative Rolle spielen. Die Erfahrungen und Erkenntnisse aus diesem Bereich bieten wertvolle Lehren für andere Branchen, die das Potenzial dieser Technologien in Zukunft ebenfalls erschliessen möchten. Der Schlüssel zum Erfolg liegt in einer strategischen Implementierung, die sowohl die technologischen Möglichkeiten als auch die menschlichen Interaktionsmuster berücksichtigt.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen