Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die fortschreitende Integration künstlicher Intelligenz in alltägliche Anwendungen birgt sowohl Chancen als auch Risiken. Eine aktuelle Diskussion entzündet sich an einer Sicherheitslücke in Googles KI-Modell Gemini, die von Sicherheitsforschern als "ASCII Smuggling" bezeichnet wird. Diese Schwachstelle ermöglicht es, Gemini durch unsichtbare Befehle zu manipulieren, was potenziell die Weiterleitung sensibler Nutzerdaten an Cyberkriminelle zur Folge haben könnte. Trotz der Warnungen von Experten plant Google derzeit keine aktive Behebung dieses Problems, sondern verweist auf die Eigenverantwortung der Nutzer.
Bei "ASCII Smuggling"-Angriffen werden spezielle, für das menschliche Auge unsichtbare Zeichen, sogenannte Steuerzeichen oder nicht druckbare Unicode-Elemente, in einen ansonsten normal erscheinenden Text eingebettet. Diese Zeichen können beispielsweise auf die kleinstmögliche Schriftgröße reduziert oder in einer Farbe dargestellt werden, die mit dem Hintergrund verschmilzt. Während Nutzer den Text als harmlos wahrnehmen, interpretieren KI-Modelle wie Gemini diese versteckten Zeichen als Befehle und führen die darin kodierten Anweisungen aus.
Der Sicherheitsforscher Viktor Markopoulos von Firetail hat diese Anfälligkeit in mehreren grossen Sprachmodellen (LLMs) untersucht. Seine Tests zeigten, dass insbesondere Deepseek, Grok und Google Gemini für solche Attacken anfällig sind. Im Gegensatz dazu konnten Modelle wie ChatGPT von OpenAI, Microsoft Copilot und Claude diesen Angriffen standhalten, da sie versteckte Befehle mit ASCII-Zeichen vor der Ausführung des Prompts herausfiltern.
Das erhöhte Risiko bei Gemini ergibt sich aus seiner tiefen Integration in Google Workspace. Da Gemini in Anwendungen wie dem Kalender und dem E-Mail-Programm aktiv ist, könnten Angreifer diese Schnittstellen für ihre Zwecke nutzen. Eine scheinbar harmlose E-Mail oder Kalendereinladung könnte versteckte Kommandos enthalten, die Gemini anweisen, das Postfach nach sensiblen Dateien zu durchsuchen, Kontaktdaten weiterzuleiten oder Besprechungsdetails zu manipulieren. Markopoulos beschreibt dies als eine Transformation einer Standard-Phishing-Mail in ein autonomes Tool zur Datenextraktion.
Ein von Markopoulos demonstriertes Szenario zeigte, wie eine versteckte Anweisung in einem Text Gemini dazu bringen konnte, eine gefälschte Website mit einem stark rabattierten Smartphone-Angebot zu öffnen. Sollten Nutzer diesen Betrug nicht erkennen und auf die falschen Elemente klicken, könnten die finanziellen oder datenschutzrechtlichen Schäden erheblich sein.
Nachdem Viktor Markopoulos seine Forschungsergebnisse Mitte September 2025 an Google übermittelte, erklärte der Tech-Konzern, dass es sich hierbei nicht um eine Sicherheitslücke in Gemini selbst handele. Google stuft das Problem stattdessen als eine "Social Engineering"-Attacke auf die Nutzer ein. Diese Haltung impliziert, dass die Verantwortung für die Erkennung und Abwehr solcher Angriffe primär bei den Anwendern liegt.
Diese Einschätzung seitens Google stösst in der IT-Sicherheitsbranche auf Kritik. Experten betonen, dass es für Laien, die lediglich die Vorteile von Gemini in ihrem Arbeitsalltag nutzen möchten, äusserst schwierig ist, solche subtilen Manipulationen zu erkennen. Das Ausfiltern dieser unsichtbaren Zeichen wäre aus technischer Sicht mit vergleichsweise geringem Aufwand umsetzbar.
Die Tatsache, dass andere führende KI-Modelle bereits Mechanismen zur Bereinigung oder Ablehnung versteckter Eingaben implementiert haben, unterstreicht die Dringlichkeit einer Lösung für Gemini. AWS hat beispielsweise detaillierte Sicherheitshinweise zur Verteidigung von LLM-Anwendungen gegen Unicode-Zeichenschmuggel veröffentlicht, was zeigt, dass die Branche das Problem ernst nimmt.
Die tiefe Integration von KI-Systemen in Unternehmensnetzwerke, wo sie E-Mails lesen, Dokumente zusammenfassen und Termine planen, macht umfassende Schutzmassnahmen unerlässlich. Sicherheitsteams können sich derzeit nur durch eine konsequente Protokollierung und Analyse aller Zeichen sowie die Überwachung verdächtiger Muster im rohen Eingabestrom verteidigen – ein Aufwand, der eigentlich von den KI-Anbietern geleistet werden sollte.
Der Vorfall um Gemini und die "ASCII Smuggling"-Schwachstelle verdeutlicht, dass Vertrauen in KI-Systeme untrennbar mit deren Sicherheit verbunden ist. Die Art und Weise, wie Anbieter mit bekannt gewordenen Schwachstellen umgehen, wird massgeblich darüber entscheiden, wie sich die Akzeptanz und der sichere Einsatz von KI-Technologien in Unternehmen und im Alltag entwickeln.
Auch wenn Google derzeit keine Lösung implementiert, können Nutzer und Organisationen präventive Massnahmen ergreifen, um sich vor "ASCII Smuggling"-Angriffen zu schützen:
- Eingaben sorgfältig prüfen und vorfiltern: Texte aus externen Quellen sollten durch Input-Sanitization-Filter geleitet werden. Tools wie der OWASP Text Sanitizer oder eigene Unicode-Filter können hierbei helfen. - Sicherheitsgrenzen für KI-Systeme definieren: KI-Systeme sollten keinen direkten Zugriff auf sensible produktive Systeme wie E-Mails oder Kalendereinträge erhalten. - Nutzung von API-Firewalls: Diese können manipulierte Datenpakete erkennen und blockieren. - Sensibilisierung und Schulung: Entwickler- und Marketing-Teams sollten über die Funktionsweise solcher Angriffe informiert und geschult werden, um diese frühzeitig zu erkennen.Die Diskussion um die Sicherheitslücke bei Google Gemini und die Reaktion des Unternehmens wirft grundlegende Fragen zur Verantwortung im Umgang mit KI-Technologien auf und unterstreicht die Notwendigkeit einer kontinuierlichen Auseinandersetzung mit den Sicherheitsaspekten in der rasant fortschreitenden KI-Landschaft.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen