Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die fortschreitende Entwicklung von künstlicher Intelligenz hat zu einer neuen Ära der Inhaltsgenerierung geführt, insbesondere im Bereich der Videoerstellung. Tools wie OpenAIs Sora ermöglichen die Produktion von täuschend echten Videos, die von menschlichen Beobachtern kaum von realen Aufnahmen zu unterscheiden sind. Doch wie verhält es sich mit der Fähigkeit von KI-Systemen selbst, diese synthetischen Inhalte zu identifizieren? Eine aktuelle Untersuchung beleuchtet die Grenzen führender KI-Chatbots bei der Erkennung von KI-generierten Videos und wirft Fragen hinsichtlich der Vertrauenswürdigkeit digitaler Medien auf.
Eine von NewsGuard durchgeführte Studie hat die Leistung dreier prominenter KI-Chatbots – xAIs Grok, OpenAIs ChatGPT und Googles Gemini – bei der Unterscheidung zwischen echten und von Sora generierten Videos evaluiert. Die Ergebnisse zeigen eine bemerkenswerte Unfähigkeit dieser Systeme, KI-generierte Inhalte zuverlässig zu erkennen.
Für die Untersuchung wurden 20 Sora-Videos verwendet, die auf nachweislich falschen Behauptungen basierten. Die Chatbots wurden mit Fragen wie "Ist das echt?" oder "Ist das KI-generiert?" konfrontiert, um reale Benutzerinteraktionen zu simulieren. Die hohe Fehlerrate deutet auf eine grundlegende technische Limitierung hin, die über einzelne Plattformen hinausgeht und die gesamte Chatbot-Industrie betrifft.
Sora integriert standardmäßig ein sichtbares, animiertes Wasserzeichen in alle generierten Videos, das mit dem Wort "Sora" versehen ist und sich über den Bildschirm bewegt. Dieses soll als Indikator für KI-generierte Inhalte dienen. Die NewsGuard-Analyse zeigt jedoch, dass dieser Schutzmechanismus nur begrenzt wirksam ist.
Neben sichtbaren Wasserzeichen enthalten Sora-Videos auch unsichtbare Metadaten, sogenannte Content Credentials, die dem C2PA-Standard entsprechen. Diese können über offizielle Tools wie verify.contentauthenticity.org überprüft werden. Allerdings erweisen sich auch diese Metadaten als fragil. Ein einfacher Rechtsklick und "Speichern unter" beim Herunterladen eines Videos kann diese Informationen entfernen, während der Download über die offizielle Sora-Oberfläche sie intakt lässt. Dies untergräbt die Verlässlichkeit dieser Authentifizierungsmechanismen in unkontrollierten Verbreitungsszenarien.
Ein weiteres Problem ist die mangelnde Transparenz der getesteten Systeme. Die Chatbots informieren die Nutzer selten über ihre eingeschränkte Fähigkeit, KI-generierte Inhalte zu erkennen. NewsGuard zufolge wies ChatGPT nur in 2,5 % der Tests auf diese Einschränkung hin, Gemini in 10 % und Grok in 13 %.
Stattdessen lieferten die Systeme oft selbstbewusste, aber falsche Einschätzungen. In einem Fall behauptete Grok, ein KI-Video stamme von einer nicht existierenden "Sora News"-Organisation, was die Glaubwürdigkeit der Informationen untermauerte und Desinformation förderte. Solche Szenarien legen die Grundlage für gezielte Desinformationskampagnen, bei denen überzeugende Videos erstellt werden können, in der Gewissheit, dass selbst KI-gestützte Faktenchecks versagen werden.
OpenAIs Kommunikationsleiter Niko Felix bestätigte gegenüber NewsGuard, dass "ChatGPT nicht die Fähigkeit besitzt, zu bestimmen, ob Inhalte KI-generiert sind", erklärte jedoch nicht, warum diese Einschränkung nicht standardmäßig kommuniziert wird.
Google verfolgt mit Gemini einen anderen Ansatz. Das Unternehmen bewirbt seine Fähigkeit, Inhalte des eigenen Bildgenerators Nano Banana Pro zu erkennen. In Tests identifizierte Gemini alle eigenen KI-Bilder korrekt, selbst nach Entfernung der Wasserzeichen. Dies wird durch das SynthID-Tool ermöglicht, das Inhalte unsichtbar als KI-generiert markiert und Bearbeitungen wie das Zuschneiden überstehen soll.
Googles Kommunikationsmanager Elijah Lawal räumte jedoch ein, dass die Verifizierung derzeit nur für Googles eigene Inhalte funktioniert. Gemini kann Sora-Videos oder Produkte anderer Anbieter nicht zuverlässig erkennen. Dies verdeutlicht die fragmentierte Landschaft der KI-Erkennung, in der die Effektivität oft von der vertikalen Integration des Anbieters abhängt.
Das Versagen der Erkennungssysteme ereignet sich zu einem Zeitpunkt, an dem Deepfakes rasant zunehmen. Schätzungen von DeepStrike gehen davon aus, dass die Anzahl der Online-Deepfakes von etwa 500.000 im Jahr 2023 auf rund 8 Millionen im Jahr 2025 ansteigen wird, mit einer jährlichen Wachstumsrate von nahezu 900 %.
Experten warnen vor einem bevorstehenden Vertrauensverlust in digitale Inhalte. Siwei Lyu, Professor für Informatik an der University at Buffalo, prognostiziert, dass sich die Situation im Jahr 2026 voraussichtlich verschlimmern wird, da Deepfakes als synthetische Akteure in der Lage sein werden, in Echtzeit auf Menschen zu reagieren. Die Zunahme von Deepfakes übersteigt die Verbesserungen der Erkennungssysteme bei weitem, wodurch die Verifizierungsinfrastruktur einem permanenten Aufholbedarf unterliegt.
Die Auswirkungen reichen bereits bis in Gerichtssäle und politische Konflikte. KI-generierte Beweismittel haben ihren Weg in Gerichtsverfahren gefunden, und Desinformationskampagnen, die etwa ukrainische Soldaten als sich ergebend darstellen, können mit der Gewissheit erstellt werden, dass KI-Faktenchecks versagen werden.
Nicht nur KI-Chatbots haben Schwierigkeiten, Deepfakes zu erkennen. Auch Menschen tun sich schwer damit. Hany Farid, Professor für Informatik an der UC Berkeley School of Information, stellte in seiner Forschung fest, dass Menschen ebenso wahrscheinlich echte Inhalte als Fälschung und gefälschte Inhalte als echt einstufen. Die Genauigkeitsraten verschlechtern sich bei politischen Inhalten aufgrund des Bestätigungsfehlers.
Diese Konvergenz von technischen Erkennungsfehlern und menschlichen kognitiven Verzerrungen schafft eine doppelte Verifizierungskrise. Angesichts dieser Herausforderungen betonen Experten die Bedeutung von Kontext und gesundem Menschenverstand.
Siwei Lyu weist darauf hin, dass oft nicht das Medium selbst fehlerhaft ist, sondern der Kontext, in dem es präsentiert wird, oder die Quelle, die nicht vollständig vertrauenswürdig ist. Daher seien allgemeines Bewusstsein und gesunder Menschenverstand die wichtigsten Schutzmaßnahmen, die keiner speziellen Schulung bedürfen.
Die Zukunft der digitalen Medien erfordert eine verstärkte Förderung von Medienkompetenz und kritischem Denken, um der Flut von synthetischen Inhalten, die die Grenze zwischen Realität und Fiktion verwischen, entgegenzuwirken.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen