In einer Welt, in der digitale Inhalte in rasantem Tempo erstellt und geteilt werden, ist es entscheidend, deren Herkunft und Authentizität zu verstehen. OpenAI, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz, hat in dieser Hinsicht einen bedeutenden Schritt nach vorne gemacht. Das Unternehmen kündigte kürzlich an, dass es einen neuen Klassifikator einführt, um Forschern zu helfen, Inhalte zu identifizieren, die mit DALL·E 3 erstellt wurden. Darüber hinaus tritt OpenAI dem Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA) bei, um Industriestandards für digitale Inhalte zu fördern.
DALL·E 3, das neueste Bildgenerierungsmodell von OpenAI, wird nun mit Wasserzeichen versehen, die in die Metadaten der Bilder eingebettet sind. Diese Wasserzeichen, die von der C2PA unterstützt werden, werden auf der ChatGPT-Website und über die DALL·E 3 API sichtbar sein. Sie umfassen sowohl eine unsichtbare Metadatenkomponente als auch ein sichtbares CR-Symbol, das in der oberen linken Ecke jedes Bildes erscheint. Die Initiative zielt darauf ab, das Vertrauen in und die Transparenz von maschinell erstellten Inhalten zu steigern. Verschiedene Unternehmen haben bereits begonnen, Wasserzeichen für von KI erzeugte Bilder zu implementieren, sowie die Provenienzstandards der C2PA zu übernehmen, aus ethischen Gründen, aber auch, um den aufkommenden rechtlichen Rahmenbedingungen für KI-generierte Medien nachzukommen.
Die Einführung von Wasserzeichen und Metadaten für Bilder, die von DALL·E 3 generiert wurden, soll die Transparenz und das Vertrauen in die von DALL·E erstellten Bilder erhöhen. Obwohl Metadaten nicht unfehlbar sind und leicht entfernt oder umgangen werden können, betrachtet OpenAI die Implementierung von Provenienzinformationen in die von seinem Modell generierten Bilder und die Motivation seiner Nutzer, mit ihnen zu arbeiten, als einen Weg, die verantwortungsvolle Nutzung dieser Art von Inhalten und die Vertrauenswürdigkeit digitaler Medien insgesamt zu verbessern.
Konkurrierende Unternehmen wie Meta oder Google verwenden bereits AI-enthüllende Wasserzeichen, sei es C2PA-konforme oder eigene. Dies geschieht nicht nur, um transparenter zu sein, sondern auch, um kommenden Regulierungen für KI-generierte Inhalte zuvorzukommen, die sich weltweit noch in den Anfängen befinden, aber sicherlich entwickeln. In den USA beispielsweise hat die Regierung Ende 2023 eine Exekutivverordnung erlassen, die Sicherheitsrichtlinien für KI bereitstellt, zu denen insbesondere die eindeutige Kennzeichnung von KI-generierten Medien als solche gehört.
Mit der Einführung des neuen Klassifikators setzt OpenAI den Fokus auf die Forschungsunterstützung. Dieses Tool wird Forschern dabei helfen, Inhalte, die von DALL·E 3 erstellt wurden, genauer zu identifizieren. Die Software wird in der Lage sein, Signaturen zu erkennen, die anzeigen, dass die Bilder vom zugrunde liegenden DALL·E 3-Modell generiert wurden. Darüber hinaus wird ein zusätzliches Manifest in die Bilder eingebettet, das angibt, dass der Inhalt mit ChatGPT erstellt wurde. Dies schafft eine doppelte Provenienzlinie, die die Transparenz weiter fördert.
Die C2PA, eine Koalition, die von Unternehmen wie Adobe und Microsoft gegründet wurde, hat einen offenen technischen Standard entwickelt, der es Herausgebern, Unternehmen und anderen ermöglicht, Medien mit Metadaten zu versehen, um deren Herkunft und verwandte Informationen zu überprüfen. Kamerahersteller wie Sony und Leica integrieren diese Technologie ebenfalls in ihre Hardware. Adobe und Microsoft unterstützen sie ebenfalls.
Es ist wichtig anzumerken, dass Metadaten wie die von C2PA vorgeschlagenen keine Allheilmittel sind, um Probleme der Provenienz anzugehen. Sie können versehentlich oder absichtlich entfernt werden. So entfernen beispielsweise die meisten sozialen Medienplattformen heute Metadaten von hochgeladenen Bildern, und Aktionen wie das Erstellen eines Screenshots können sie ebenfalls entfernen. Daher kann ein Bild, dem diese Metadaten fehlen, entweder mit ChatGPT oder über unsere API generiert worden sein oder auch nicht.
OpenAI betont, dass die Annahme dieser Methoden zur Feststellung der Provenienz und die Ermutigung der Nutzer, diese Signale zu erkennen, Schlüssel zur Erhöhung der Vertrauenswürdigkeit digitaler Informationen sind. Mit diesen Schritten zeigt sich OpenAI entschlossen, an der Spitze des Umgangs mit KI-generierten Medien zu stehen und die Bedeutung der Authentizität in der digitalen Welt zu unterstreichen.
Die Einführung dieser neuen Maßnahmen durch OpenAI ist ein klares Zeichen dafür, dass das Unternehmen die Verantwortung für die von seiner Technologie generierten Inhalte ernst nimmt. In einer Zeit, in der die Unterscheidung zwischen menschlich erstellten und KI-generierten Inhalten zunehmend schwieriger wird, sind Initiativen wie diese entscheidend für die Aufrechterhaltung der Integrität und des Vertrauens in digitale Medien. Es bleibt abzuwarten, wie sich diese Technologien weiterentwickeln und wie sich andere Akteure in der Branche an diese neuen Standards anpassen werden.
Quellen:
- OpenAI DALL·E 3 Introduction and Watermarks: https://openai.com/dall-e-3
- The Verge: AI Watermarks and DALL·E 3 Content Credentials: https://www.theverge.com/2024/2/6/24063954/ai-watermarks-dalle3-openai-content-credentials
- OpenAI Help Center: C2PA in DALL·E 3: https://help.openai.com/en/articles/8912793-c2pa-in-dall-e-3
- AI Secrets: OpenAI Watermarks for AI-Generated Images: https://aisecrets.com/news/openai-watermarks-ai-generated-images/
- DALL·E Official Page: https://openai.com/index/dall-e
- PetaPixel: AI Images and Content Authenticity Tag: https://petapixel.com/2024/02/08/ai-images-generated-on-dall-e-now-contain-the-content-authenticity-tag/
- InnoWave Tech on OpenAI New Watermarks: https://innowave.tech/openai-new-watermarks-in-dall-e-3/
- OpenAI Blog: New AI Classifier for Indicating AI-Written Text: https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text