Eine aktuelle Studie der University of Michigan hat ergeben, dass Deepfakes auf der Social-Media-Plattform X (ehemals Twitter) wesentlich schneller gelöscht werden, wenn sie als Urheberrechtsverletzungen gemeldet werden, verglichen mit Meldungen, die auf nicht einvernehmliche intime Darstellungen verweisen.
Im Rahmen der Studie posteten die Forscher 50 KI-generierte Nacktbilder auf Twitter. 25 Bilder meldeten sie als Urheberrechtsverletzungen, die anderen 25 als nicht einvernehmliche intime Darstellungen. Das Ergebnis: Alle Bilder, die als Urheberrechtsverletzung gemeldet wurden, löschte X innerhalb von 25 Stunden. Zusätzlich wurden die Accounts, die die Bilder posteten, temporär gesperrt.
Im Gegensatz dazu blieben die Bilder, die als nicht einvernehmliche intime Darstellungen gemeldet wurden, auch drei Wochen nach der Meldung online. Die Accounts, die diese Bilder posteten, erhielten weder eine Verwarnung, noch wurden sie gesperrt.
Die schnelle Reaktion bei Urheberrechtsverletzungen lässt sich durch die Gesetzgebung in den USA erklären. Der Digital Millennium Copyright Act (DMCA), der 1998 verabschiedet wurde, verpflichtet Plattformen dazu, auf Meldungen zu Urheberrechtsverletzungen schnell zu reagieren. Für X scheint dieser rechtliche Rahmen ausreichend Anreiz zu sein, um zeitnah gegen Urheberrechtsverletzungen vorzugehen.
Obwohl es in einigen US-Bundesstaaten Gesetze gegen die Verbreitung nicht einvernehmlicher intimer Darstellungen gibt, existiert auf nationaler Ebene kein einheitlicher Rechtsrahmen. Aktuell werden Bestrebungen für ein landesweit gültiges Gesetz vorangetrieben. Die fehlende, eindeutige Rechtsgrundlage könnte erklären, warum X Meldungen zu intimen Darstellungen und Deepfakes weniger konsequent nachgeht.
Die Autoren der Studie üben Kritik an der schwammigen Rechtslage, die X ausnutzt. Sie fordern eine Anpassung der Gesetzgebung, um Plattformen zu verpflichten, Meldungen zu nicht einvernehmlichen intimen Darstellungen genauso schnell zu bearbeiten wie Urheberrechtsverletzungen.
Die Datenschutzgrundverordnung (DSGVO) der Europäischen Union wird als positives Beispiel herangezogen. Die DSGVO hat den Umgang von Plattformen mit Nutzerdaten und -inhalten grundlegend verändert. Die Autoren der Studie plädieren für einen ähnlich verbindlichen Rechtsrahmen zum Schutz intimer persönlicher Darstellungen.
Innerhalb der EU fallen nicht einvernehmliche Veröffentlichungen von Nacktbildern sowie Deepfakes unter den Digital Services Act (DSA). Der DSA trat im Februar 2024 in Kraft. Das Gesetz verpflichtet Plattformen, solche Inhalte zeitnah zu moderieren.
Die Studie zeigt, dass die unterschiedliche Handhabung von Meldungen zu Deepfakes auf X durch die Gesetzgebung beeinflusst wird. Um Nutzer besser vor den negativen Folgen von Deepfakes zu schützen, erscheint eine Angleichung der Rechtslage dringend notwendig.