Eine kürzlich veröffentlichte Untersuchung hat das Potenzial von Künstlicher Intelligenz (KI) zur Bekämpfung von Desinformation und Verschwörungsmythen untersucht. In der Studie führten über 2.000 Teilnehmer Gespräche mit dem KI-Chatbot ChatGPT-4 Turbo, um die Wirksamkeit dieser Technologie im Umgang mit Verschwörungsgläubigen zu testen. Die Ergebnisse zeigen, dass solche Gespräche den Glauben an Verschwörungstheorien signifikant und langfristig senken können.
Für das Experiment wurden die Teilnehmer zunächst gebeten, eine Verschwörungstheorie und die angeblichen Beweise dafür zu schildern. Anschließend gaben sie auf einer Skala von 0 bis 100 Prozent an, wie sicher sie sich waren, dass die Verschwörungstheorie wahr ist. Danach wurden die Teilnehmer nach dem Zufallsprinzip in eine Test- und eine Kontrollgruppe eingeteilt.
Die Testgruppe diskutierte mit dem Chatbot die Faktenlage rund um die geschilderte Theorie, wobei der Bot die Aufgabe hatte, die Teilnehmer von ihrer Überzeugung abzubringen. Im Durchschnitt dauerten die Unterhaltungen weniger als zehn Minuten. Die Kontrollgruppe dagegen besprach ein von der Theorie unabhängiges Thema mit dem Chatbot.
Nach den Gesprächen wurden beide Gruppen erneut gefragt, wie überzeugt sie von der Verschwörungstheorie sind. Die Testgruppe zeigte eine um etwa 17 Prozentpunkte stärkere Abnahme der Überzeugungen als die Kontrollgruppe. Bei etwa einem Viertel der Teilnehmer sank die Überzeugung so weit, dass sie sich weniger als 50 Prozent sicher waren, dass die Theorie wahr sei.
Um die Nachhaltigkeit der Veränderungen zu überprüfen, wurden die Teilnehmer Monate später erneut befragt. Auch dann konnte der Effekt weiterhin gemessen werden, was darauf hindeutet, dass die Gespräche mit dem KI-Chatbot einen langfristigen Einfluss auf die Überzeugungen der Teilnehmer hatten.
Die Idee, durch überzeugende Gegenargumente gegen Fake News und Verschwörungstheorien vorzugehen, ist nicht neu. In der Forschung wird dies als "Debunking" bezeichnet. Neu ist jedoch die Idee, die Auswahl der präsentierten Gegenargumente mithilfe eines KI-Chatbots an die konkreten Überzeugungen der jeweiligen Person anzupassen.
Dr. Stefan Feuerriegel von der Ludwig-Maximilians-Universität München betont, dass die Ergebnisse der Studie sehr spannend seien. In der Wissenschaft gab es bisher einen großen Disput darüber, wie man Menschen mit Glauben an Verschwörungstheorien erfolgreich zum Umdenken bringen könne. Die Studie zeigt, dass Fakten in einem längeren Gespräch durchaus helfen können.
Es bleibt unklar, ob der spezifische Effekt auf den KI-Chatbot zurückzuführen ist oder ob ein Dialog mit anderen Menschen ähnliche Ergebnisse hätte erzielen können. Die Studie richtete sich an ein durchschnittliches Abbild der Bevölkerung, die zwar spezifische Verschwörungstheorien glaubte, aber vermutlich mit eher geringer Überzeugung. Wie stark in Verschwörungstheorien verstrickte Personen reagieren würden, bleibt offen.
Überraschend war auch, dass über 99 Prozent der vom KI-System vorgebrachten Fakten korrekt waren. Dies unterstreicht das Potenzial von KI-gestützten Interventionen zur Bekämpfung von Desinformation.
Die Studie widerlegt bisherige Annahmen, dass Verschwörungsglauben resistent gegenüber Fakten sei, und zeigt das Potenzial von KI-Chatbots zur Bekämpfung von Desinformation. Zukünftige Forschung könnte sich darauf konzentrieren, wie verschiedene Überzeugungstechniken durch KI erfolgreich angewendet werden können und welche ethischen Fragen dabei berücksichtigt werden müssen.