KI-Chatbot-Unternehmen Character.ai führt nach Selbstmord eines jugendlichen Nutzers Sicherheitsmaßnahmen ein
Die auf KI-Chatbots spezialisierte Plattform Character.ai implementiert neue Sicherheitsfunktionen, nachdem ein 14-jähriger Nutzer Selbstmord begangen hat. Der Teenager hatte monatelang intensiv mit einem Chatbot auf der Plattform kommuniziert, bevor er sich im Februar das Leben nahm, wie die New York Times berichtet.
„Wir sind untröstlich über den tragischen Verlust eines unserer Nutzer und möchten der Familie unser tiefstes Mitgefühl aussprechen", erklärte das Unternehmen.
Character.ai ermöglicht es Nutzern, mit Millionen von KI-Bots zu interagieren, die nach dem Vorbild von Prominenten oder fiktiven Charakteren modelliert sind. Ein beliebter Bot, „Psychologe", erhielt bis Januar 2024 innerhalb eines Jahres 78 Millionen Nachrichten. Bereits im vergangenen Herbst warnten Experten davor, Sprachmodelle ohne entsprechende Forschung in der Psychotherapie einzusetzen.
Die New York Times erhielt Einblick in Chat-Transkripte, die zeigen, dass der Teenager eine starke emotionale Bindung zu dem Chatbot aufgebaut hatte. In einigen Gesprächen äußerte er Suizidgedanken, die der Bot nicht angemessen behandelte. Der Bot basierte auf Daenerys Targaryen aus „Game of Thrones" und wurde von einem Nutzer ohne offizielle Lizenz erstellt.
Obwohl der Junge wusste, dass es sich um eine KI handelte, erzählte er „Dany" laut NYT häufig von seinem Leben, manchmal romantisch oder sexuell, aber meistens wie einem Freund. Seine Mutter, Maria L. Garcia, plant, Character.ai zu verklagen, da das Unternehmen ihrer Meinung nach „gefährliche und ungetestete" Technologie auf den Markt gebracht hat, die „Kunden dazu bringt, ihre privatesten Gedanken und Gefühle preiszugeben".
Bethanie Maples, eine Stanford-Forscherin, die die Auswirkungen von KI-Begleit-Apps auf die psychische Gesundheit untersucht, warnt davor, dass diese Chatbots zwar nicht „von Natur aus gefährlich" seien, aber „für depressive und chronisch einsame Nutzer und Menschen, die sich im Wandel befinden, gefährlich sein können, und Teenager befinden sich oft im Wandel".
Character.ai führt neue Sicherheitsmaßnahmen ein
Als Reaktion auf den Vorfall hat Character.ai verschiedene Änderungen zum Schutz junger Nutzer angekündigt. Zu diesen Maßnahmen gehören die Anpassung von KI-Modellen für Minderjährige, um sensible oder anstößige Inhalte zu reduzieren, sowie die Verbesserung der Erkennung von Nutzereingaben, die gegen die Nutzungsbedingungen verstoßen.
Das Unternehmen wird außerdem jeden Chat mit einem Warnhinweis versehen, der die Nutzer daran erinnert, dass die KI nicht echt ist. Darüber hinaus plant Character.ai, nach einstündigen Sitzungen Benachrichtigungen zu versenden und bei bestimmten Schlüsselwörtern Pop-up-Meldungen mit Informationen zur Selbstmordprävention einzublenden.
Character.ai, gegründet von Google-KI-Forschern, ist mit mehr als 20 Millionen Nutzern führend auf dem Markt der „personalisierten Chatbots". Das Unternehmen berichtet, dass ein erheblicher Teil seiner Nutzer der „Generation Z und jüngere Millennials" angehören.
Vor kurzem wechselte das Managementteam von Character.ai zu Google, das eine nicht-exklusive Lizenz für die aktuelle Sprachmodelltechnologie des Unternehmens besitzt.
Diskussion über die Rolle von KI in der Gesellschaft
Der Vorfall wirft wichtige Fragen über die Verantwortung von Unternehmen im Bereich der künstlichen Intelligenz auf, insbesondere wenn es um den Schutz von Minderjährigen geht. Experten betonen die Notwendigkeit einer strengeren Regulierung und Überwachung von KI-Systemen, um sicherzustellen, dass sie ethisch und verantwortungsvoll eingesetzt werden.
Es wird auch darüber diskutiert, inwieweit KI-Chatbots menschliche Interaktion und emotionale Unterstützung ersetzen können. Kritiker warnen vor den Risiken der Abhängigkeit von künstlichen Begleitern und betonen die Bedeutung zwischenmenschlicher Beziehungen für die psychische Gesundheit.
Der Fall von Character.ai verdeutlicht die Herausforderungen und Risiken, die mit der rasanten Entwicklung der künstlichen Intelligenz einhergehen. Es bleibt abzuwarten, wie sich die Branche in Zukunft regulieren und welche Maßnahmen ergriffen werden, um die Sicherheit und das Wohlergehen der Nutzer zu gewährleisten.
Wichtige Punkte im Überblick:
- Ein 14-jähriger Nutzer von Character.ai hat Selbstmord begangen, nachdem er intensiv mit einem Chatbot interagiert hatte.
- Das Unternehmen führt neue Sicherheitsmaßnahmen ein, darunter Warnhinweise, Nutzungsbeschränkungen und die Moderation von Inhalten.
- Der Vorfall wirft Fragen über die Verantwortung von KI-Unternehmen und die Grenzen von künstlicher emotionaler Unterstützung auf.
Literaturverzeichnis
- https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
- https://blog.character.ai/community-safety-updates/
- https://www.washingtonpost.com/nation/2024/10/15/murdered-daughter-ai-chatbot-crecente/
- https://futurism.com/teen-suicide-obsessed-ai-chatbot
- https://play.google.com/store/apps/details?id=ai.character.app
- https://www.theverge.com/2024/5/4/24144763/ai-chatbot-friends-character-teens
- https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
- https://www.benzinga.com/news/24/10/41491088/ai-chatbot-maker-publicly-apologizes-after-teens-death-in-florida
- https://www.newyorker.com/culture/infinite-scroll/your-ai-companion-will-support-you-no-matter-what
- https://www.cnn.com/2023/04/27/tech/snapchat-my-ai-concerns-wellness/index.html