OpenAI unterbindet gezielte Einflussnahmen durch fortschrittliche KI-Sicherheitsmaßnahmen

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Artikel jetzt als Podcast anhören

OpenAI Verhindert Fünf Heimliche Einflussoperationen

Einführung

In den letzten drei Monaten hat das US-amerikanische Unternehmen OpenAI fünf heimliche Einflussoperationen (IO) aufgedeckt und unterbunden, die versuchten, die Modelle des Unternehmens für betrügerische Aktivitäten im Internet zu nutzen. Diese Operationen zeigten keine wesentliche Steigerung der Reichweite oder des Engagements des Publikums dank der Dienste von OpenAI.

Sicherheitsorientiertes Design

OpenAI betont, dass das Engagement des Unternehmens für die Entwicklung von KI-Modellen mit Sicherheitsaspekten häufig die Versuche der Bedrohungsakteure, den gewünschten Inhalt zu generieren, vereitelt hat. Darüber hinaus hat das Unternehmen erklärt, dass KI-Tools die Effizienz der Untersuchungen von OpenAI erheblich verbessert haben.

Unterbindung Heimlicher IO

In den letzten drei Monaten hat OpenAI mehrere IO-Operationen unterbunden, die seine Modelle für verschiedene Aufgaben genutzt haben, darunter das Erstellen kurzer Kommentare, das Erstellen gefälschter Social-Media-Profile, das Durchführen von Open-Source-Forschung, das Debuggen einfacher Codes und das Übersetzen von Texten.

Spezifische Unterbundene Operationen

Zu den spezifischen Operationen, die unterbunden wurden, gehören:


   - Bad Grammar: Eine zuvor nicht gemeldete Operation aus Russland, die sich gegen die Ukraine, Moldawien, die baltischen Staaten und die USA richtete. Diese Gruppe nutzte die Modelle von OpenAI zum Debuggen von Code für einen Telegram-Bot und zum Erstellen politischer Kommentare in Russisch und Englisch, die auf Telegram gepostet wurden.

   - Doppelganger: Eine weitere russische Operation, die Kommentare in mehreren Sprachen auf Plattformen wie X und 9GAG generierte, Artikel übersetzte und bearbeitete, Schlagzeilen generierte und Nachrichtenartikel in Facebook-Posts umwandelte.

   - Spamouflage: Ein chinesisches Netzwerk, das die Modelle von OpenAI für öffentliche Social-Media-Aktivitätsforschung, das Generieren von Texten in mehreren Sprachen und das Debuggen von Code für die Verwaltung von Datenbanken und Websites nutzte.

   - International Union of Virtual Media (IUVM): Eine iranische Operation, die lange Artikel, Schlagzeilen und Website-Tags generierte und übersetzte und auf einer verknüpften Website veröffentlichte.

   - Zero Zeno: Ein kommerzielles Unternehmen in Israel, dessen Operationen Artikel und Kommentare generierten, die auf mehreren Plattformen, einschließlich Instagram, Facebook, X und angeschlossenen Websites, gepostet wurden.

Inhalte der Operationen

Die von diesen Operationen geposteten Inhalte konzentrierten sich auf verschiedene Themen, darunter die russische Invasion in der Ukraine, der Gaza-Konflikt, die indischen Wahlen, die europäische und US-amerikanische Politik sowie Kritiken an der chinesischen Regierung. Trotz dieser Bemühungen zeigte keine dieser Operationen eine signifikante Steigerung des Publikumsengagements, was auf die Effizienz der Sicherheitsmaßnahmen von OpenAI zurückzuführen ist.

Trends bei den Angreifern

Die Untersuchungen dieser Einflussoperationen haben mehrere Trends offenbart:


   - Inhaltserstellung: Bedrohungsakteure nutzten die Dienste von OpenAI, um große Mengen an Text mit weniger Sprachfehlern zu erzeugen, als es menschliche Operatoren allein könnten.

   - Mischung von Alt und Neu: KI wurde neben traditionellen Formaten wie manuell geschriebenen Texten oder kopierten Memes verwendet.

   - Gefälschtes Engagement: Einige Netzwerke generierten Antworten auf ihre eigenen Posts, um den Anschein von Engagement zu erwecken, obwohl keine authentische Beteiligung erreicht wurde.

   - Produktivitätsgewinne: Bedrohungsakteure nutzten KI, um die Produktivität zu steigern, indem sie Social-Media-Posts zusammenfassten und Code debuggen.

Defensive Trends

Die Untersuchungen von OpenAI profitierten von der Branchenweitergabe und Open-Source-Forschung. Zu den Verteidigungsmaßnahmen gehören:


   - Defensives Design: Die Sicherheitssysteme von OpenAI machten es Bedrohungsakteuren schwer, den gewünschten Inhalt zu generieren.

   - KI-unterstützte Untersuchung: KI-gestützte Tools verbesserten die Effizienz der Erkennung und Analyse, wodurch sich die Untersuchungszeiten von Wochen oder Monaten auf Tage verkürzten.

   - Verteilung ist entscheidend: IO-Inhalte müssen wie herkömmliche Inhalte effektiv verteilt werden, um ein Publikum zu erreichen. Trotz ihrer Bemühungen gelang es keiner der unterbundenen Operationen, ein erhebliches Engagement zu erzielen.

   - Bedeutung des Branchenaustauschs: Der Austausch von Bedrohungsindikatoren mit Branchenkollegen erhöhte die Wirksamkeit der Unterbrechungen von OpenAI. Das Unternehmen profitierte von jahrelanger Open-Source-Analyse durch die breitere Forschungsgemeinschaft.

   - Der menschliche Faktor: Trotz der Nutzung von KI waren Bedrohungsakteure anfällig für menschliche Fehler, wie z.B. das Veröffentlichen von Ablehnungsnachrichten der OpenAI-Modelle auf ihren Social Media und Websites.

Engagement für Sichere und Verantwortungsvolle KI

OpenAI betont, dass das Unternehmen weiterhin bestrebt ist, sichere und verantwortungsvolle KI zu entwickeln. Dies umfasst das Design von Modellen mit Sicherheitsaspekten und das proaktive Eingreifen gegen missbräuchliche Nutzung.

Obwohl das Unternehmen zugibt, dass es eine Herausforderung ist, plattformübergreifende Missbräuche wie heimliche Einflussoperationen zu erkennen und zu unterbinden, behauptet OpenAI, dass es sich verpflichtet fühlt, die damit verbundenen Gefahren zu mindern.

Fazit

Die jüngsten Bemühungen von OpenAI, heimliche Einflussoperationen zu unterbinden, zeigen die Bedeutung von Sicherheitsmaßnahmen und branchenweitem Austausch bei der Bekämpfung von Missbrauch von KI-Technologien. Während die Bedrohungen weiterhin bestehen, bleibt OpenAI engagiert, die Sicherheit und Verantwortlichkeit seiner Modelle zu gewährleisten und gegen missbräuchliche Nutzung vorzugehen.

Bibliographie


   https://openai.com/index/disrupting-deceptive-uses-of-AI-by-covert-influence-operations/
   https://www.artificialintelligence-news.com/2024/05/31/openai-disrupts-five-covert-influence-operations/
   https://www.reuters.com/technology/cybersecurity/openai-has-stopped-five-attempts-misuse-its-ai-deceptive-activity-2024-05-30/
   https://cointelegraph.com/news/openai-disrupts-global-influence-operations-abusing-ai-tech
   https://siliconangle.com/2024/05/30/openai-disrupts-international-influence-operations-using-ai-tools/
   https://www.theregister.com/2024/05/30/openai_stops_five_ineffective_ai/
   https://techreport.com/news/openai-disrupts-five-ai-misuse-attempts/
   https://www.npr.org/2024/05/30/g-s1-1670/openai-influence-operations-china-russia-israel
   https://www.aljazeera.com/economy/2024/5/31/openai-says-it-disrupted-chinese-russian-israeli-influence-campaigns
   https://thehackernews.com/2024/05/openai-meta-tiktok-disrupt-multiple-ai.html

Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
No items found.