Mit der wachsenden Verbreitung von Sprachmodellen (LMs) in personalisierten Kommunikationsszenarien, wie dem Versenden von E-Mails oder dem Verfassen von Beiträgen in sozialen Medien, steigt auch die Notwendigkeit, dass diese Modelle den kontextuellen Datenschutzrichtlinien folgen. Dabei stellt sich die Frage, wie das Bewusstsein für Datenschutznormen bei LMs quantifiziert werden kann und welche Risiken im Zusammenhang mit der Privatsphäre bei der Kommunikation durch diese Modelle entstehen. Um diese Herausforderungen zu adressieren, wurde PrivacyLens entwickelt.
Die Bewertung des Bewusstseins von Datenschutznormen bei Sprachmodellen ist aufgrund der kontextuellen und langwierigen Natur von datenschutzsensiblen Fällen sowie des Mangels an realistischen Bewertungsszenarien schwierig. Bisherige Ansätze konzentrieren sich meist auf einfache Abfrage- und Antwortszenarien, die nicht die komplexeren und realitätsnahen Anwendungen abbilden, in denen LMs agieren.
PrivacyLens ist ein neuartiger Rahmen, der darauf abzielt, datenschutzsensible Szenarien in ausdrucksstarke Vignetten und weiter in Agenten-Trajektorien zu erweitern, um eine mehrstufige Bewertung des Datenschutzlecks bei Aktionen von LM-Agenten zu ermöglichen. Der Rahmen stützt sich auf eine Sammlung von Datenschutznormen, die in der Literatur zum Datenschutz verankert sind, sowie auf crowdsourced Seeds.
PrivacyLens bietet eine mehrstufige Bewertung, die von der Beantwortung von Abfragefragen bis hin zur tatsächlichen Ausführung von Benutzeranweisungen durch LM-Agenten reicht. Dabei wird ein erheblicher Unterschied zwischen der Leistung der Modelle bei der Beantwortung von Abfragen und ihrem tatsächlichen Verhalten festgestellt.
Die Studie zeigt, dass selbst hochmoderne Sprachmodelle wie GPT-4 und Llama-3-70B in 25,68% bzw. 38,69% der Fälle sensible Informationen preisgeben, selbst wenn sie mit datenschutzfördernden Anweisungen versehen sind. Diese Ergebnisse unterstreichen die Notwendigkeit einer kontextualisierten Bewertung und eines verantwortungsvollen Aufbaus von LM-Agenten.
Die Ergebnisse der Studie basieren auf einer Sammlung von 493 datenschutzsensiblen Seeds, die aus US-Datenschutzvorschriften, Literatur zu gefährdeten Gruppen und Crowdsourcing stammen. Diese Seeds wurden in Vignetten und Trajektorien erweitert, um ein umfassendes Bild der Datenschutzrisiken zu zeichnen.
PrivacyLens verwendet mehrstufige Fragevorlagen, um das Datenschutzbewusstsein der Modelle auf verschiedenen Ebenen zu testen. Diese Methode zeigt, dass es eine Diskrepanz zwischen den Antworten der Modelle auf gezielte Fragen und ihrem tatsächlichen Verhalten gibt.
Bei der aktionsbasierten Bewertung wird das endgültige Handeln eines LM-Agenten anhand der Trajektoriendatenpunkte bewertet. Dabei werden die Leckagerate und die Nützlichkeitsbewertung der endgültigen Aktion berechnet. Diese Methode zeigt, dass selbst datenschutzfördernde Anweisungen nicht immer ausreichen, um Datenschutzlecks zu verhindern.
Die Ergebnisse der PrivacyLens-Studie verdeutlichen die Notwendigkeit einer kontextualisierten Evaluation und eines verantwortungsvollen Aufbaus von Sprachmodellen. Es besteht ein erheblicher Bedarf an verbesserten Methoden zur Sicherstellung des Datenschutzes in LM-vermittelter Kommunikation. PrivacyLens bietet dabei einen wertvollen Rahmen für die Weiterentwicklung und Bewertung von Datenschutzmaßnahmen in Sprachmodellen.