KI-gestützte Suchmaschinen wie Google, Microsoft und Perplexity haben in den letzten Jahren erheblich an Popularität gewonnen. Sie bieten Nutzern schnelle und prägnante Antworten auf komplexe Fragen. Doch diese neue Technologie birgt auch Risiken, wie eine aktuelle Untersuchung zeigt. Mehrere Experten warnen davor, dass einige dieser Suchmaschinen wissenschaftlichen Rassismus in ihren Suchergebnissen verbreiten, indem sie auf fragwürdige Daten zurückgreifen.
Fragwürdige Datenquellen
Im Zentrum der Kritik steht die Arbeit von Richard Lynn, einem 2023 verstorbenen Professor der Universität Ulster, der für seine kontroversen Studien zur Intelligenz von Bevölkerungsgruppen bekannt war. Lynn war zwei Jahrzehnte lang Präsident des Pioneer Fund, einer Organisation, die 1937 von US-amerikanischen Nazi-Sympathisanten mit dem Ziel gegründet wurde, die „rassische Verbesserung“ und den „Rassenrealismus“ zu fördern. Lynns Forschung, die rassistische und wissenschaftlich widerlegte Theorien über die intellektuelle Überlegenheit der weißen Rasse vertritt, wurde von Rechtsextremen, weißen Rassisten und Eugenik-Befürwortern genutzt.
Besonders problematisch ist die Verwendung von Lynns Datensatz „The Intelligence of Nations“ aus dem Jahr 2019, der angebliche durchschnittliche IQ-Werte für verschiedene Länder auflistet. Kritiker bemängeln die Methodik und die Qualität der Daten, auf denen Lynns Schlussfolgerungen basieren. So sollen einige IQ-Schätzungen auf Informationen von weniger als 20 Personen basieren, während andere Stichproben nicht repräsentativ für die jeweilige Bevölkerungsgruppe seien.
Google, Microsoft und Perplexity unter der Lupe
Trotz der wissenschaftlichen Mängel wurden Lynns Daten von KI-gestützten Suchmaschinen aufgegriffen und in Suchergebnissen verbreitet. Recherchen von WIRED zeigten, dass sowohl Google's AI Overview, Microsofts Copilot als auch Perplexity bei Anfragen zu IQ-Werten verschiedener Länder auf Lynns Arbeit verwiesen.
Google's AI Overview, das KI-generierte Zusammenfassungen von Suchergebnissen liefert, zeigte bei Anfragen nach dem durchschnittlichen IQ bestimmter Länder Zahlen an, die direkt aus Lynns Datensatz stammten. Obwohl Google angibt, Schutzmechanismen gegen die Verbreitung von Fehlinformationen zu haben, wurden diese im Fall von Lynns Daten offenbar umgangen.
Auch Perplexity, ein KI-Suchunternehmen, das für seine Fähigkeit bekannt ist, Informationen aus verschiedenen Quellen zu synthetisieren, bezog sich bei der Beantwortung von Fragen zu nationalen IQ-Werten auf Lynns Datensatz. In einigen Fällen zitierte Perplexity Lynns Zahlen direkt, während in anderen Fällen auf Websites verwiesen wurde, die wiederum auf Lynns Arbeit basierten.
Microsofts Copilot, ein Chatbot, der in die Suchmaschine Bing integriert ist, zeigte bei ähnlichen Anfragen ebenfalls Zahlen an, die auf Lynns Forschung zurückzuführen waren. Obwohl Copilot in der Regel Quellen für seine Antworten angibt, handelte es sich dabei oft um Websites, die Lynns Datensatz ohne weitere Überprüfung übernahmen.
Die Rolle der Wissenschaft
Experten betonen, dass die Verbreitung von Lynns widerlegten Theorien durch KI-gestützte Suchmaschinen nicht nur ein Problem der Technologie, sondern auch der Wissenschaft selbst ist. Lynns Arbeit wurde über Jahre hinweg in akademischen Kreisen zitiert, ohne dass die fragwürdige Methodik und die rassistischen Implikationen seiner Forschung ausreichend hinterfragt wurden.
Die unkritische Übernahme von Lynns Daten durch KI-Systeme zeigt, wie wichtig es ist, dass die wissenschaftliche Gemeinschaft ihre Verantwortung für die Qualität und die ethischen Implikationen ihrer Forschung ernst nimmt. Die unreflektierte Verwendung von Daten kann zu Diskriminierung und zur Verbreitung gefährlicher Ideologien führen, insbesondere wenn diese durch mächtige Technologien wie KI-gestützte Suchmaschinen verstärkt werden.
Ausblick
Die Verbreitung von wissenschaftlichem Rassismus durch KI-gestützte Suchmaschinen ist ein ernstes Problem, das sofortiger Aufmerksamkeit bedarf. Es ist wichtig, dass Technologieunternehmen ihre Verantwortung für die Inhalte, die sie verbreiten, erkennen und Maßnahmen ergreifen, um die Verbreitung von Fehlinformationen und diskriminierenden Inhalten zu verhindern.
Gleichzeitig muss sich die wissenschaftliche Gemeinschaft ihrer eigenen Rolle bei der Entstehung und Verbreitung solcher Ideologien bewusst werden. Eine kritische Auseinandersetzung mit der eigenen Forschungspraxis und die Entwicklung von Mechanismen zur frühzeitigen Erkennung und Bekämpfung von Bias und Diskriminierung sind unerlässlich, um zu verhindern, dass wissenschaftliche Erkenntnisse für rassistische Zwecke missbraucht werden.
Quellen:
- https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/
- https://algorithmwatch.org/en/google-vision-racism/
- https://www.linkedin.com/pulse/perplexity-answers-250-million-questions-month-ai-search-lex-sokolin-lg6oe
- https://www.theverge.com/24111326/ai-search-perplexity-copilot-you-google-review
- https://medium.com/ipg-media-lab/the-future-of-search-hinges-on-how-much-we-trust-ai-29d7a44bf20a
- https://www.theguardian.com/business/article/2024/jul/25/openai-search-engine-searchgpt
- https://www.mi-3.com.au/23-09-2024/ais-search-spill-agencies-scrambling-unpack-new-era-search-traditional-seo-wavers-search
- https://www.theinformation.com/articles/what-and-who-mustafa-suleyman-is-working-with-at-microsoft-what-perplexitys-google-dependence-tells-us-about-the-ai-race
- https://bdtechtalks.com/2023/02/13/google-vs-microsoft-ai-competition/
- https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24845