Es ist wichtig zu beachten, dass diese Quote zwar gering erscheinen mag, aber bei der riesigen Nutzerbasis von ChatGPT (geschätzte 200 Millionen Nutzer pro Woche) immer noch eine beträchtliche Anzahl von Fällen mit potenziellen Vorurteilen darstellt. Die Studie von OpenAI konzentrierte sich auf die Analyse von "First-Person-Fairness", d. h. wie ChatGPT auf Benutzer reagiert, die ihren Namen oder andere persönliche Informationen preisgeben.
Frühere Studien hatten sich hauptsächlich auf "Third-Person-Fairness" konzentriert, z. B. wie KI-Modelle Lebensläufe oder Kreditanträge bewerten. Die Ergebnisse der OpenAI-Studie zeigen, dass ChatGPT zwar in seinen Antworten eine gewisse geschlechtsspezifische Tendenz aufweist, diese aber im Vergleich zu älteren Modellen und menschlichen Interaktionen minimal ist. So neigte ChatGPT in kreativen Schreibaufgaben dazu, Geschichten mit weiblichen Hauptfiguren und emotionaleren Inhalten zu schreiben, wenn ihm weiblich klingende Namen vorgegeben wurden.
Umgekehrt führten männlich klingende Namen zu etwas düstereren Geschichten. OpenAI betont jedoch, dass solche stereotypen Antworten in seinen Tests selten vorkamen und die stärksten Vorurteile in offenen, kreativen Aufgaben und in älteren ChatGPT-Versionen auftraten.
Das Unternehmen führt die Verringerung der Vorurteile auf Techniken wie das Reinforcement Learning (RL) zurück, die in neueren ChatGPT-Versionen implementiert wurden. Trotz dieser Fortschritte räumt OpenAI ein, dass Vorurteile nicht vollständig beseitigt wurden und dass weitere Forschung erforderlich ist, um die "First-Person-Fairness" in LLMs vollständig zu verstehen und zu mindern.
Die Behauptung von OpenAI, dass ChatGPT weniger Vorurteile hat als Menschen, hat in der KI-Community zu Debatten geführt. Kritiker argumentieren, dass die geringe Häufigkeit von Vorurteilen in ChatGPT auf die Gestaltung der Studie und die verwendeten Datensätze zurückzuführen sein könnte. Sie argumentieren, dass eine umfassendere Analyse erforderlich ist, die verschiedene Kulturen, Sprachen und demografische Gruppen umfasst, um die Behauptung von OpenAI vollständig zu untermauern.
Darüber hinaus argumentieren Kritiker, dass selbst eine geringe Anzahl von Fällen mit Vorurteilen in einem so weit verbreiteten KI-System wie ChatGPT erhebliche Auswirkungen auf Einzelpersonen und die Gesellschaft haben kann. Sie betonen, wie wichtig es ist, die Forschung und Entwicklung im Bereich der KI-Ethik fortzusetzen, um sicherzustellen, dass diese Systeme fair, unparteiisch und repräsentativ für die Vielfalt der menschlichen Erfahrungen sind.
Obwohl die Studie von OpenAI wertvolle Erkenntnisse über das Thema geschlechtsspezifische Vorurteile in LLMs liefert, ist es wichtig, ihre Ergebnisse mit Vorsicht zu interpretieren. Die Behauptung, dass ChatGPT weniger Vorurteile hat als Menschen, ist eine komplexe Behauptung, die weiterer Untersuchungen und Nuancierung bedarf. Die KI-Community muss die Bemühungen zur Bewertung und Minderung von Vorurteilen in LLMs fortsetzen, um sicherzustellen, dass diese Technologien verantwortungsvoll entwickelt und eingesetzt werden und allen zugute kommen.