Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in unserem Alltag. Daher rückt die Integration ethischer Rahmenbedingungen in die KI-Entwicklung immer stärker in den Fokus der Forschung. An der University of Maryland (UMD) befassen sich interdisziplinäre Teams mit dem komplexen Zusammenspiel von normativem Denken, Algorithmen des maschinellen Lernens und soziotechnischen Systemen.
Ilaria Canavotto, Forscherin bei der „Values-Centered Artificial Intelligence (VCAI)“-Initiative der UMD, ist mit dem Institut für fortgeschrittene Computerstudien und dem Institut für Philosophie verbunden. Sie beschäftigt sich mit einer grundlegenden Frage: Wie können wir KI-Systemen ein normatives Verständnis vermitteln? Da KI zunehmend Entscheidungen beeinflusst, die sich auf Menschenrechte und Wohlergehen auswirken, müssen Systeme ethische und rechtliche Normen verstehen.
„Die Frage, die ich untersuche, ist, wie wir diese Art von Informationen, dieses normative Verständnis der Welt, in eine Maschine bekommen, die ein Roboter, ein Chatbot oder etwas anderes sein könnte", sagt Canavotto.
Ihre Forschung kombiniert zwei Ansätze:
Top-down-Ansatz: Diese traditionelle Methode beinhaltet die explizite Programmierung von Regeln und Normen in das System. Canavotto weist jedoch darauf hin: „Es ist einfach unmöglich, sie so einfach aufzuschreiben. Es gibt immer wieder neue Situationen, die auftreten."
Bottom-up-Ansatz: Eine neuere Methode, die maschinelles Lernen verwendet, um Regeln aus Daten zu extrahieren. Obwohl sie flexibler ist, mangelt es ihr an Transparenz: „Das Problem bei diesem Ansatz ist, dass wir nicht wirklich wissen, was das System lernt, und es ist sehr schwierig, seine Entscheidung zu erklären", bemerkt Canavotto.
Canavotto und ihre Kollegen, Jeff Horty und Eric Pacuit, entwickeln einen hybriden Ansatz, um das Beste aus beiden Ansätzen zu kombinieren. Ihr Ziel ist es, KI-Systeme zu schaffen, die Regeln aus Daten lernen und gleichzeitig nachvollziehbare Entscheidungsprozesse gewährleisten, die auf juristischen und normativen Überlegungen beruhen.
„[Unser] Ansatz […] basiert auf einem Bereich, der als Künstliche Intelligenz und Recht bezeichnet wird. In diesem Bereich wurden Algorithmen entwickelt, um Informationen aus den Daten zu extrahieren. Wir möchten also einige dieser Algorithmen verallgemeinern und dann ein System haben, das allgemeiner Informationen extrahieren kann, die auf juristischen und normativen Überlegungen beruhen", erklärt sie.
Während Canavotto sich auf die theoretischen Grundlagen konzentriert, untersucht Vaishnav Kameswaran, der mit dem NSF Institute for Trustworthy AI and Law and Society der UMD verbunden ist, die Auswirkungen von KI auf die reale Welt, insbesondere auf Menschen mit Behinderungen.
Kameswarans Forschung befasst sich mit dem Einsatz von KI in Einstellungsverfahren und deckt auf, wie Systeme Bewerber mit Behinderungen unbeabsichtigt diskriminieren können. Er erklärt: „Wir haben daran gearbeitet, … die Blackbox ein wenig zu öffnen, zu versuchen zu verstehen, was diese Algorithmen im Hintergrund tun und wie sie beginnen, Kandidaten zu bewerten."
Seine Ergebnisse zeigen, dass sich viele KI-gestützte Einstellungsplattformen bei der Bewertung von Kandidaten stark auf normative Verhaltensmerkmale wie Blickkontakt und Mimik stützen. Dieser Ansatz kann Personen mit bestimmten Behinderungen erheblich benachteiligen. So können beispielsweise sehbehinderte Bewerber Schwierigkeiten haben, Blickkontakt zu halten, ein Signal, das KI-Systeme oft als mangelndes Engagement interpretieren.
„Indem sie sich auf einige dieser Eigenschaften konzentrieren und Kandidaten auf der Grundlage dieser Eigenschaften bewerten, neigen diese Plattformen dazu, bestehende soziale Ungleichheiten zu verschärfen", warnt Kameswaran. Er argumentiert, dass dieser Trend dazu führen könnte, dass Menschen mit Behinderungen auf dem Arbeitsmarkt weiter an den Rand gedrängt werden, eine Gruppe, die bereits jetzt vor großen Herausforderungen bei der Arbeitssuche steht.
Beide Forscher betonen, dass die ethischen Bedenken im Zusammenhang mit KI weit über ihre spezifischen Forschungsgebiete hinausgehen. Sie sprechen mehrere Schlüsselthemen an:
Die Herausforderungen sind zwar groß, aber beide Forscher arbeiten an Lösungen:
Sie räumen aber auch ein, dass die Fragen komplex sind. Kameswaran merkt an: „Leider glaube ich nicht, dass eine technische Lösung, die darin besteht, KI mit bestimmten Arten von Daten zu trainieren und Audit-Tools einzusetzen, das Problem allein lösen wird. Es bedarf also eines mehrgleisigen Ansatzes."
Eine wichtige Erkenntnis aus der Arbeit der Forscher ist die Notwendigkeit eines größeren öffentlichen Bewusstseins für die Auswirkungen von KI auf unser Leben. Die Menschen müssen wissen, wie viele Daten sie weitergeben und wie diese verwendet werden. Wie Canavotto betont, haben Unternehmen oft ein Interesse daran, diese Informationen zu verschleiern, und definiert sie als „Unternehmen, die versuchen, Ihnen zu sagen, dass mein Service besser für Sie ist, wenn Sie mir die Daten geben."
Die Forscher argumentieren, dass noch viel mehr getan werden muss, um die Öffentlichkeit aufzuklären und Unternehmen zur Rechenschaft zu ziehen. Letztendlich ist der interdisziplinäre Ansatz von Canavotto und Kameswaran, der philosophische Untersuchungen mit praktischer Anwendung kombiniert, ein Schritt in die richtige Richtung, um sicherzustellen, dass KI-Systeme zwar leistungsstark, aber auch ethisch und gerecht sind.
https://www.artificialintelligence-news.com/news/bridging-code-and-conscience-umds-quest-for-ethical-and-inclusive-ai/
https://www.linkedin.com/pulse/from-code-conscience-global-quest-ai-governance-marc-zqsvc
https://digitalcommons.lindenwood.edu/faculty-research-papers/674/
https://link-springer-com-443.webvpn.synu.edu.cn/content/pdf/10.1007/978-3-031-45304-5.pdf
https://www.researchgate.net/publication/383712794_Bridging_the_Gap_AI_and_the_Hidden_Structure_of_Consciousness
https://docdrop.org/download_annotation_doc/pedagogy-of-the-digitally-oppressed_coursepak-1--xiu4s.pdf
https://www.asau.ru/files/pdf/2660978.pdf
https://worth.com/event/techonomy-at-davos-code-to-conscience-responsible-ai-in-business/
https://era.library.ualberta.ca/items/bf890729-49cd-4a91-bcb3-5d61d408adf0/view/f8303298-1dd6-405c-b2d4-3abe78d60261/NQ82108.pdf
https://www.aspeninstitute.de/events/bridging-ai-regulation-towards-a-global-governance-for-ethical-ai/