KI für Ihr Unternehmen – Jetzt Demo buchen

Ethische Herausforderungen und inklusive Ansätze in der KI-Forschung

Kategorien:
No items found.
Freigegeben:
October 8, 2024

Artikel jetzt als Podcast anhören

Inhaltsverzeichnis

    Die Gratwanderung zwischen Code und Gewissen: Die Suche nach ethischer und inklusiver KI

    Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in unserem Alltag. Daher rückt die Integration ethischer Rahmenbedingungen in die KI-Entwicklung immer stärker in den Fokus der Forschung. An der University of Maryland (UMD) befassen sich interdisziplinäre Teams mit dem komplexen Zusammenspiel von normativem Denken, Algorithmen des maschinellen Lernens und soziotechnischen Systemen.

    Normatives Verständnis von KI-Systemen

    Ilaria Canavotto, Forscherin bei der „Values-Centered Artificial Intelligence (VCAI)“-Initiative der UMD, ist mit dem Institut für fortgeschrittene Computerstudien und dem Institut für Philosophie verbunden. Sie beschäftigt sich mit einer grundlegenden Frage: Wie können wir KI-Systemen ein normatives Verständnis vermitteln? Da KI zunehmend Entscheidungen beeinflusst, die sich auf Menschenrechte und Wohlergehen auswirken, müssen Systeme ethische und rechtliche Normen verstehen.

    „Die Frage, die ich untersuche, ist, wie wir diese Art von Informationen, dieses normative Verständnis der Welt, in eine Maschine bekommen, die ein Roboter, ein Chatbot oder etwas anderes sein könnte", sagt Canavotto.

    Ihre Forschung kombiniert zwei Ansätze:

    Top-down-Ansatz: Diese traditionelle Methode beinhaltet die explizite Programmierung von Regeln und Normen in das System. Canavotto weist jedoch darauf hin: „Es ist einfach unmöglich, sie so einfach aufzuschreiben. Es gibt immer wieder neue Situationen, die auftreten."

    Bottom-up-Ansatz: Eine neuere Methode, die maschinelles Lernen verwendet, um Regeln aus Daten zu extrahieren. Obwohl sie flexibler ist, mangelt es ihr an Transparenz: „Das Problem bei diesem Ansatz ist, dass wir nicht wirklich wissen, was das System lernt, und es ist sehr schwierig, seine Entscheidung zu erklären", bemerkt Canavotto.

    Canavotto und ihre Kollegen, Jeff Horty und Eric Pacuit, entwickeln einen hybriden Ansatz, um das Beste aus beiden Ansätzen zu kombinieren. Ihr Ziel ist es, KI-Systeme zu schaffen, die Regeln aus Daten lernen und gleichzeitig nachvollziehbare Entscheidungsprozesse gewährleisten, die auf juristischen und normativen Überlegungen beruhen.

    „[Unser] Ansatz […] basiert auf einem Bereich, der als Künstliche Intelligenz und Recht bezeichnet wird. In diesem Bereich wurden Algorithmen entwickelt, um Informationen aus den Daten zu extrahieren. Wir möchten also einige dieser Algorithmen verallgemeinern und dann ein System haben, das allgemeiner Informationen extrahieren kann, die auf juristischen und normativen Überlegungen beruhen", erklärt sie.

    Der Einfluss der KI auf die Einstellungsverfahren und die Inklusion von Menschen mit Behinderungen

    Während Canavotto sich auf die theoretischen Grundlagen konzentriert, untersucht Vaishnav Kameswaran, der mit dem NSF Institute for Trustworthy AI and Law and Society der UMD verbunden ist, die Auswirkungen von KI auf die reale Welt, insbesondere auf Menschen mit Behinderungen.

    Kameswarans Forschung befasst sich mit dem Einsatz von KI in Einstellungsverfahren und deckt auf, wie Systeme Bewerber mit Behinderungen unbeabsichtigt diskriminieren können. Er erklärt: „Wir haben daran gearbeitet, … die Blackbox ein wenig zu öffnen, zu versuchen zu verstehen, was diese Algorithmen im Hintergrund tun und wie sie beginnen, Kandidaten zu bewerten."

    Seine Ergebnisse zeigen, dass sich viele KI-gestützte Einstellungsplattformen bei der Bewertung von Kandidaten stark auf normative Verhaltensmerkmale wie Blickkontakt und Mimik stützen. Dieser Ansatz kann Personen mit bestimmten Behinderungen erheblich benachteiligen. So können beispielsweise sehbehinderte Bewerber Schwierigkeiten haben, Blickkontakt zu halten, ein Signal, das KI-Systeme oft als mangelndes Engagement interpretieren.

    „Indem sie sich auf einige dieser Eigenschaften konzentrieren und Kandidaten auf der Grundlage dieser Eigenschaften bewerten, neigen diese Plattformen dazu, bestehende soziale Ungleichheiten zu verschärfen", warnt Kameswaran. Er argumentiert, dass dieser Trend dazu führen könnte, dass Menschen mit Behinderungen auf dem Arbeitsmarkt weiter an den Rand gedrängt werden, eine Gruppe, die bereits jetzt vor großen Herausforderungen bei der Arbeitssuche steht.

    Die umfassendere ethische Landschaft

    Beide Forscher betonen, dass die ethischen Bedenken im Zusammenhang mit KI weit über ihre spezifischen Forschungsgebiete hinausgehen. Sie sprechen mehrere Schlüsselthemen an:

    • Datenschutz und Einwilligung: Die Forscher heben die Unzulänglichkeit der derzeitigen Einwilligungsmechanismen hervor, insbesondere im Hinblick auf die Datenerhebung für das KI-Training. Kameswaran nennt Beispiele aus seiner Arbeit in Indien, wo gefährdete Bevölkerungsgruppen während der COVID-19-Pandemie unwissentlich umfangreiche persönliche Daten an KI-gestützte Kreditplattformen weitergegeben haben.
    • Transparenz und Erklärbarkeit: Beide Forscher betonen, wie wichtig es ist zu verstehen, wie KI-Systeme Entscheidungen treffen, insbesondere wenn diese Entscheidungen das Leben von Menschen erheblich beeinflussen.
    • Gesellschaftliche Einstellungen und Vorurteile: Kameswaran weist darauf hin, dass technische Lösungen allein Diskriminierungsprobleme nicht lösen können. Es bedarf eines umfassenderen gesellschaftlichen Wandels in Bezug auf die Einstellung gegenüber marginalisierten Gruppen, einschließlich Menschen mit Behinderungen.
    • Interdisziplinäre Zusammenarbeit: Die Arbeit der Forscher an der UMD verdeutlicht, wie wichtig die Zusammenarbeit zwischen Philosophie, Informatik und anderen Disziplinen bei der Auseinandersetzung mit der KI-Ethik ist.

    Ein Blick in die Zukunft: Lösungen und Herausforderungen

    Die Herausforderungen sind zwar groß, aber beide Forscher arbeiten an Lösungen:

    • Canavottos hybrider Ansatz für normative KI könnte zu ethisch bewussteren und erklärbareren KI-Systemen führen.
    • Kameswaran schlägt die Entwicklung von Audit-Tools für Interessenvertretungen vor, um KI-Einstellungsplattformen auf potenzielle Diskriminierung zu bewerten.
    • Beide betonen die Notwendigkeit politischer Veränderungen, wie z. B. die Aktualisierung des „Americans with Disabilities Act", um KI-bezogene Diskriminierung zu bekämpfen.

    Sie räumen aber auch ein, dass die Fragen komplex sind. Kameswaran merkt an: „Leider glaube ich nicht, dass eine technische Lösung, die darin besteht, KI mit bestimmten Arten von Daten zu trainieren und Audit-Tools einzusetzen, das Problem allein lösen wird. Es bedarf also eines mehrgleisigen Ansatzes."

    Eine wichtige Erkenntnis aus der Arbeit der Forscher ist die Notwendigkeit eines größeren öffentlichen Bewusstseins für die Auswirkungen von KI auf unser Leben. Die Menschen müssen wissen, wie viele Daten sie weitergeben und wie diese verwendet werden. Wie Canavotto betont, haben Unternehmen oft ein Interesse daran, diese Informationen zu verschleiern, und definiert sie als „Unternehmen, die versuchen, Ihnen zu sagen, dass mein Service besser für Sie ist, wenn Sie mir die Daten geben."

    Die Forscher argumentieren, dass noch viel mehr getan werden muss, um die Öffentlichkeit aufzuklären und Unternehmen zur Rechenschaft zu ziehen. Letztendlich ist der interdisziplinäre Ansatz von Canavotto und Kameswaran, der philosophische Untersuchungen mit praktischer Anwendung kombiniert, ein Schritt in die richtige Richtung, um sicherzustellen, dass KI-Systeme zwar leistungsstark, aber auch ethisch und gerecht sind.

    Bibliographie

    https://www.artificialintelligence-news.com/news/bridging-code-and-conscience-umds-quest-for-ethical-and-inclusive-ai/

    https://www.linkedin.com/pulse/from-code-conscience-global-quest-ai-governance-marc-zqsvc

    https://digitalcommons.lindenwood.edu/faculty-research-papers/674/

    https://link-springer-com-443.webvpn.synu.edu.cn/content/pdf/10.1007/978-3-031-45304-5.pdf

    https://www.researchgate.net/publication/383712794_Bridging_the_Gap_AI_and_the_Hidden_Structure_of_Consciousness

    https://docdrop.org/download_annotation_doc/pedagogy-of-the-digitally-oppressed_coursepak-1--xiu4s.pdf

    https://www.asau.ru/files/pdf/2660978.pdf

    https://worth.com/event/techonomy-at-davos-code-to-conscience-responsible-ai-in-business/

    https://era.library.ualberta.ca/items/bf890729-49cd-4a91-bcb3-5d61d408adf0/view/f8303298-1dd6-405c-b2d4-3abe78d60261/NQ82108.pdf

    https://www.aspeninstitute.de/events/bridging-ai-regulation-towards-a-global-governance-for-ethical-ai/

    Mindverse vs ChatGPT Plus Widget

    Warum Mindverse Studio?

    Entdecken Sie die Vorteile gegenüber ChatGPT Plus

    Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.

    🚀 Mindverse Studio

    Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.

    ChatGPT Plus

    ❌ Kein strukturierter Dokumentenvergleich

    ❌ Keine Bearbeitung im Dokumentkontext

    ❌ Keine Integration von Unternehmenswissen

    VS

    Mindverse Studio

    ✅ Gezielter Dokumentenvergleich mit Custom-Prompts

    ✅ Kontextbewusste Textbearbeitung im Editor

    ✅ Wissensbasierte Analyse & Zusammenfassungen

    📚 Nutzen Sie Ihr internes Wissen – intelligent und sicher

    Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.

    ChatGPT Plus

    ❌ Nur ein Modellanbieter (OpenAI)

    ❌ Keine Modellauswahl pro Use Case

    ❌ Keine zentrale Modellsteuerung für Teams

    VS

    Mindverse Studio

    ✅ Zugriff auf über 50 verschiedene KI-Modelle

    ✅ Modellauswahl pro Prompt oder Assistent

    ✅ Zentrale Steuerung auf Organisationsebene

    🧠 Zugang zu allen führenden KI-Modellen – flexibel & anpassbar

    OpenAI GPT-4: für kreative Texte und allgemeine Anwendungen
    Anthropic Claude: stark in Analyse, Struktur und komplexem Reasoning
    Google Gemini: ideal für multimodale Aufgaben (Text, Bild, Code)
    Eigene Engines: individuell trainiert auf Ihre Daten und Prozesse

    ChatGPT Plus

    ❌ Keine echte Teamkollaboration

    ❌ Keine Rechte- oder Rollenverteilung

    ❌ Keine zentrale Steuerung oder Nachvollziehbarkeit

    VS

    Mindverse Studio

    ✅ Teamübergreifende Bearbeitung in Echtzeit

    ✅ Granulare Rechte- und Freigabeverwaltung

    ✅ Zentrale Steuerung & Transparenz auf Organisationsebene

    👥 Kollaborative KI für Ihr gesamtes Unternehmen

    Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.

    Bereit für den nächsten Schritt?

    Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.

    🎯 Kostenlose Demo buchen

    Wie können wir Ihnen heute helfen?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen