Die Verwendung von Künstlicher Intelligenz (KI) in verschiedenen Bereichen des Lebens hat in den letzten Jahren exponentiell zugenommen. Eine der jüngsten und kontroversesten Entwicklungen ist die Nutzung von Chatbots in der Rechtsprechung. Ein bemerkenswerter Fall in den USA hat gezeigt, dass die Antworten von Chatbots eine wertvolle Ressource sein könnten, um die "gewöhnliche Bedeutung" von Begriffen in rechtlichen Kontexten zu bestimmen.
In einem einzigartigen Urteil des US-Richters Kevin Newsom vom Berufungsgericht des 11. Bezirks wurde die Verwendung führender Chatbots wie ChatGPT zur Bestimmung der "gewöhnlichen Bedeutung" eines umstrittenen rechtlichen Begriffs thematisiert. Der Fall betraf Joseph Deleons bewaffneten Raubüberfall und die Frage, ob das Zeigen einer Waffe auf den Kassierer als "physische Einschränkung" gilt. Während die Mehrheit des Gerichts dies bejahte und eine härtere Strafe bestätigte, war Newsom anderer Meinung.
Newsom argumentierte, dass das bloße Zeigen einer Waffe ohne Berührung oder Einschließung nicht als "physische Einschränkung" angesehen werden sollte. Um den Begriff in seiner üblichen, "gewöhnlichen Bedeutung" zu verstehen, wandte er sich an Chatbots wie ChatGPT und Claude. Er fragte die drei führenden Sprachmodelle GPT-4, Claude und Gemini zehnmal: "Was ist die gewöhnliche Bedeutung von 'physisch eingeschränkt'?"
Die Antworten der Chatbots wiesen leichte Unterschiede in Struktur und Wortwahl auf, hatten jedoch ein gemeinsames Thema: "Viel wichtiger, denke ich, ist, dass die Antworten sich inhaltlich um einen gemeinsamen Kern konsolidierten – es gab eine objektiv überprüfbare Durchgängigkeit. Für unsere Zwecke ist wichtig, dass die LLMs den Ausdruck 'physisch eingeschränkt' konsequent definierten, um die Anwendung von greifbarer Gewalt zu erfordern, sei es durch direkten Körperkontakt oder ein anderes Gerät oder Instrument."
Newsom war zunächst "überrascht" von den subtilen Unterschieden in den Antworten. Bei näherer Betrachtung entschied er jedoch, dass einige Variationen zu erwarten und sogar gut seien, da sie zeigten, wie Menschen Wörter im Alltag verwenden: "Die Tatsache ist, dass Sprache eine organische Sache ist und wie die meisten organischen Dinge ein bisschen unordentlich sein kann."
Newsom sieht LLMs als nützliche Ergänzung zu den traditionellen Methoden, nicht als deren Ersatz. Sie könnten dazu beitragen, die "gewöhnliche Bedeutung" komplexer Begriffe zu entschlüsseln, ohne den Gesetzgebungsprozess zu automatisieren: "Niemand sollte meine Mitteilungen als Vorschlag missverstehen, dass KI wissenschaftliche Gewissheit in den interpretativen Prozess bringen kann. Wie ich betont habe, schlage ich nicht vor, dass wir auf traditionelle interpretative Werkzeuge – Wörterbücher, semantische Kanons usw. – verzichten. Aber ich denke – und zunehmend – dass LLMs eine wertvolle ergänzende Rolle spielen könnten, wenn wir die gewöhnliche Bedeutung triangulieren wollen."
Die Nutzung von KI in der Rechtsprechung ist nicht auf die USA beschränkt. In Kolumbien gestand ein Richter, ChatGPT verwendet zu haben, um zu entscheiden, ob die Versicherung eines autistischen Kindes alle Kosten seiner medizinischen Behandlung übernehmen sollte. In England lobte ein Richter des Berufungsgerichts ChatGPT als "sehr nützlich", nachdem er es um eine Zusammenfassung eines Rechtsgebiets gebeten hatte.
Die Richter weltweit erkennen das Potenzial von KI, die Arbeitsprozesse in den Gerichten zu rationalisieren, sehen aber auch die Risiken. Ein bedeutendes Risiko ist, dass LLMs "halluzinieren" können – Text oder Ergebnisse liefern, die als Tatsache präsentiert werden, aber tatsächlich falsch sind. Weitere Bedenken betreffen die Voreingenommenheit und die Möglichkeit, dass Anwälte und Richter LLMs strategisch nutzen könnten, um eine bevorzugte Antwort zu erhalten.
Die Vorteile der Nutzung von LLMs in der Rechtsprechung sind:
- Die Modelle basieren auf Daten, die die Sprache im täglichen Leben widerspiegeln. - Sie sind in der Lage, den Kontext zu verstehen und komplexe Begriffe zu erklären. - Sie sind leicht zugänglich für Richter, Anwälte und Bürger. - Sie sind transparent und ihre Konstruktion ist nachvollziehbar.Die Herausforderungen umfassen:
- Die Möglichkeit von Halluzinationen. - Die Begrenzung auf online verfügbare Sprachdaten, was zu einer Unterrepräsentation bestimmter Bevölkerungsgruppen führen kann. - Die Gefahr der strategischen Nutzung durch Anwälte und Richter.Die Nutzung von Chatbots und KI in der Rechtsprechung steht noch am Anfang, zeigt jedoch vielversprechende Ansätze. Richter wie Kevin Newsom haben begonnen, die potenziellen Vorteile und Herausforderungen zu erkennen. Während KI-gestützte Sprachmodelle eine wertvolle ergänzende Rolle spielen könnten, bleibt es wichtig, traditionelle interpretative Werkzeuge nicht zu vernachlässigen. Die rechtliche Gemeinschaft muss sich weiterhin mit den ethischen und praktischen Implikationen dieser Technologie auseinandersetzen, um sicherzustellen, dass die Gerechtigkeit nicht gefährdet wird.