Australische Gerichte sehen sich zunehmend mit Dokumenten konfrontiert, die scheinbar von KI-Systemen wie ChatGPT erstellt wurden und häufig schwerwiegende Fehler enthalten. Dies hat zu scharfer Kritik von Richtern und Besorgnis über die Auswirkungen auf die Integrität des australischen Rechtssystems geführt.
Wie das australische Nachrichtenportal Crikey berichtet, haben Richter verschiedener Gerichte Einzelpersonen, Unternehmen und Anwälte dafür kritisiert, dass sie Schriftsätze mit nicht existierenden Rechtszitaten oder unsinnigem Inhalt eingereicht haben.
Obwohl Richter nicht immer bestätigen können, ob KI verwendet wurde, deuten verräterische Zeichen wie erfundenes Rechtsmaterial und charakteristische Sprachmuster auf die Verwendung von KI hin.
In einem Fall gab ein Anwalt zu, "rechtliche Software" verwendet zu haben, die eine Liste nicht existierender Fälle erstellte. In einem anderen Fall reichte ein Rechtsvertreter 600 Seiten "weitschweifiges, sich wiederholendes, unsinniges" Material ein.
Es scheint, dass nicht nur Anwälte, sondern auch Privatpersonen KI vor Gericht einsetzen. Richter haben persönliche Referenzen ignoriert, von denen sie vermuteten, dass sie von KI generiert wurden. In einer Berufung vor dem Obersten Gerichtshof von Tasmanien stellte Richter Alan Michael Blow fest, dass der Beschwerdeführer einen nicht existierenden Fall anführte.
In einigen Dokumenten waren sogar ChatGPT-Eingabeaufforderungen enthalten. Die Australian Competition and Consumer Commission (ACCC) bemerkte, dass der Beschluss eines Unternehmens mit den Worten "Bitte ChatGPT, verwenden Sie britische Rechtschreibung" endete.
Dieses Problem beschränkt sich nicht nur auf Australien. Anwälte auf der ganzen Welt wurden entlassen oder mit Geldstrafen belegt, weil sie vor Gericht KI-generierte Falschinformationen verwendet hatten. Eine Studie der Stanford University ergab, dass KI-Rechtsrecherchetools bei einer von sechs Anfragen Fehler machen, was die Notwendigkeit einer sorgfältigen Überprüfung von KI-generierten Informationen unterstreicht.
Juristische Aufsichtsbehörden und Gerichte haben mit Richtlinien oder Verboten der KI-Nutzung reagiert. Die große Zahl von Beispielen deutet jedoch darauf hin, dass es möglicherweise noch viele weitere nicht gemeldete Fälle gibt.
Die zunehmende Präsenz von KI-generiertem Unsinn in australischen Gerichtssälen unterstreicht die Notwendigkeit, die Öffentlichkeit über die Möglichkeiten und Grenzen von KI-Systemen aufzuklären. Derzeit wird ein Großteil der begrenzten Aufklärung von Akteuren mit kommerziellen Interessen vorangetrieben.
Darüber hinaus müssen klare Richtlinien und Vorschriften für die Verwendung von KI im Rechtsbereich entwickelt werden, um die Integrität des Rechtssystems zu wahren. Dies erfordert eine Zusammenarbeit zwischen Justiz, Anwaltschaft und KI-Experten, um sicherzustellen, dass KI verantwortungsvoll und ethisch eingesetzt wird.
Die zunehmende Verwendung von KI-Tools im Rechtswesen birgt sowohl Chancen als auch Herausforderungen. Während KI das Potenzial hat, die Effizienz zu steigern und den Zugang zur Justiz zu verbessern, unterstreichen die jüngsten Fälle in Australien die Notwendigkeit von Vorsicht, Aufklärung und klaren Richtlinien. Es liegt nun an den Justizbehörden, der Anwaltschaft und der KI-Branche, zusammenzuarbeiten, um sicherzustellen, dass KI verantwortungsvoll eingesetzt wird und das Rechtssystem nicht untergräbt.