Sehr geehrter Herr Richter, werte Geschworene! Ich möchte sie an einen Präzedenzfall aus dem Jahr 1964 erinnern. Bear vs. Eagle, ein Fall, der so prägnant für die Rechtsprechung war, dass er völlig zurecht in die historischen Annalen der Justiz einging. Damals hatte der Angeklagte, in einem Bärenkostüm verkleidet, die Honig-Filiale der Familie Eagle in Illinois leer geräumt. Die Tatsache, dass er sich als Bär verkleidet hatte, reichte den Geschworenen aber nicht aus, um ihn laufen zu lassen. Das Gesetz, welches sich auf Hungerattacken bei Wildtieren bezieht, konnte in dem Fall nicht eingesetzt werden.
Verdutzt blickt der Richter den Anwalt an und richtet sich die Brille, bevor er ihn unterbricht: „Werter Kollege, sind sie eigentlich noch ganz bei Sinnen? Wollen sie die hier anwesenden Geschworenen und das hohe Gericht beleidigen? Was soll dieser Schwachsinn? Erklären sie sich sofort?“ Die Anwesenden im Saal beginnen, peinlich berührt, vor sich hin zu kichern. Die Geschworenen blicken zum Richter und wählen sich in einer Farce. Der Anwalt richtet seinen Blick auf die vor ihm liegenden Dokumente, während es ihm langsam dämmert. Er blickt hinunter auf die Akten, welche er diesmal vom ChatGPT vorbereiten ließ, und ihm wird das ganze Ausmaß der peinlichen Situation bewusst. Dieser hat sich tatsächlich vom ChatGPT erfundene Fälle schreiben lassen, die er nun ernsthaft dem Richter und der gegnerischen Seite stolz präsentiert.
So stelle ich mir ungefähr eine peinliche Begebenheit vor, die sich nun in New York zugetragen hat. Denn dort ließ sich ein Anwalt wahrlich Fälle, die er vor Gericht zitierte, vom ChatGPT schreiben. Seine Fahrlässigkeit brachte ihm indessen weltweit ungewollte Publicity und mögliche Sanktionen. Lest hier weiter, um mehr über den echten Fall zu erfahren.
ChatGPT in Alltag
Als der ChatGPT Online ging, sorgte die KI für Furore und Schlagzeilen. Von Begeisterung über warnende Stimmen, bis hin zu skurrilen Meldungen. Daneben sehen sich aber Behörden, Unis und Schulen mit Herausforderungen konfrontiert. Denn die automatisierte Text-KI entlarvt große Defizite der Informationsweitergabe in unserer Gesellschaft.
Denn wenn die KI ein Bildungssystem im Handumdrehen erschüttern kann, dann läuft vielleicht in diesem Bildungssystem schon seit Jahrzehnten etwas falsch. Das bloße Repetieren von Informationen als Kernelement des Wissens an junge Menschen zu vermitteln, ist ein Modell, dessen Auslauf sich schon lange angebahnt hat.
Daneben gibt es aber auch realistische Probleme, die der ChatGPT hervorruft. Die Inhalte, die die KI wiedergibt, sind nicht erdacht, sondern aus bereits eingespeisten Textdateien generiert. Das bedeutet, dass Urheberrechtsverletzungen unvermeidbar sind. Und je fauler und unkreativer die Menschen beim Einsatz des ChatGPT vorgehen, desto leichter sind die Resultate als künstlich generiert zu durchschauen.
So hat längst schon ein Wettstreit im Umgang mit den Maschinen begonnen. Und hier haben die Personen die Nase vorn, die bereit sind, die Programme genau zu lernen, ihre Funktionen zu begreifen und sich die Ergebnisse genau anzuschauen. Denn wenn man beim ChatGPT nicht genau hinschaut, dann kann man sich wie dem Fall unseres Anwalts ganz schnell blamieren.
ChatGPT erfindet Urteile: Anwalt blamiert sich vor US-Gericht
Es ist ein Fall, der die Grenzen zwischen menschlicher Kreativität und künstlicher Intelligenz auf schmerzhafte Weise verschwimmen lässt. Der New Yorker Anwalt Steven A. Schwartz von der Kanzlei Levidow, wagte es, das Sprachmodell ChatGPT als Recherchehilfe für einen Fall einzusetzen – mit verheerenden Folgen. Vor Gericht präsentierte er eine beeindruckende Liste vermeintlicher Präzedenzfälle, die ChatGPT ausfindig gemacht hatte. Doch die Wahrheit sollte sich als eine bizarre Mischung aus Fiktion und Täuschung erweisen.
Der besagte Anwalt vertrat einen Fluggast, der behauptete, von einem wild gewordenen Servierwagen der Airline Avianca am Knie verletzt worden zu sein. Ein scheinbar unbedeutender Vorfall, der nun zu einer juristischen Farce eskalierte. Als die Airline die Klage abwies, sah sich der Klägeranwalt gezwungen, einen Gegenantrag vorzubringen. Mit einer scheinbar unschlagbaren Waffe im Arsenal: vermeintliche Präzedenzfälle wie „Petersen gegen Iran Air“ oder „Martinez gegen Delta Airlines“. Aktenzeichen, angebliche Dokumente – alles schien perfekt vorbereitet zu sein.
Doch die Avianca-Anwälte durchschauten die Täuschung und stießen auf eine schockierende Erkenntnis: Es gab keine dieser Urteile. Sie waren pure Erfindungen, von ChatGPT hervorgebracht.
Die Blamage war unausweichlich, und der Anwalt musste sich eingestehen, dass er ChatGPT als eine „unzuverlässige Quelle“ genutzt hatte. In einer eidesstattlichen Erklärung an das Gericht gab er zu, dass die Texte, die er präsentierte, auf gefälschten Gerichtsentscheidungen basierten. Selbst die Verweise auf angebliche Fälle erwiesen sich als pure Fiktion. Es war ein öffentliches Eingeständnis der Abhängigkeit von einer Maschine, die ihn im Stich gelassen hatte.
Richter von Dreistigkeit entsetzt
Richter P. Kevin Castel konnte sein Entsetzen nicht verbergen und sprach von einem „beispiellosen Umstand“. Er ordnete eine Anhörung an, um mögliche Sanktionen gegen den Anwalt zu diskutieren. Eine juristische Vorlage voller Falschinformationen und gefälschter Zitate ist eine unverzeihliche Verletzung der Integrität des Gerichts.
Dieser Fall wirft ein grelles Licht auf die Tücken und Gefahren von Sprachmodellen wie ChatGPT. Sie mögen beeindruckende Fähigkeiten haben, doch ihre inhärente Natur der kreativen Wahrscheinlichkeitsrechnung führt unausweichlich zu Fehlern und Fehlinformationen. Es ist ein Spagat zwischen dem Verlangen nach innovativen Werkzeugen und der Notwendigkeit, deren Inhalte sorgfältig zu überprüfen. Dieser Anwalt hat eine schmerzhafte Lektion gelernt: die Gefahr, sich blind auf künstliche Intelligenz zu verlassen.
Es scheint, als wäre die Verführung zu groß gewesen, den vermeintlich endlosen Schatz an Informationen von ChatGPT zu nutzen, ohne dabei die grundlegende Prämisse des kritischen Denkens und der Verifikation zu beachten. Doch die Welt der Justiz ist keine Spielwiese für maschinelle Fantasie. Sie erfordert Expertise, Hingabe und eine Prise gesunden Menschenverstandes.
Warnung für andere
Die Geschichte des Anwalts, der vor Gericht mit erfundenen Urteilen scheiterte, wird wohl eine Warnung für diejenigen sein, die geneigt sind, sich allzu leichtfertig auf die vermeintliche Allwissenheit von KIs zu verlassen. Es ist ein Aufruf zur Vorsicht, zur kritischen Prüfung und zur Einsicht, dass technologischer Fortschritt nicht allein über das Urteilsvermögen eines Menschen gestellt werden kann.
Und während wir uns in einer Welt bewegen, in der künstliche Intelligenz unaufhaltsam an Einfluss gewinnt, müssen wir uns bewusst sein, dass diese Technologien nicht perfekt sind. Sie können Fehler machen, sie können irreführende Informationen liefern und uns in die Irre führen.
Es liegt an uns, als Verbraucher*innen von KIs und als Entscheidungsträger*innen, diese Technologien mit einem kritischen Auge zu betrachten und ihre Ergebnisse zu hinterfragen. Denn letztlich liegt es an uns, die Verantwortung zu übernehmen und sicherzustellen, dass die KI-Systeme, auf die wir uns verlassen, unsere Erwartungen erfüllen und nicht zu unerwarteten juristischen Albträumen führen.
Titelbild © Shutterstock
DAS KÖNNTE SIE AUCH INTERESSIEREN
5 unvergessliche Schweppes-Cocktailrezepte – presented by Steffen
Der Schweppes Brand-Ambassador Steffen Zimmermann, stellt fünf unvergessliche Cocktailrezepte vor, die du problemlos zu Hause nachmixen kannst.
Vlad Dobres VIENNA NIGHT CREATURES: exklusiver Book Launch
Der rumänische Ausnahmefotograf Vlad Dobre stellt am 29. Mai 2024 sein Buchprojekt vor. Ein dokumentarisches Porträt der Nachtszene Wiens.
Infinite Money Glitch: TikTok-Trend ist Scheckbetrug
Infinite Money Glitch: TikToker nutzen vermeintliche "Fehlfunktion" im Bankensystem, der angeblich unbegrenzt Geld freisetzen kann.
Aggressive Affen terrorisieren japanische Stadt
Die japanische Stadt Yamaguchi hat ein Affenproblem. Alleine im Monat Juli sind 58 Menschen Opfer von Affenübergriffen geworden. Jetzt reagieren die Behörden auf dieses untypische Verhalten.
Das erste Date und dann? Worauf es ankommt, damit es mehr wird
Ob es zu einem ersten Treffen und darüber hinaus zu weiteren Dates kommt, hängt von einigen Faktoren ab. Welche diese sind, erfährst du hier.
12 Trends, die niemand braucht
Trends. Viele davon sind einfach nur total bescheuert. Wir haben diesbezüglich eine Liste für euch erstellt. 10 Trends, die keiner braucht.