Rechtsberater ChatGPT erfindet auch mal ein Gesetz
Künstliche Intelligenz wird kreativ, wo es gar nicht angebracht ist. Wer juristischen Rat benötigt, darf sich nicht auf ChatGPT verlassen. Wer sich aber der Unzulänglichkeiten bewusst ist, kann sie trotzdem sinnvoll nutzen.

Wer mit dem Gesetz in Konflikt gerät oder sonstigen juristischen Rat benötigt, findet im Internet seit langem viele Informationen. Doch ohne Anwalt sind sie häufig schwer einzuordnen. Verständliche Hilfe bietet inzwischen aber auch die KI-Software ChatGPT. Doch Vorsicht ist angebracht.
Frage an ChatGPT: "Meine 15-jährige Tochter ist ohne Ticket Bahn gefahren und wurde erwischt. Jetzt hat sie ein Bußgeld von 60 Euro bekommen. Müssen wir das bezahlen?" Die klare Antwort: "Ja, Sie müssen das Bußgeld bezahlen." Die KI begründet ihre Einschätzung halbwegs nachvollziehbar. Doch ist sie korrekt?
Man muss auch die Fragen richtig stellen (können)
Anwalt Matthias Kraft aus Mühldorf am Inn warnt. "So eindeutig ist es nicht. Vielmehr würde ich je nach Umständen und Begründung eher dazu tendieren, dass man das erhöhte Beförderungsentgelt nicht bezahlen muss." Da fängt es allerdings schon an. Es ist eben kein Bußgeld und keine Strafe, um die es hier geht. Also hat der Laie unwissentlich bereits ungenau gefragt.
Korrigiert man die Frage zu "erhöhtem Beförderungsentgelt", spricht ChatGPT wieder von Strafe - was landläufig sicher stimmt, aus juristischer Sicht aber nicht korrekt ist, wie Kraft betont.
Der 59-jährige Anwalt beschäftigt sich seit 30 Jahren mit juristischer Software und hat zu Rechts-Informatik promoviert. Entsprechend gespannt war er, wie ChatGPT bei verschiedenen Fragestellungen reagiert.
Ein Gesetz, das nirgends zu finden ist
"Äußerst überrascht war ich, als ich gemerkt habe, wie der Chatbot ein Gesetz einfach erfunden hat", erzählt Kraft. Gefragt nach einer Quelle, gab er das "Baurechtsbehördenzuständigkeitsgesetz" inklusive Abkürzung "BauGBZustG" aus. "Ich habe gedacht: Oha, das kenn ich gar nicht", erinnert er sich.
Eine Recherche förderte nichts zutage. "Es hätte ja sein können, dass es sich um ein Gesetz aus Österreich oder der Schweiz handelt - doch es gab nichts", erzählt der Jurist. Also fragte er den Chatbot, wo man dieses Gesetz finden könne, und erhielt zwei Hinweise, die beide nicht zu einem BauGBZustG führten. Auf den Fehler hingewiesen, entschuldigte sich ChatGPT und bat, die vorherigen Antworten zu ignorieren.
Doch Antworten, die nur zu einem gewissen Prozentsatz richtig sind, helfen nicht weiter, konstatiert Matthias Kraft. Dazu kommt, dass der Chatbot keine Zweifel kennt. "Das System gibt einem das Gefühl, dass es die Fragen versteht, und antwortet immer in einer sehr klaren, deutlichen Sprache - häufig zu klar." Dagegen führe die inzwischen ebenfalls recht intelligente Google-Suche zu besseren und vor allem verlässlicheren Ergebnissen.
Als Schlichter kann die KI sehr gut funktionieren
Eine Einsatzmöglichkeit für ChatGPT sieht Kraft, der selbst auch Mediator ist, im Bereich Schlichtung. Im zivilrechtlichen Bereich könne man gemeinsam mit der Gegenseite den Chatbot befragen. "Wenn beide mit der Antwort leben können und sich dafür entscheiden, das Ergebnis zu akzeptieren - warum nicht?" Denn der Erfahrungsschatz, auf dem die KI basiert, sei riesig und umfasse eben auch Rechtssysteme anderer Länder. Das sei, wenn man sich privat darauf einige, kein Nachteil.
Version 4 halluziniert weiter
Die Aussagen in diesem Artikel beziehen sich auf die Version 3.5 von ChatGPT. Inzwischen können zahlende Kunden bereits die Version 4.0 nutzen. Dieses "Modell" hat bereits gezeigt, dass es in den USA juristische Examen mit sehr guten Noten besteht. Wie die "New York Times" berichtet, "halluziniert" ChatGPT jedoch weiterhin in manchen Situationen und erfindet beispielsweise Internet-Adressen, die als Quelle angefordert wurden.
Für Anwalt Matthias Kraft keine entscheidende Verbesserung: "Wenn die Fehlerquote sinkt, kann das Menschen dazu verführen, dass sie sich blind auf die Antworten der KI verlassen." Bisher sei es aber ein rein statistisches Modell, das auf Wahrscheinlichkeiten basiert, ohne Faktencheck. Doch der könnte irgendwann noch eingebaut werden. Die Entwicklung geht weiter.
Kommentare öffnen




Stimme.de
Kommentare