Erhöhte Sorgfaltspflicht beim Einsatz von KI

Die größte Schwäche Künstlicher Intelligenz ist ihr Hang zum Halluzinieren. Im juristischen Umfeld, wo es auf die Beleg- und Belastbarkeit von Aussagen ankommt, wiegt es besonders schwer, wenn in Schriftsätzen falsche Angaben auftauchen.
vom 16. September 2025
image

2023, im Verfahren Roberto Mata gegen die kolumbianische Fluggesellschaft Avianca in New York, zitierte der Rechtsanwalt des Klägers in einem Schriftsatz über ein halbes Dutzend Gerichtsurteile. Die gab und gibt es aber ausschließlich im Chat-GPT-Kosmos, nicht im wahren Leben. Der Fall war für Mata verloren, der Anwalt wurde wegen „böswilligen Handelns“ mit einer Geldstrafe belegt. Zwei Jahre später ereignete sich am Amtsgericht in Köln Vergleichbares. In einer Familiensache ging es um Sorgerecht, Wechselmodell und Kindeswohl. Und auch da tauchen in Schriftsätzen frei erfundene Fundstellen auf, der Anwalt zitiert Entscheidungen, die es nie gegeben hat beziehungsweise solche, die in Wahrheit andere Inhalte haben. Das Amtsgericht stellte klar, dass die Einlassung des Rechtsanwaltes unbrauchbar und dazu irreführend war. Der mit dem Fall beschäftigte Richter hat eine klare Meinung, die er im Beschluss zur Sache entsprechend niederlegte: „Der Verfahrensbevollmächtigte hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen.“ Er verwies auf einen möglichen Verstoß gegen § 43a Abs. 3 der Bundesrechtsanwaltsordnung. Danach gehört es zu den Grundpflichten von Rechtsanwältinnen und -anwälten, sich nicht unsachlich zu verhalten. „Unsachlich ist insbesondere ein Verhalten, bei dem es sich um die bewusste Verbreitung von Unwahrheiten oder solche herabsetzenden Äußerungen handelt, zu denen andere Beteiligte oder der Verfahrensverlauf keinen Anlass gegeben haben.“ Es gibt nun diejenigen, die daraus eine allgemeine Wahrheitspflicht für Rechtsanwältinnen und -anwälte ableiten, andere sehen die Grenze zur Unsachlichkeit erst dann überschritten, wenn Äußerungen strafrechtlich relevant sind. Oder begeht jemand, der mit „Fake-Angaben“ vor Gericht hantiert, einen Prozessbetrug?

Natürlich ist ein Rechtsstreit neben dem zugrundeliegenden Sachverhalt geprägt von einer Auseinandersetzung mit abweichenden Argumenten und Auffassungen, vom Versuch, das Gericht von der eigenen Rechtsansicht zu überzeugen. Dabei ist aber unerlässlich, dass das, was eine Partei als „Fakt“ präsentiert, auch tatsächlich stimmt und nachvollzogen werden kann. Greifen wir auf § 43a Abs. 3 der BRAO zurück, finden wir das kleine Wörtchen „bewusst“. Ist es ein „bewusstes“ Verbreiten von Unwahrheiten, wenn sich ein Anwalt oder eine Anwältin Künstlicher Intelligenz bedient und die von ihr vorgebrachten Ergebnisse nicht überprüft? Das ist im Bereich der Aussagen, es werde schon „stimmen“ oder es werde schon „gutgehen“ anzusiedeln. Für den Prozessbetrug reicht ein bedingter Vorsatz aus, so dass dieses billigende Inkaufnehmen bejaht werden kann. Eines ist klar: Vor allem vor dem Hintergrund, dass der Einsatz von KI aktuell eines der beherrschenden Themen im Rechtsumfeld und hinreichend bekannt ist, dass sie Fehler macht und recht erfinderisch ans Werk geht, trifft Anwältinnen und Anwälte eine erhöhte Sorgfaltspflicht, was die Überprüfung der Ergebnisse angeht. Es stimmt zwar, dass das Gericht den Sachverhalt ohnehin rechtlich würdigen muss und die entscheidende Instanz ist. Die erhöhte Sorgfaltspflicht im Rahmen der Prüfung einfach dorthin zu verlagern, ist nicht im Sinne des Gesetzgebers, so leicht können es sich Anwälte und Anwältinnen nicht machen. Wobei sie sich am meisten selbst schaden, wenn sie allzu sorglos die Künstliche Intelligenz die Arbeit erledigen lassen. Das Verfahren dürfte verloren sein und sowohl der Mandantschaft wie auch den eigenen Kolleginnen und Kollegen gegenüber gerät der KI-Nutzer in Erklärungsnot. Der Reputationsschaden kann irreparabel sein.       

 

Euer Alexander Pradka

Leitender Redakteur In-house Counsel  

Ihr Alexander Pradka 

Leitender Redakteur 

alexander.pradka@diruj.de

Beitrag von Lisa Matusik

Dies könnte Sie auch interessieren

Alexander_Pradka_web
Der mühsame Weg zur Gleichberechtigung
Ende Oktober hat das Bundesarbeitsgericht ein nicht nur für Arbeitsrechtler mit Spannung erwartetes Urteil gesprochen, das ein positives Signal für die...
250815_News_SOMI vs
Datennutzung für KI-Trainingszwecke: Weiteres Eilverfahren gegen Meta gescheitert
Nach der Verbraucherzentrale Nordrhein-Westfalen ist nun auch die niederländische Verbraucherschutzstiftung Stichtung Onderzoek Martinformatie (SOMI) mit...
Alexander_Pradka_web
Meta darf
Passend zum Titelthema in diesem Heft sorgte am 23. Mai eine Entscheidung des Oberlandesgerichts Köln für Aufsehen: Meta darf personenbezogene Daten aus...