Warum Anwälte und Justiz "genug" Rechtsfälle brauchen: Sind von KI hal­lu­zi­nierte Urteile doch gut fürs Recht?

von Tom Braegelmann

28.02.2026

Als ein Rechtsprofessor ein spektakuläres Paper ankündigt, geht das viral – entpuppt sich aber als vielsagender Scherz. Was man durch Künstliche Intelligenz erfundenen Urteilen für das deutsche Recht abgewinnen könnte, überlegt Tom Braegelmann.

Es gibt Witze, die deshalb funktionieren, weil sie zu spät als solche erkannt werden. Robert Anderson, Rechtsprofessor an der University of Arkansas School of Law, hat kürzlich auf X ein fiktives Paper angekündigt: "Hallucinated Cases Are Good Law", demnächst zu lesen in der Princeton Law Review. Man muss wissen: Princeton hat keine juristische Fakultät. Es gibt keine Princeton Law Review. Schon der Publikationsort ist halluziniert – und wer das nicht sofort bemerkt hat, hat Andersons These bereits am eigenen Leib bewiesen. Im deutschen Recht entspräche das etwa einer Ankündigung eines Aufsatzes in der Weimarer Zeitschrift für Rechtsdogmatik und -gestaltung, WZRG, herausgegeben an der Bauhaus-Universität Weimar. Es klingt sofort vielversprechend und plausibel. Man würde es treuherzig googeln, bevor man stutzig wird.

Es geht so los: "Dieser Artikel will die vorherrschende Sicht herausfordern, dass durch Künstliche Intelligenz generierte, 'halluzinierte' Fälle 'schlechtes Recht' seien", so der erste Satz ins Deutsche übersetzt. Das amüsante Abstract ist sauber formatiert, sieht in der Voransicht nach wissenschaftlicher Publikation aus, akademisch im Ton, und vertritt eine These, die man erst beim zweiten Lesen als Witz erkennt: Wenn eine Künstliche Intelligenz Urteile erfindet – vollständige Entscheidungen mit Aktenzeichen, Richternamen, Leitsätzen, die allesamt nie existiert haben –, dann seien diese Erfindungen nicht etwa Fehler, sondern besseres Recht als das, was tatsächlich in den Datenbanken steht. Die KI traue sich, Dinge zu entscheiden, vor denen die Menschen zurückschrecken, und das sei richtig und besser so. 

Der Tweet ging ein bisschen viral. Verbreitet von solchen, die den Witz erkannten, und solchen, die nicht gleich darauf kamen. Das sagt weniger über Anderson aus als über das Mindset in einer Disziplin.

Der eigentliche Witz ist boshaft. Anderson erledigte mit einem einzigen Gag gleich zwei Gegner. Erstens die Sorge vor der halluzinierenden KI, die er elegant in ihr Gegenteil verkehrt: Der Fehler sei kein Fehler, sondern eine Leistung. Und zweitens, beiläufig wie ein Ellbogenstoß im Gedränge, die rechtstheoretische Tradition à la Ronald Dworkin, die sich seit Jahrzehnten daran abarbeitet zu behaupten, dass es für jeden Rechtsfall eine einzige richtige Antwort gibt (ich fände das ja irgendwie schön, aber ist es so?). Jedenfalls treten immer alle so auf, als sei ihre Rechtsinterpretation die beste, richtige, einzig wahre… es ist unvermeidlich. Das fiktive Paper beantwortet die Frage, indem es sie an eine Maschine delegiert und demoliert eine ehrwürdige Debatte in 109 Zeichen plus einem Screenshot mit 1188 Zeichen, indem man so tut, als habe eine KI als angeblicher stochastischer Papagei per Sprachstatistik sie gelöst. Das muss man erst einmal hinbekommen.

Haben wir in Deutschland eigentlich "genug" echte Rechtsfälle?

In Deutschland kennen wir halluzinierte Rechtsprechung bisher nur als Berufsrechtsverstoß. Der Anwalt, der dem Gericht ein von ChatGPT erfundenes BGH-Urteil vorlegt, riskiert seinen Ruf, unter Umständen seine Zulassung und jenen Blick des Vorsitzenden – bei geschwollener Zornesader in der Schläfe –, der Anwälte dazu bringt, sich in ihrer Robe zu verstecken. So viele Fälle halluzinierter Entscheidungen und Fundstellen in anwaltlichen Schriftsätzen sind in Deutschland aber bisher nicht bekannt geworden. Warum nur? Ein Schelm (also nicht ich) würde vermuten: Weil die Gerichte die rechtlichen Ausführungen in anwaltlichen Schriftsätzen eh nur maximal überfliegen und deren Fundstellenknäuel nicht wahrnehmen, also auch nicht überprüfen. Man hat die vielen Geschichten der elendigen ChatGPT-Lawyer aus den USA gehört, sich kurz amüsiert, und sich dann wieder seiner Dogmatik zugewandt. Wir brauchen keine erfundenen Fälle. Wir haben System.

Nur: Haben wir genug echte Fälle?

Die Antwort, die niemand gerne ausspricht – und die deshalb auf Konferenzen nur nach der dritten bis vierten harten Butterbrezel nebst Filterkaffee fällt –, lautet: Nein. In weiten Bereichen des deutschen Rechts herrscht eine Urteilsarmut, die man nur deshalb nicht bemerkt, weil alle so tun, als reiche die Dogmatik aus. 

All das lebt in einem Zustand der gelehrten Spekulation. Professoren kommentieren Normen, die noch nie angewendet wurden. Praktiker entwerfen Verträge auf der Grundlage von Prognosen der zukünftigen Rechtsprechung zu verschrobenen neuen Normen, Prognosen, die sich auf nichts stützen als die eigene Erfahrung und die Hoffnung, dass ein Gericht es ähnlich sehen wird. Man nennt das Rechtssicherheit, solange niemand nachfragt.

Die deutsche Rechtsordnung ist, ohne es je zugegeben zu haben, längst funktional eine Case-Law-Jurisdiktion, nur in schlecht. Anwälte, Richter, Unternehmensjuristen – alle gieren nach Urteilen als Autoritäten. Kein Memorandum ohne Zitat des Bundesgerichtshofs (BGH) oder der jeweiligen anderen höchstrichterlichen Rechtsprechung, kein Schriftsatz ohne Rechtsprechungsnachweis, kein Kommentar, der nicht obsessiv die Spruchpraxis nachzeichnet. Nur mit dem kleinen Nachteil, dass es keine formale Präjudizienbindung inter omnes gibt. Deutschland ist längst in der Praxis eine Case-Law-Jurisdiktion, aber ohne die Rechtssicherheit und Vorhersehbarkeit, die ein echtes Case-Law-System durch die strenge Präjudizienbindung bietet – es ist also ein schlechtes Case-Law-System. Das ist auch einer der Gründe, warum in Deutschland die Fallzahlen vor den Gerichten sinken, es mag aber keiner so gerne sagen: Man weiß einfach nicht, ob die Gerichte nachher so entscheiden, wie die obersten Gerichte es vorgeben. Und wer schafft es schon, sich wieder hoch bis zum BGH und so weiter durchzuklagen? 

Jeder Richter und jede Richterin kann dem BGH widersprechen (in Berlin macht das am Landgericht eine Kammer für Mietrecht andauernd – die 66. Zivilkammer hält beharrlich an ihrer Ansicht fest, der BGH hebt zum dritten Mal auf und verweist die Sache demonstrativ an eine andere Kammer –, weil sie eben findet, dass sie recht hat, der BGH ist eben nur höher und Letztentscheider, aber nicht richtiger). Der Richter oder die Richterin mag nur nicht ständig dem BGH widersprechen, weil es Ärger macht. Das deutsche System funktioniert wie das Common Law, nur mit weniger Ehrlichkeit und weniger Material, wenn man sich mal anschaut, wie viel mehr Entscheidungen als in Deutschland anderswo veröffentlicht werden – in Deutschland werden weniger als 1 Prozent aller Gerichtsentscheidungen veröffentlicht, in Frankreich werden seit der Justizreform 2019 sukzessive alle Entscheidungen digital publiziert, in China liegt die Veröffentlichungsquote allein in der Provinz Sichuan bei 54,2 Prozent (so heißt es); Paradebeispiel sind die USA, wo das bundesweite System PACER (Public Access to Court Electronic Records) seit 1988 sämtliche an Bundesgerichten eingereichten Schriftsätze, Beschlüsse und Urteile öffentlich zur Verfügung stellt und heute über eine Milliarde Dokumente von mehr als 200 Bundesgerichten enthält (in den einzelnen Bundesstaaten sieht es durchaus ähnlich aus) – (und das auch noch unanonymisiert).

Es gibt Bereiche des Wirtschaftsrechts, in denen seit Jahrzehnten keine höchstrichterliche Klärung erfolgt ist. Die Wirksamkeit von Marktstandard-Klauselwerken ist oft ungeklärt, weil Streitigkeiten fast ausnahmslos verglichen oder in Schiedsverfahren begraben werden, deren Sachverhalt und Begründung niemand öffentlich zu lesen bekommt. Die AGB-Kontrolle bei Konsortialkreditverträgen lebt seit Jahren von der stillen Übereinkunft, dass keine Bank und kein Darlehensnehmer es auf eine Klärung ankommen lassen will, wie weit das AGB-Recht da eigentlich greift.

Dazu kommt etwas, das man polemisch die stille Sabotage der Fallrechtsproduktion nennen könnte. Es gehört zum Alltag der forensischen Praxis, dass Verfahren verglichen werden, sobald eine Partei erkennt, dass der Fall schlecht ausgehen könnte. Nicht aus Friedensliebe. Aus Kalkül. Man will kein ungünstiges Fallrecht produzieren. Der Vergleich wird teuer, aber billiger als ein Leitsatz allemal, der die nächsten zwanzig Jahre gegen einen spricht. Das Ergebnis: Die veröffentlichte Rechtsprechung bildet nicht die Wirklichkeit ab. Sie bildet ab, was übrig bleibt, wenn alle Beteiligten ihr Möglichstes getan haben, um ein Urteil zu verhindern.

Und selbst die Urteile, die tatsächlich fallen, verschwinden oft genug in den Akten. Keine allgemeine Veröffentlichungspflicht, die Gerichte, das ist wirklich putzig, entscheiden selber, was sie veröffentlichungswürdig finden, wohl kaum Urteile, die das Gericht schlecht dastehen lassen. Die Datenbanken enthalten, was jemand einpflegt. Was wir als "die Rechtsprechung" kennen, ist eine kuratierte Auswahl von einem Bruchteil aller Entscheidungen eines Jahres. Nur hat sie niemand kuratiert. Sie ist einfach so gewachsen, wie Unkraut wächst: zufällig, lückenhaft und an den falschen Stellen besonders dicht.

Brauchen wir ein Vorratslager KI-generierter Rechtsprechung zu fiktiven Fällen?

In dieser Lage wäre es doch eigentlich nur konsequent – und hier kippt der Text, den sie lesen, man spürt es schon –, wenn das BMJV eine Künstliche Intelligenz damit beauftragte, synthetische Rechtsprechung auf Vorrat zu erzeugen.

Ein System, gespeist (nicht: trainiert) mit den gängigen Urteilsdatenbanken und Kommentaren und Aufsätzen, generiert für all jene Rechtsfragen, die nie ein Gericht erreicht haben, hypothetische Entscheidungen auf Halde. Formatiert wie echte Urteile, mit Tatbestand, Tenor und Entscheidungsgründen. Veröffentlicht in einer eigenen Datenbank – man könnte sie fictio legis nennen –, versehen mit dem Hinweis: "Diese Entscheidung wurde von keinem Gericht gefällt. Sie stellt eine rechnerisch optimierte Prognose der Lösung eines Einzelfalls dar. Besser als nichts."

Natürlich unter rechtswissenschaftlicher Anleitung. Ein Beirat, der die halluzinierten Urteile grob prüft, bevor sie freigeschaltet werden, um offensichtliches Quatschjura fernzuhalten. Qualitätssicherung für das Fiktive. Man kennt das Prinzip aus der Kommentarliteratur, nur dass dort niemand darüber redet.

Und hier wird es erst wirklich interessant. Denn der eigentliche Reiz läge nicht darin, saubere Ergebnisse zu produzieren, das auch, sondern die schrägen Fälle, die nicht aufgehen, an die keiner denkt, die aber leider im Leben vorkommen und Anwälten und Richtern Kopfzerbrechen bereiten. Fälle, die keine Musterlösung haben. Fälle, die so aussehen, wie das Leben aussieht, wenn es nicht die Freundlichkeit besitzt, sich an den Bearbeitervermerk zu halten.

Die eigentümlichen Prüfungsklausuren und Ausbildungsfälle: Am Ende gehen sie alle auf

Jeder, der einmal eine Staatsexamensklausur geschrieben hat, kennt die eigentümliche Wirklichkeitsferne juristischer Ausbildungsfälle: Sie gehen alle auf. Sie sind konstruiert, um lösbar zu sein. Es gibt eine erwartete Musterlösung, eine Prüfungsfolge, und am Ende steht ein Ergebnis, das man mit Gründen vertreten kann. Die Realität ist da weniger zuvorkommend. Sie produziert Fälle, in denen der Sachverhalt unklar ist, die Rechtslage unübersichtlich, die Parteien unvernünftig und nicht in der Lage, finanziell oder kräftemäßig alle Verhandlungsrunden oder Instanzen durchzustehen. Das Ergebnis, egal wie man es dreht, ist unbefriedigend, die Anwälte sind damit beauftragt, einen gegenseitigen Dissens über Jahre zu managen. Das Leben hat keine Musterlösung. Es hat nicht einmal einen Bearbeitervermerk wie eine juristische Staatsexamensklausur.

Eine KI könnte gerade solche Konstellationen generieren, als vorgekauter Lösungsvorschlag. Nicht die sauberen Dreipersonenverhältnisse des Bereicherungsrechts, sondern die verworrenen, widersprüchlichen Sachverhalte, bei denen der erfahrene Anwalt weiß, dass es keine gute, sondern nur mäkelige drittbeste Lösungen gibt. Man könnte damit auch üben – nicht für das Examen, sondern für den Beruf. Nicht Subsumtion, sondern das Navigieren in Ungewissheit. Der Anfänger lernt, dass das Recht Antworten hat. Der Fortgeschrittene lernt, dass die Antworten nicht immer passen und echte Antworten ausbleiben und das juristische Leben weiter- und darüber hinausgeht. Der Profi weiß, dass manche Fragen besser nicht gestellt werden.

Selbstverständlich ist das alles ein Scherz. Andersons Tweet war ein Scherz. Dieser Vorschlag ist ein Scherz. Das BMJV wird keine KI-Rechtsprechungsfabrik als Trainingslager für Rechtsprechungslücken errichten. Ein Urteil bleibt ein Urteil, weil es von einem legitimierten Gericht in einem vorgesehenen Verfahren gesprochen wurde. So weit die Beruhigung.

Aber manchmal trifft ein Scherz eine Stelle, an der es wehtut. Die halluzinierte Entscheidung ist nur deshalb verführerisch, weil die echte so oft fehlt. Es wäre doch so schön, wenn es sie gäbe! Wer sich empört, dass eine KI Urteile erfindet, sollte sich zuerst fragen, warum es in einem der am besten organisierten Rechtssysteme der Welt so viele Rechtsfragen gibt, auf die niemand eine verbindliche Antwort hat. Nicht weil die Fragen neu wären, sondern weil die Fälle verglichen, die Urteile nicht veröffentlicht, die Verfahren eingestellt und die Probleme vertagt werden. 

Aber ach, wie man hört, haben die meisten (Legal-)KI-Anbieter das Problem der KI-Halluzinationen auf dem Schirm und wollen es 2026 erschlagen, das ist gut, aber auch schade, weil dann das Recht weiterhin voller Lücken bleiben wird, wenn man denn nach solchen Lücken schaut, oder wenn man Lücken in Gesetzen durch neue juristische Argumentation oder Fälle erst schafft.

(c) Braegelmann

Der Autor Tom Braegelmann ist in Deutschland und im Staat New York als Rechtsanwalt zugelassen. Er arbeitet vorwiegend in den Bereichen Insolvenz/Strukturierung, Wirtschaftsrecht, IP-Recht, KI-Recht.

 

Beitrag in der Version vom 02.03.2026, 09.15 Uhr, korrigiert wurde die aktuelle University von Anderson.

Zitiervorschlag

Warum Anwälte und Justiz "genug" Rechtsfälle brauchen: . In: Legal Tribune Online, 28.02.2026 , https://www.lto.de/persistent/a_id/59420 (abgerufen am: 07.03.2026 )

Infos zum Zitiervorschlag
ads lto paragraph

Neue Top-Jobs für Jurist:innen

Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen