Jenseits einfacher Befehle: Fort­ge­schrit­tenes Prompten für Juristen

von Nico Kuhlmann

17.03.2026

Wer mehr aus großen Sprachmodellen rausholen will, muss wissen, wie man richtig promptet. Die Grundkenntnisse haben die meisten mittlerweile. Nico Kuhlmann erklärt nun ein paar weitere Tipps und Tricks für Fortgeschrittene.

Moderne KI-Tools, die auf großen Sprachmodellen beruhen, können nicht alles, was Juristen können. Zumindest noch nicht. Aber sie können Juristen bereits bei vielen Aufgaben in der täglichen Arbeit enorm unterstützen.

Dafür sollte man im ersten Schritt verstanden haben, welche verschiedenen Rollen die KI für einen einnehmen kann. Dies reicht vom kreativen Sparringspartner über den eifrigen Kollegen bis zum engagierten Lernbegleiter. Im Zweiten Schritt geht es darum, eine vernünftige Arbeitsanweisung zu geben. Wie im beruflichen Alltag im Umgang mit menschlichen Kollegen gilt auch bei der KI: Vage Anweisungen führen zu unpassenden Ergebnissen. An dieser Stelle kommt das Prompt Engineering ins Spiel, also der Kunst einem Sprachmodell einen möglichst gut formulierten Arbeitsauftrag zu geben.

Dabei gilt zunächst, wie auch gegenüber Menschen: Klarheit und Präzision sind entscheidend. Die KI-Tools arbeiten zudem zielgerichteter, wenn ihnen eine Rolle und ein Zweck vorgegeben wird. Auch das gewünschte Format der Antwort lässt sich von Anfang an definieren.

Wer diese grundlegenden Regeln beherrscht, kommt schon ein Stück weiter. Aber wer noch mehr aus der KI herausholen möchte, der sollte auch die folgenden Tipps und Tricks berücksichtigen.

Per Prompt zum perfekten Prompt

Beim Prompten für Fortgeschrittene geht es nicht nur darum, eine Frage vernünftig zu stellen, sondern auch darum, die KI gezielt dazu zu bringen, ihre eigene Analyse zu strukturieren, zu überprüfen und zu verbessern. Ziel ist also, verlässliche und differenzierte Ergebnisse zu erhalten.

Ein einfacher Ansatz ist beispielsweise das sogenannte Reverse Prompting. Dabei bittet man die KI zunächst, selbst einen optimalen Prompt zu formulieren. Ein Kautelarjurist könnte also, statt direkt eine Vertragsanalyse anzufordern, etwa schreiben: „Du bist ein Experte für Prompt Engineering. Erstelle den optimalen Prompt, um einen Unternehmenskaufvertrag im Hinblick auf rechtliche Risiken zu analysieren.“ Der so generierte Prompt wird anschließend für die eigentliche Analyse verwendet.

Andere Perspektiven einnehmen, aber keine Abkürzungen nutzen

Oder man experimentiert mit verschiedenen Perspektiven. Man kann etwa eine Diskussion zwischen mehreren fiktiven Experten simulieren und anschließend die KI bitten, die unterschiedlichen Argumente zusammenzuführen und eine ausgewogene Empfehlung daraus zu formulieren. Diese Methode führt häufig zu differenzierteren Ergebnissen im Vergleich dazu, dass man direkt nach der Antwort gefragt hätte.

Daneben gibt es weitere Ansätze, um den Arbeitsprozess der KI noch detaillierter anzuleiten. Eine Technik dreht sich beispielsweise darum, zu verhindern, dass die KI eine Abkürzung nimmt. Da bei den Sprachmodellen eine Token-Optimierung eine immer größere Rolle spielt, kann dies dazu führen, dass der Output zu früh komprimiert wird. Mit anderen Worten, die Sprachmodelle wollen schnell und effizient sein und anstatt nachzudenken, antworten sie das erste, was ihnen „in den Sinn“ kommt.

Dabei brauchen Juristen aber eben oft den Deep Dive. Statt also direkt nur nach einer Zusammenfassung einer Antwort auf eine Rechtsfrage zu fragen, kann man auch eine ausführliche Erklärung mit Beispielen und mit so viel Erläuterung wie möglich verlangen. Das nennt man Deliberate Over Instruction, also eine absichtliches Zu-viel an Arbeitsanweisung. Das kann verhindern, dass die KI zu früh vereinfacht, und dabei helfen, die Überlegungen Schritt für Schritt nachzuvollziehen.

Die KI zur Selbstkritik zwingen

Besonders interessant sind auch Ansätze, bei denen man die KI ihre eigene Analyse überprüfen lässt. Ein Beispiel wäre folgende Anweisung: „Analysiere diesen Vertrag und nenne die drei wichtigsten Risiken. Identifiziere anschließend drei mögliche Schwächen deiner eigenen Analyse und überprüfe, ob sie berechtigt sind.“ Solche sogenannten Verification Loops zwingen die KI dazu, die eigenen Aussagen kritisch zu hinterfragen. Das Ergebnis ist oft deutlich robuster als eine einfache Antwort.

Eine ähnliche Methode ist das Adversarial Prompting, mit dem man die KI dazu bringt, die Rolle des argumentativen Gegenspielers zu sich selbst einzunehmen. Man fordert also die KI ausdrücklich auf, die eigene Argumentation anzugreifen und Gegenargumente zu entwickeln. Im Grunde simuliert man damit genau das, was gute Juristen ohnehin tun: Argumente prüfen, Gegenargumente suchen und ihre Schlussfolgerungen mehrfach hinterfragen.

Der Motor muss die richtige Temperatur haben

Die nächste Ebene ist die Temperatursimulation. Sprachmodelle verhalten sich nicht immer gleich, sondern sind manchmal „kreativer“ oder „deterministischer“, je nachdem welche Temperatur vorliegt.

Das hat nichts mit der echten Temperatur der Server zu tun, auf denen die KI läuft, sondern beschreibt das Maß an Zufälligkeit oder Variabilität bei der Textgenerierung. Die Temperatur beeinflusst also, wie das Sprachmodell den nächsten Token – vereinfacht gesagt: das nächste Wort – auswählt. Je höher die Temperatur eingestellt ist, desto kreativer fällt der Text aus. Das Sprachmodell wählt dann nämlich bei der Textgenerierung nicht nur das jeweils wahrscheinlichste nächste Wort, sondern gelegentlich auch das zweit- oder drittwahrscheinlichste Wort.

Man kann die Temperatur in der Regel direkt über die API einstellen. Eine API ist eine technische Schnittstelle, die es anderen Programmen und Entwicklern ermöglicht, Sprachmodelle direkt in ihre eigenen Anwendungen einzubauen. Über die normalen Benutzeroberflächen, über die die meisten Nutzer aktuell diese Anwendungen benutzen, geht dies aber regelmäßig nicht.

Aber man kann die Temperatur auch simulieren, indem man Rollen vergibt. Zum Beispiel kann man prompten: „Zuerst analysiert eine vorsichtige Juristin, die gerne zu viel erklärt, das Thema im Detail. Danach gibt eine selbstbewusste Expertin eine prägnante Einschätzung. Abschließend werden beide Perspektiven zusammengeführt und hervorgehoben, wo noch Unsicherheit besteht.“

Context Engineering: Die digitale Handakte für die KI

Während man sich bei diesen Techniken aus dem Advanced Prompt Engineering in der Regel nach wie vor auf die Formulierung einer einzelnen Eingabe konzentriert, weitet man beim sogenannten Context Engineering den Blick. Man betrachtet den gesamten Informationsraum, mit dem die KI arbeitet.

Das Kontextfenster bei großen Sprachmodellen ist der Begriff für die maximale Menge an Informationen, die die KI gleichzeitig verarbeiten kann. Beim Context Engineering geht es also darum, dieses Fenster sinnvoll zu befüllen. Das Ziel ist es somit, der KI alle Informationen bereitzustellen, die sie braucht, um relevante und verlässliche Ergebnisse zu liefern. Wie eine digitale Handakte.

Stellt man sich den KI-Prompt als Arbeitsanweisung an einen Referendar oder einen Kollegen vor, so sorgt gutes Context Engineering dafür, dass dem Zuarbeitenden auch eine aktuelle und gut strukturierte Akte zur Verfügung steht. Darin enthalten sein sollten Hintergrundinformationen zur Mandantschaft, relevante Fachartikel, Besprechungsnotizen und interne Vorlagen. Auch bereits identifizierte Entscheidungen oder Gesetzestexte gehören dazu. Je besser dieser Kontext vorbereitet ist, desto zielgerichteter kann die KI arbeiten.

Allerdings gilt: Mehr Kontext ist nicht automatisch besser. Eine überladene Akte mit vielen irrelevanten Dokumenten kann die Qualität der Ergebnisse sogar verschlechtern. Oft ist es sinnvoller, nur wenige, dafür wirklich relevante Materialien bereitzustellen.

Vorlagen sind immer gut – Für Mensch und Maschine

Auch Vorlagen sind oft hilfreich. Wer möchte, dass ein Ergebnis wie ein bestimmtes Memo oder ein alter Schriftsatz strukturiert ist oder ähnlich tief in ein rechtliches Problem eintaucht, kann einfach ein entsprechendes Beispiel als Referenz hinzufügen. Das ist, als würde man einem wissenschaftlichen Mitarbeiter eine rechtliche Analyse aus einem anderen Fall geben und sagen: „Das ist die Qualität, die ich erwarte.“

In Zukunft wird dieser Prozess durch Techniken wie dem Retrieval-Augmented Generation (RAG) zunehmend automatisiert werden, sodass die KI selbstständig in verbundenen Datenbanken nachschlägt und selbst die relevanten Dokumente raussucht. Bis diese Systeme jedoch flächendeckend integriert sind, bleibt die Kontextsteuerung erstmal weiterhin Handarbeit.

Human in the Loop

Egal wie ausgeklügelt man die KI nutzt, sie bleibt bis auf weiteres nur ein Werkzeug des Menschen. Die Verantwortung verbleibt also beim Nutzer. Unabhängig davon, wie eloquent die KI manche Antworten formuliert, müssen die Ergebnisse somit verifiziert und das Problem auch selbst durchdacht werden.

Wer aber bereit ist, über einfache Fragen hinauszugehen und etwas Zeit und Mühe in einen durchdachten Prompt und sinnvolle Zusatzinformationen für das Kontextfenster zu stecken, wird mit Ergebnissen belohnt, die deutlich tiefer gehen als generische Textbausteine.

Das erfordert Neugier und ein bisschen Experimentierfreude, aber wer einmal gelernt hat, die KI wie einen hochspezialisierten Mitarbeiter zu führen, wird auf diesen digitalen Partner nicht mehr verzichten wollen.

Nico Kuhlmann

Nico Kuhlmann ist Rechtsanwalt bei Hogan Lovells International LLP in Hamburg. Er beschäftigt sich mit Geistigem Eigentum, digitalen Geschäftsmodellen und dem Einsatz von Legal Tech und KI im Kanzleialltag. Auf LinkedIn und YouTube teilt er regelmäßig Einblicke in die digitale Transformation des Rechts.

Zitiervorschlag

Jenseits einfacher Befehle: . In: Legal Tribune Online, 17.03.2026 , https://www.lto.de/persistent/a_id/59523 (abgerufen am: 19.04.2026 )

Infos zum Zitiervorschlag

LTO Karriere - Deutschlands reichweitenstärkstes Karriere-Portal für Jurist:innen

Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen