Künstliche Intelligenz in der Rechtsberatung: Viel Poten­zial und noch mehr Risiko?

Gastbeitrag von Dr. Ingemar Kartheuser und Lena Haffner und Tarmio Frei

07.02.2025

Der Umgang mit KI bewegt Entscheidungsträger in der Kanzleiwelt. Effizienzgewinne müssen gegen Haftungsrisiken abgewogen werden. Ingemar Kartheuser, Lena Haffner und Tarmio Frei geben Einblick.

Spätestens mit der Veröffentlichung der ersten ChatGPT-Version im Jahr 2022 war klar: Generative KI (“GenAI”) kann viele Tätigkeiten in Kanzleien erledigen, für die bisher Mitarbeiter notwendig waren – und zwar häufig wesentlich schneller. Systeme mit Künstlicher Intelligenz (KI) sind mittlerweile in der Lage, juristische Prüfungen wie etwa US-Bar Exams zu bestehen und immer komplexere Aufgaben in der Rechtsberatung zu lösen.

Das Potenzial für den Rechtsmarkt? Gigantisch. Kanzleien überbieten sich mit Beratungsleistungen zum Einsatz von KI und führen selbst KI-Tools ein, die vielfältige Aufgaben übernehmen. Deren Verwendung setzt Kanzleien Haftungsrisiken aus – zum Beispiel dann, wenn fehlerhafte Informationen in die Beratung einfließen.

Wo können KI-Systeme zum Einsatz kommen?

In vielen Fällen handelt es sich nicht direkt um juristische Fragen, sondern die KI-Systeme werden eingesetzt, um interne Geschäftsprozesse effizienter zu gestalten. Dazu gehören die kanzleiinterne Organisation, Verwaltungsabläufe, HR-Prozesse, Mandantenkommunikation und Öffentlichkeitsarbeit. Ein vielseitiges Produktivitätswerkzeug ist beispielsweise der Microsoft Copilot, der E-Mails verfassen, Word- oder Excel-Dokumente analysieren oder Teams-Meetings aufzeichnen kann.

Auf dem Rechtsmarkt gibt es zudem zahlreiche KI-Systeme, die entweder speziell für diesen Sektor entwickelt oder von Kanzleien intern erstellt worden sind. Diese Systeme werden etwa für die automatisierte Entwurfserstellung oder Dokumentenprüfung und -analyse eingesetzt. Besonders in der Dokumentenprüfung leisten diese Technologien wertvolle Dienste, indem sie umfangreiche oder komplexe Dokumentenmengen maschinell auswerten und zusammenfassen – zum Beispiel bei Due-Diligence-Prüfungen in M&A-Transaktionen. Tools wie Harvey Vault analysieren große Mengen an Verträgen nach spezifischen Elementen wie Haftungsklauseln oder Regelungen zum Kontrollwechsel, einschließlich Kündigungsrechten bei einem Wechsel der Mehrheitseigner.

Auch im Bereich der juristischen Analyse macht die KI deutliche Fortschritte. Ein Beispiel hierfür ist "Frag den Grüneberg" vom Beck-Verlag. Das Tool ist darauf ausgelegt, Antworten auf juristische Fragen zu liefern und mit einem BGB-Standardwerk zu interagieren. Grundlage ist eine umfangreiche Datenbank mit rechtlichen Informationen.

Risiken beim Einsatz von KI in Kanzleien

Auch wenn KI-Systeme Kanzleien an vielen Stellen helfen, sind damit auch vielfältige Risiken verbunden. Die meisten generativen KI-Systeme basieren auf sog. Large Language Models (LLMs). Diese entwickeln auf Basis einer großen Menge an Trainingsdaten – etwa Texten aus juristischen Datenbanken oder dem Internet – statistische Modelle, die die linguistischen Muster aus den Trainingsdaten in abstrahierter Form darstellen. 

Die GenAI-Tools verstehen also nicht, womit sie trainiert wurden, oder welche Texte sie erzeugen, sondern ermitteln auf mathematisch-statistischem Wege, welche Wortfolge auf Basis der Sprachmuster aus den Trainingsdaten am wahrscheinlichsten auf einen bestimmten Prompt folgt. Aus diesem Grund ist ihnen das Risiko inhärent, falsche Antworten zu liefern. Zum Verhängnis wurde dies 2023 einem US-Anwalt, der vor einem New Yorker Gericht einen Schriftsatz einreichte, der auf einer ungeprüften ChatGPT-Recherche mit frei erfundenen Gerichtsurteilen basierte. Die Konsequenz: Eine Geldstrafe von 5.000 US-Dollar.

Haftung gegenüber Mandanten

Fehlinformationen durch KI-Systeme sind für Kanzleien vor allem problematisch, weil sie das Haftungsrisiko gegenüber Mandanten erhöhen. Anwälte sind zur gewissenhaften Berufsausübung verpflichtet (§ 43 S. 1 BRAO) und müssen ihre Leistung im Grundsatz persönlich erbringen (§ 613 BGB).

Daraus folgt, dass der Einsatz von KI-Systemen den Anwalt lediglich unterstützen, ihn aber nicht ersetzen darf. Würde man dies streng auslegen, müssten Anwälte etwa bei Recherche oder Schriftsatzerstellung den Output der KI in jedem Fall prüfen. Dies aber tritt mit dem Einsatz von KI-Systemen in Konflikt, die große Dokumentenmengen auswerten – will man den Zweck solcher Systeme beibehalten, sind lediglich Stichproben durch einen Anwalt möglich. Aber auch wenn die KI den Anwalt bei der Recherche lediglich unterstützt, und er das Ergebnis noch einmal überprüft, besteht die Herausforderung, Recherche-Fehler überhaupt erst einmal zu erkennen.

Hinzu kommt, dass Kanzleien häufig nicht – zumindest nicht vollständig – auf eigenentwickelte KI-Systeme setzen, sondern in den meisten Fällen Drittanbieterlösungen nutzen. Die Anbieter jedoch sind regelmäßig restriktiv bei ihren vertraglichen Haftungsklauseln, zumal wenn sie im anglo-amerikanischen Raum ansässig sind und keinem deutschen AGB-Recht unterliegen. Dadurch kann für die Kanzleien eine "Haftungslücke" entstehen – sie sind gegenüber ihren Mandanten für Beratungsfehler haftbar, können aufgrund restriktiver Haftungsklauseln in den Anbieterverträgen aber nicht bei ihren Anbietern Regress nehmen.

Wie kann das Haftungsrisiko minimiert werden?

Vor dem Hintergrund eigener Haftungs- oder Regressrisiken sind Kanzleien gut beraten, KI-Systeme – zumal generative KI – eher vorsichtig zu nutzen. Zu achten gilt es besonders auf folgende Aspekte:

Keine Weitergabe von Mandantennamen oder personenbezogenen Daten an die eingesetzten KI-Systeme: Zwar ließe sich dies rechtlich in den Griff bekommen, indem Anbieter zur Verschwiegenheit verpflichtet werden und damit § 203 Abs. 3 Strafgesetzbuch und § 43e Abs. 2 und 3 BRAO berücksichtigt sind. Datenschutzrechtlich wäre an den Abschluss einer Auftragsverarbeitungsvereinbarung mit dem Anbieter zu denken. Aber in diesem Bereich gibt es viele ungelöste Fragen, etwa die Gleichwertigkeit des Geheimnisschutzes ausländischer Anbieter (§ 43e Abs. 4 BRAO), oder wie die Kanzlei gewährleisten kann, dass dem datenschutzrechtlichen Berichtigungs- und Löschungsanspruch eines Betroffenen Rechnung getragen werden kann, vor allem, wenn die KI aus den Daten gelernt und diese als Trainingsgrundlage weiterverwendet hat.

Absicherung in den Mandatsvereinbarungen: Denkbar sind Klauseln in Mandatsvereinbarungen, wonach Mandanten dem Einsatz von KI vorab zustimmen. Hier sind – abhängig vom Anwendungsbereich der KI – unter Umständen auch Haftungsfreistellungen möglich. In solchen Fällen kann ein dreiseitiger Vertrag Sinn machen, der auch den KI-Anbieter einbezieht: Denn wenn der Anwalt den KI-Anbieter als Erfüllungsgehilfen einsetzt, kann er sich zumindest nicht von seinen AGB-rechtlichen Haftungsvorgaben befreien, etwa für Kardinalpflichten, die er dem KI-Anbieter übertragen hat.

Ferner sollten Kanzleien das Thema auch mit ihrer Berufshaftpflichtversicherung besprechen, so dass sicher ist, dass etwaig entstehende Schäden durch die Versicherung abgedeckt werden.

Ohne KI wird es für Kanzleien nicht gehen

Erste Regelungen des europäischen KI-Gesetzes sind ab Februar 2025 anwendbar, und die neue Produkthaftungsrichtlinie wird ab Ende 2026 auch KI-Systeme erfassen. Zudem ist eine eigene KI-Haftungsrichtlinie der EU in Arbeit. Vor allem eigenentwickelte KI-Systeme der Kanzleien werden dann reguliert.

Kanzleien, die auf KI setzen wollen, haben also Handlungsbedarf. Gleichwohl werden Kanzleien auf Dauer wohl nicht um die Integration von KI-Systemen in ihre Arbeit herumkommen, wollen sie wettbewerbsfähig bleiben. Zu viele Mandanten werden den Einsatz von KI von ihren Anwälten einfordern. Schon ist in Aufsätzen die Rede davon, dass Anwälte gar sorgfaltswidrig handelten, wenn sie nicht auch juristische KI in ihre Arbeit einbezögen und damit Erkenntnismöglichkeiten vernachlässigten.

 

Ingemar KartheuserDr. Ingemar Kartheuser, LL.M. (Canterbury, Neuseeland) ist Anwalt für Technologie- und Datenschutzrecht und an den Standorten Hamburg und Frankfurt für Norton Rose Fulbright LLP tätig. Seine Schwerpunktthemen sind Künstliche Intelligenz, Outsourcing, Technologieprojekte, Datenschutz und Cybersicherheit.

Lena HaffnerLena Haffner ist Innovation Lead mit Sitz in Hamburg und verantwortet in Deutschland die Umsetzung des globalen Innovationsprogramms von Norton Rose Fulbright LLP, NRF Transform. Ihre Schwerpunkte liegen in der Entwicklung von Legal Tech-, Legal AI- und Legal Design-Produkten und neuen Wegen zur Erbringung von Rechtsdienstleistungen.

Tarmio FreiTarmio Frei, LL.B. ist wissenschaftlicher Mitarbeiter im Bereich Technologie- und Datenschutzrecht am Hamburger Standort von Norton Rose Fulbright LLP sowie Wissenschaftlicher Mitarbeiter an der Juniorprofessur für Bürgerliches Recht, Immaterialgüterrecht sowie Recht und Digitalisierung an der Bucerius Law School, Hamburg.

Zitiervorschlag

Künstliche Intelligenz in der Rechtsberatung: . In: Legal Tribune Online, 07.02.2025 , https://www.lto.de/persistent/a_id/56528 (abgerufen am: 18.03.2025 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen