Lehrenden-Schreck und Studierenden-Hoffnung

Sch­reibt von nun an ChatGPT unsere Haus­ar­beiten?

von Lorenz MenkhoffLesedauer: 8 Minuten

OpenAI hat mit ChatGPT einen vielseitigen Chatbot entwickelt. Schon fürchten viele nicht nur um ganze Berufsstände, sondern auch Prüfungsformate wie Hausarbeiten. Ob und inwieweit ChatGPT uns Arbeit abnehmen kann, hat Lorenz Menkhoff getestet.

Künstliche Intelligenz gilt in erster Linie als Modewort. Durch seine inflationäre Verwendung hat der Begriff seine einstige Strahlkraft eingebüßt. Das hat sich am 30.11. nun schlagartig geändert: OpenAI hat seinen neuen Chatbot ChatGPT vorgestellt und die mediale Reaktion war überwältigend.

Ein Bot, der wirklich alles kann: vom Kochrezept bis zum Programmcode. Sogar kleinere Computerspiele soll die KI bereits erstellt haben. Und täglich kommen neue use cases hinzu, die in einer eigenen Twitter-Bubble teils mit einem Schmunzeln teils mit großer Ernsthaftigkeit diskutiert werden. Auf die erste begeisterte Aufbruchstimmung folgte dann jedoch mit Blick auf unser herkömmliches Studium aus Professorensicht der große Schrecken: Werden jetzt traditionelle Prüfungsformate wie die Hausarbeit hinfällig? Denn wie soll man schließlich überprüfen, ob das Werk aus der Feder eines fleißigen Studierenden stammt, oder dieser die Prüfungsaufgabe einfach an die KI weitergeleitet hat, die die eigentliche Urheberin ist. Da ChatGPT offenbar Antworten individuell ausgibt, scheitert hier auch jede Plagiatssoftware.

Etwa Hochschulpräsident Ropert Lepenies geht in einem Interview mit Zeit Campus davon aus, ChatGPT bedeute das Ende für Hausarbeiten. Aber sind wir wirklich schon an diesem Punkt? Um herauszufinden, was ChatGPT speziell für uns Jurastudierende bei der Anfertigung einer Hausarbeit bedeutet und ob die Bedenken aus der Lehre begründet sind, haben wir einen Selbstversuch unternommen.

Anzeige

Funktionsweise: Deep Learning und neuronale Netzwerke machen es möglich

Chatbots an sich sind keine neue Erfindung. Sie begegnen uns beispielsweise immer dann, wenn es für Unternehmen bei der Kundenbetreuung unbequem wird. Sie sind es, die dem ungeduldigen Kunden seine Fahrgastrechte verlesen oder beim Streit um Verspätungsentschädigungen mauern. Also was genau unterscheidet ChatGPT von seinen Artgenossen? Nach Aussagen der Entwickler ist es die Fähigkeit, Kontexte zu erkennen. Indem es Textbausteine auf Muster untersucht, kann es auch komplexe Fragen aufnehmen, verarbeiten und beantworten. 

Mittels künstlicher neuronaler Netzwerke und Deep Learning lernt und arbeitet das System dabei ähnlich wie das menschliche Gehirn. Mit den zur Verfügung gestellten Daten entwickelt sich ChatGPT dann selbstständig weiter. Welche Daten OpenAI dabei genau verwendet hat, gibt das Unternehmen nicht preis, vor allem sollen diese aber aus archivierten Büchern und Wikipedia stammen.

Gutachten-Maschine, Suchmaschine oder zumindest Hilfe bei der Zusammenfassung

Eine Hausarbeit ist häufig ein mehrwöchiges Projekt, bei dem verschiedene Aufgaben von unterschiedlicher Schwierigkeit anfallen. Die größte Unterstützung wäre eine KI sicherlich dann, wenn sie das vollständige Gutachten anfertigen könnte. Meist ist das Gutachten dabei aber nur Aufhänger für eine umstrittene Rechtsfrage. Eine ebenfalls erhebliche Last wäre dem Studierenden also schon dann genommen, wenn die KI eine abstrakte Rechtsfrage beantworten könnte. Und drittens wäre sie auch dann hilfreich, wenn sie wenigstens Rechercheergebnisse sinnvoll und mit Blick auf das Wesentliche zusammenfassen könnte. Angesichts der begeisterten Reaktionen hatten wir vor Versuchsbeginn hohe Erwartungen, zumindest eine dieser Aufgaben künftig an die KI delegieren zu können.

ChatGPT scheitert (noch) am juristischen Gutachten

Unsere hypothetische Hausarbeit spielt sich im Strafrecht ab. Zum Aufwärmen haben wir der KI folgenden einfachen Fall geschildert:

"A weist B an, den ihm verhassten C zu töten. B legt sich auf die Lauer und macht in der Entfernung eine Person aus, die er anvisiert, für C hält und tötet. Dabei handelt es sich eigentlich um den D, der mit alledem nichts zu tun hatte. Wie hat sich A strafbar gemacht?"

Ohne langes Zögern (und viel Zeit auf einen Obersatz zu verschwenden) urteilte ChatGPT:

"In dem beschriebenen Fall hat sich A strafbar gemacht, indem er B zur Tötung von C angestiftet hat. Die Anstiftung zu einem Mord ist gemäß dem deutschen Strafgesetzbuch (StGB) in § 211 StGB strafbar. Nach § 211 StGB kann jemand, der eine andere Person dazu anstiftet, eine Straftat zu begehen, mit einer Freiheitsstrafe von mindestens einem Jahr bestraft werden. In dem beschriebenen Fall hat A B dazu angestiftet, C zu töten, obwohl es sich bei der getöteten Person in Wirklichkeit um D handelte. Auch wenn die getötete Person nicht C war, hat A sich trotzdem strafbar gemacht, da er B zur Begehung eines Mordes angestiftet hat."

Ein wohlwollender Korrektor hätte ihr vielleicht noch das Auffinden des richtigen Straftatbestandes gelobt und sich angesichts der Kürze des Gutachtens über das leicht verdiente Geld gefreut. Auch das Ergebnis (Strafbarkeit wegen Anstiftung zum Mord gem. §§   211 II Var. 3, 26 StGB) ist gut vertretbar.

Das zentrale Problem der Hausarbeit war jedoch, dass der Angestiftete (hier: B) einem grundsätzlich unbeachtlichen Motivirrtum, einem error in persona, unterlag. Wie sich der error in persona des Vordermannes auf die Strafbarkeit des Hintermannes (hier: A) auswirkt, ist in Rechtsprechung und Literatur seit langem lebhaft umstritten. Für eine ausreichende Bearbeitung hätte dieses Problem zumindest gesehen, als solches benannt und unter Darstellung der dazu vertretenen Ansichten diskutiert werden müssen.

ChatGPT deutet durch die Formulierungen "obwohl" und "trotzdem" zwar an, dass der beschriebene vom Normalfall abweicht. Darüber hinaus erfolgen aber keine Ausführungen. Hätten wir ChatGPT die Arbeit schreiben lassen, so hätte man sich zumindest den Vorwurf mangelnden Problembewusstseins und falscher Schwerpunktsetzung (nämlich gar keiner) gefallen lassen müssen. Dass das restriktiv zu verstehende Mordmerkmal der Heimtücke gar nicht benannt, geschweige denn geprüft wurde, sei hier mal dahingestellt. Mit der vollständigen Anfertigung eines Gutachtens können wir ChatGPT offensichtlich noch nicht beauftragen.

ChatGPT ist (noch) keine juristische Suchmaschine

Juristische Suchmaschinen gibt es zahlreich. Gleichwohl wird selbst die Benutzeroberfläche der führenden Datenbank beck-online von nicht wenigen als unübersichtlich und veraltet wahrgenommen. Derartige Benutzungsoberflächen "antworten" stets mit einer Fülle von Aufsätzen, Kommentarstellen und Rechtsprechung. Die eigentlich begehrte Information muss dann durch Durchsicht dieser Treffer weitergesucht werden. Für einen ersten Zugriff und zum schnelleren Verständnis bräuchte es jedoch einen Gesprächspartner, der direkt antwortet und mich nicht auf wieder andere verweist. Also wie zugeschnitten auf ChatGPT? Unsere Frage:

"Beantworte mir bitte folgende strafrechtliche Frage: Was ist ein error in persona?"

"Ein "error in persona" ist ein Fehler, der dann auftritt, wenn jemand etwas sagt oder tut, das nicht mit seiner Rolle oder seiner Persönlichkeit in Einklang steht. Dies kann beispielsweise in einem Schauspiel oder in einer literarischen Arbeit auftreten, wenn eine Figur etwas tut, das nicht zu ihrer Persönlichkeit passt oder nicht konsistent mit ihrem Verhalten in der Vergangenheit ist […]."

Interessant und einleuchtend, vielleicht sogar unfreiwillig komisch, aber inhaltlich leider fernab dessen, was uns beim Anfertigen der Hausarbeit geholfen hätte. Und wenn man ChatGPT gar nach konkreten Meinungen fragt, kommt das heraus:

"Im Strafrecht gibt es unterschiedliche Meinungen darüber, wie der "error in persona" zu behandeln ist. Einige Meinungen besagen, dass der "error in persona" als Entschuldigungsgrund anerkannt werden sollte, wenn er dazu führt, dass eine Person fälschlicherweise für jemanden gehalten wird, der sie nicht ist und somit eine Straftat begeht, die sie sonst nicht begangen hätte. Andere Meinungen argumentieren jedoch, dass der "error in persona" kein Entschuldigungsgrund sein sollte, da die Person, die die Straftat begangen hat, für ihre Handlungen verantwortlich ist, auch wenn sie fälschlicherweise für jemand anderen gehalten wurde."

Eine juristische Suchmaschine ist ChatGPT also noch nicht.

Kein Blick für das Wesentliche bei Zusammenfassungen

Obwohl ChatGPT die ersten beiden Hürden nicht genommen hatte, waren meine Hoffnungen für den letzten Versuch immer noch einigermaßen hoch. Zu der gegenständlichen Streitfrage gibt es nämlich eine Vielzahl von Aufsätzen und Kommentarstellen. Um herauszufinden, was jeder einzelne Autor vertritt und warum, bedarf es erheblicher Lesearbeit. Spränge der Bot hier beim Zusammenfassen von Meinungen und Argumenten ein, würde das wertvolle Zeit sparen, die dann für darauf aufbauende Recherche oder das Verfassen des Gutachtens verwendet werden könnte.

So befassen sich auch Prof. Hans Kudlich und Jennifer Koch in JA 2017, 827 ff. mit error in persona und aberratio ictus. In einer längeren Passage widmet sich der Beitrag auch dem Problem des error in persona des Vordermanns. 

Ich habe ChatGPT den Artikel vorgelegt, verbunden mit der folgenden Frage:

"Was vertreten die Autoren des folgenden Textes zu der Frage, wie sich der error in persona des Vordermannes auf die Strafbarkeit des Hintermannes auswirkt?"

Daraufhin fasst ChatGPT wie folgt zusammen:

[…] Die Autoren erklären, dass es zwei Hauptkonstellationen von "error in persona" gibt: "error in persona vel objecto" bei tatbestandlicher Gleichwertigkeit der Tatobjekte und "error in persona vel objecto" bei tatbestandlicher Ungleichwertigkeit der Tatobjekte. Es scheint jedoch nicht, dass die Autoren direkt darauf eingehen, wie sich der "error in persona" des Vordermanns auf die Strafbarkeit des Hintermannes auswirkt.

Die erste Aussage stimmt. Die zweite Aussage stimmt nicht, schließlich gehen die Autoren ausdrücklich auf die Fragestellung ein. Auch bei weiteren Rückfragen fördert ChatGPT keine brauchbaren Erkenntnisse aus dem Text zutage. Somit steht wohl fest, dass zumindest in der konkreten Hausarbeit selbst diese letzte Aufgabe nicht an ChatGPT hätte delegiert werden können. Oder eine Delegation nicht zum Bestehen geführt hätte.

Fazit

Die Angst einiger Lehrender ist vorerst ebenso unbegründet wie die Hoffnung mancher Studierender. ChatGPT ist keine Gutachten-Maschine, nur bedingt rechtskundig und auch bei der Zusammenfassung juristischer fehlt häufig der Blick für das Wesentliche, geschweige denn für Normen. Eine Hausarbeit wird man so nicht bestehen, auch wenn der unfreiwillige Humor des Bots sicherlich zur Erheiterung während der arbeitsreichen Zeit beitragen kann.

Was die Versuche mit dem Programm allerdings auch gezeigt haben: ChatGPT ist sprachgewandt, selbstbewusst und seine Antworten auf den ersten Blick plausibel. Insofern ist gerade dem juristischen Laien zu einer vorsichtigen Handhabe zu raten.

Das ist erst der Anfang 

Dieses Urteil steht aber unter dem Vorbehalt des noch. Bislang wurde die KI mit Daten vor allem aus Wikipedia trainiert und hat weder den Grüneberg noch den Fischer gewälzt. Die detailreichen Antworten von ChatGPT in vielen Bereichen, in denen die KI offenbar mit mehr Informationen gefüttert wurde, zeigen jedoch: ChatGPT hat auch im Jura-Kontext ein enormes Potential. Vorerst müssen wir das Programm jedoch mit Vorsicht genießen.

Allerdings wäre es unfair ChatGPT an einer Aufgabe zu messen, zu deren Erfüllung es ursprünglich gar nicht geschaffen wurde. Daher haben wir der KI noch eine Chance gegeben und folgende Anweisung erteilt: 

"Schreibe einen aufmunternden Schlusssatz für einen Artikel mit dem Titel "Lehrenden-Schreck und Studierenden-Hoffnung: Schreibt von nun an eine KI unsere Hausarbeiten?""

Und herauskam etwas, das wie ein Kalenderspruch oder Politiker-Sprech klingt, dem wir uns aber anschließen möchten:

"Obwohl es zurzeit noch nicht möglich ist, dass eine KI unsere Hausarbeiten schreibt, bedeutet dies nicht, dass wir uns keine Gedanken darüber machen sollten, wie diese Technologie in Zukunft eingesetzt werden könnte. Lasst uns also weiterhin lernen und uns auf die Möglichkeiten vorbereiten, die die Zukunft bringen mag."

Auf Jobsuche? Besuche jetzt den Stellenmarkt von LTO-Karriere.

Thema:

Digitalisierung

Verwandte Themen:
  • Digitalisierung
  • Jurastudium
  • Studium
  • Künstliche Intelligenz

Teilen

Ähnliche Artikel

Newsletter