Robot-Recht: Grund­la­gen­for­schung mit ein bis­schen Sci­ence-Fic­tion

Interview mit Prof. Dr. Dr. Eric Hilgendorf

08.08.2011

Weitgehend autonom arbeitende Technik benötigt juristische Lösungen. Roboter verlassen die Industriehallen und erobern den Alltag – vom global vernetzten OP-Saal bis zum Straßenverkehr. An der Universität Würzburg gründete Professor Eric Hilgendorf eine richtungweisende Forschungseinheit. Im Interview mit Martin Rath stellt er die rechtswissenschaftliche Grundlagenforschung vor.

LTO: Herr Professor Hilgendorf, wie kam Ihre Universität zum Robotrecht – und was darf man sich darunter vorstellen?

Hilgendorf: Die Idee zur Gründung einer Forschungsstelle Robotrecht kam uns vor zwei, drei Jahren, um auf diesem Gebiet die Grundlagenforschung voranzubringen. Vor einem Jahr habe ich die Forschungsstelle dann gegründet. Sie ist an der juristischen Fakultät angesiedelt und mit meinem Lehrstuhl verbunden. Wir sind jetzt ein Kreis von fünf bis sechs festen Mitarbeitern, hinzu kommt ein größerer Kreis von Doktoranden, die mit der Forschungsstelle assoziiert sind. In einem größeren, von der Deutschen Forschungsgemeinschaft geförderten Projekt arbeiten wir mit dem Kollegen Klaus Schilling zusammen, der an der Universität Würzburg Robotik und Telematik lehrt.

Aktuell stecken wir in den Vorarbeiten für ein europäisches "Grünbuch" zur Robotik, also eine rechtswissenschaftliche Diskussionsgrundlage für eine spätere juristische Einhegung der Roboterforschung und -entwicklung in Europa. Besonders aktiv sind hier insbesondere Italiener und die Engländer.

Klassische juristische Themen neben Grundlagenforschung

Parallel dazu gibt es kleinere Projekte, die sich etwa mit Haftungsfragen befassen, die im Zusammenhang mit der Robotik entstehen. Das sind mehr klassische juristische Themen: Ein Industrieroboter hat einen Systemfehler, wer haftet dann eigentlich? Welche Voraussetzungen sind für die Haftung gegeben? Welche zivil- und strafrechtlichen Konsequenzen haben die neuen Systeme?

LTO: Wo treten solche Rechtsfragen im Alltag auf?

Hilgendorf: Hier gibt es ein ganz interessantes Themenfeld, auf dem wir viel gefragt sind: Assistenzsysteme, also gar nicht so sehr Roboter im eigentlichen Sinne. Bei Assistenzsystemen, wie sie heute schon im Pkw eingesetzt werden, stellt sich eine Reihe von Fragen: Was ist eigentlich, wenn sie falsch funktionieren? Wer haftet dann – der Fahrer, der Halter des Wagens? Oder der Hersteller? Der Programmierer oder eine andere involvierte Person?

LTO: Was ist an solchen Haftungsproblemen das originär Neue?

Hilgendorf: Neu ist, dass hier Maschinen eingesetzt werden, die quasi-autonom oder autonom – das hängt  vom Autonomieverständnis ab – agieren. Damit wird, strafrechtlich gesprochen, die Zurechnung eines Schadens zum Hersteller der Maschine problematisch. Man kann bei diesen neuen robotischen Maschinen nicht mehr vorhersagen, wie sie reagieren werden. Es gibt allenfalls Wahrscheinlichkeiten. Insofern ist es schwierig, einen einfachen Kausalzusammenhang für die Haftung ausreichen zu lassen.

Die Conditio sine qua non ist selbstverständlich gegeben: Wäre der Roboter nicht eingesetzt worden, wäre dieser oder jener Schaden nicht eingetreten. Aber das reicht  nicht aus, um den  konkreten Schaden zurechnen zu können.

Und wenn man hier etwa die herkömmlichen Regeln des Strafrechts überträgt, das bei eigenverantwortlichem Handeln einer zwischengeschalteten Person die kausale Zurechnung abbrechen lässt, käme man womöglich auch beim "zwischengeschalteten Roboter" zu keiner Haftung.

LTO: In der populären Kultur kommt man an dieser Stelle gern auf die Idee, den Roboter selbst in die juristische Haftung zu nehmen...

Hilgendorf: Das ist natürlich ein bisschen Science-Fiction, denn dazu müsste sich die Technik noch wesentlich weiter entwickeln. Spannend sind diese Fragen aber schon, man darf sie also nicht von vornherein als kindisch oder unsinnig abtun. Es lassen sich aus solchen Science-Fiction-Problemen auch juristische Grundlagenprobleme neu beleuchten und innovative Fragestellungen und damit vielleicht auch neue Lösungen finden. Deshalb ist diese Perspektive wichtig. Ich rechne aber nicht damit, dass in näherer Zukunft Maschinen selbst haften werden.

LTO: Welche juristischen Probleme werfen denn die Roboter der Gegenwart auf?

Hilgendorf: Nehmen wir an, ein ganz simpler Haushaltsroboter, wie er heute schon im Einsatz ist, funktioniert über zwei, drei Jahre hin ganz ordentlich. Diese Maschinen lernen selbst, sie nehmen ihre Umgebung wahr, speichern sie ab. Schließlich entscheiden sie über die kürzesten Wege im Raum und wählen sie auch. Irgendwann einmal, nach einigen Einsatzjahren, fährt der Roboter gegen das Bein einer geschwächten Person, die stürzt und zu Schaden kommt – weil dieser Roboter meint, der Weg hätte frei sein müssen.

Was passiert, wenn der Saugroboter nicht auf dem Teppich bleibt

Wer haftet hier eigentlich? Ist das derjenige, der den Roboter hergestellt hat? Ist es der Programmierer, der nicht vorhergesehen hat, dass eine solche Situation hätte eintreten können? Ist es der Händler, der die Maschine verkauft hat? Oder ist es derjenige, der sie zum Einsatz brachte? Oder ist es der Kleinstroboter selbst, was natürlich nahezu abwegig wäre. In diesem vereinfachten Modell kann man viele Haftungsfragen diskutieren.

LTO: Sie sprachen davon, dass sich am Modell des Roboters Grundsatzfragen des Rechts im menschlichen Bereich wieder aufgreifen ließen. Wie weit lässt sich das zum Beispiel an der Schmerzfähigkeit des Menschen diskutieren?

Hilgendorf: Das ist ein Beispiel für eine Grundsatzfrage, bei der ich nicht nur auf die Differenz Mensch-Roboter abstellen würde, sondern bei der Zwischenstufen wie Tiere einzubeziehen sind. Interessant als Modell für das Robotrecht kann das historische Modell des Sklavenrechts sein, weil das antike Recht Sklaven ja als Sachen behandelte, so wie wir heute Roboter. Dass heute der Schmerz des Menschen ethisch und juristisch relevant ist, steht außer Frage. Die Juristen der Antike sahen das für Sklaven anders, weil sie Sklaven als Menschen einer eigenen Kategorie betrachteten, deren Schmerz sie nicht immer berücksichtigten. Die Schmerzfähigkeit von Tieren wird noch heute im juristischen Kontext nicht  ernst genommen. Obwohl sie, denke ich, naturwissenschaftlich ebenso nachzuweisen ist, wie Schmerzen beim Menschen.

Antikes Sklavenrecht ist ein Modell für Roboterrecht

Wenn man nun die rechtsphilosophische und -historische Linie vom Menschen über den antiken Sklaven und das Tier bis zum Roboter weiterzieht, dann kann man fragen, ob es bei ihnen eine Analogie zur Schmerzfähigkeit gibt. Informatiker und Robotikforscher meinen, dass man Maschinen durchaus etwas dem Schmerz ähnliches einprogrammieren kann – als ein Meidungsverhalten gewissen Reizen gegenüber, die als so negativ empfunden werden, dass das System unbedingt versucht, diesen Reizen auszuweichen. Hier haben Sie eine – möglicherweise weiterführende – Schmerzanalogie.

LTO: Können Sie sich vorstellen, dass wir zu unseren Lebzeiten noch intelligenten Systemen begegnen werden, denen man von Rechts wegen einen Subjektstatus zubilligt – ähnlich wie in den Tierprozessen des Mittelalters, bei denen zum Beispiel Heuschreckenschwärmen oder wild gewordenen Schweinen der Strafprozess gemacht wurde?

Hilgendorf: Bei den Tierprozessen war es – denke ich – so, dass man den Tieren auf irrationale Weise menschliche Reflexionsfähigkeiten übergestülpt  hat. Dabei wurde die Analogie zum Menschen von vornherein zu weit getrieben.

Bei den Maschinen würde ich unterscheiden: Bei Eigenschaften wie Schmerzempfinden, Emotionen oder Leidensfähigkeit muss man sehr vorsichtig sein mit Prognosen. Ich persönlich glaube nicht, dass so etwas bald kommt. Vor allem wird daran wohl auch nicht ernsthaft geforscht. Denn warum sollte man einen Roboter mit Gefühlen ausstatten? Das ist vielleicht eine tolle Herausforderung für den Science-Fiction-Film – denken Sie an die Figur "Data" im "Raumschiff Enterprise". Aber ein praktischer Nutzen ist nicht zu erkennen. Insofern glaube ich nicht, dass hier juristische Probleme in näherer Zukunft auftreten werden.

Ganz anders sieht es bei den intellektuellen und kognitiven Fähigkeiten von Maschinen aus, auch ihrem Entscheidungsverhalten. Man denke etwa an einen Pkw im Straßenverkehr, dessen Steuerung von Systemen unterstützt wird, die teilautonom entscheiden oder in bestimmten Situationen sogar voll autonom, das heißt ohne mit dem Fahrer Rücksprache zu halten. Das kann ja extrem sinnvoll sein, wenn es darum geht, Gefahren vom Fahrer abzuwenden.

Roboter bleiben emotional rückständig, sind aber kognitiv im Wachstum

Deshalb glaube ich, dass die Entwicklung solcher Systeme sehr schnell vorangehen wird, dass wir es also in zehn, 15 Jahren in verschiedenen Lebensbereichen mit Geräten zu tun haben werden, die weitestgehend autonom entscheiden können. Ob sie dann aber über wirklich wichtige Fragen autonom entscheiden werden, ist abhängig davon, in welchem Bereich wir sie einsetzen und welche Rechte wir ihnen geben. Grundsätzlich ist hier vieles möglich, sobald die Technik vorhanden ist. Und dann werden wir überlegen müssen, wer für die Entscheidungen der Maschinen wird haften müssen.

Ich kann mir vorstellen, dass man dann eine Art Haftung der Maschine selbst einführt. Dabei würde ich nicht von strafrechtlicher Schuld sprechen, weil mir dieser Begriff metaphysisch zu stark aufgeladen ist. Man kann aber durchaus von Verantwortung für Fehlentscheidungen durch die Maschine sprechen. Verantwortung heißt: einstehen, die Folgen tragen müssen.  Das könnte zu Schadensersatzansprüchen führen, die sich von der Maschine einfordern ließen – die Nutzer derartiger autonomer Maschinen könnten verpflichtet werden, eine Art Vermögen dieser Maschine festzulegen, eine Versicherung einzurichten, um aus diesem Fundus Schadensersatzforderungen zu begleichen. Das wäre eine Art Selbsthaftung der Maschine.

LTO: Robert Darnton, der US-amerikanische Wissenschaftshistoriker und Leiter der Universitätsbibliothek von Harvard, hat vor zwei Jahren vorgeschlagen, den Fundus von "Google Books" zu vergesellschaften. Wenn man den Gedanken weiterspinnt, könnte daraus eine res extra commercium entstehen, die ihre intelligente Suche nach neuen Büchern und Texten selbst optimiert und nach außen nur noch über ihre Abrechnungsfunktion und die Hardware in Erscheinung tritt...

Hilgendorf: Sie sprechen hier von einem System, das seine Umwelt beobachtet. Es reagiert eigenständig. Das System tritt nur gelegentlich mit Menschen in Rücksprache, aber diese Fälle werden immer seltener und weniger wichtig sein.

Gut, wenn man menschliches Verhalten auf einer gewissen Abstraktionshöhe betrachtet, haben wir es bei ihm auch "nur" mit Input, Verarbeitung und Output zu tun – wie es von der Kybernetik formuliert wurde. So betrachtet scheinen die gewaltigen Unterschiede zwischen menschlichem und maschinellem Verhalten möglicherweise nur aus der genuin menschlichen Perspektive zu bestehen.

LTO: In Ihrer Forschung geht es aber bodenständig zu?

Hilgendorf: Uns geht es  primär um die Lösung praktischer Probleme, die an die Forschungsstelle nicht zuletzt durch ein Netzwerk aus Industrie und Mittelstand herangetragen werden: Wie ist beispielsweise ein Assistenzsystem zu versichern, das einen alten Menschen zum Arzt bringt – soll es als Mofa oder als Pkw versichert werden? Welche Zulassungsvoraussetzungen gibt es? Wo beginnt die zivilrechtliche Haftung für Fahrlässigkeit? Fragen dieser Art brennen der Wirtschaft unter den Nägeln.

Gegenwartsnah und spannend sind im Zusammenhang mit der Robotik auch Fragen, die die Verknüpfung des Robotereinsatzes mit seiner Steuerung über das Internet betreffen. Sehr wahrscheinlich ist, dass Roboter in ihrer Mehrzahl bald nicht mehr singulär, sondern vernetzt eingesetzt und dann auch ferngesteuert werden – also beispielsweise ein Roboter in Deutschland von den USA aus gesteuert wird. Es könnte dann so etwas wie "Robot-Provider" geben.

International vernetzte Robotersteuerung ist bereits Realität

Diese Entwicklung ist in der Telemedizin schon teilweise Realität geworden. Spitzenchirurgen können ja nicht beliebig um die Welt reisen. Darum bleiben sie z.B. in den USA  und bedienen von dort aus einen Roboter, der etwa in Afghanistan einen Verletzten operiert. Hier stellen sich spannende Fragen nach der Anwendbarkeit des Rechts: Welche Rechtsordnung ist einschlägig, die US-amerikanische oder die afghanische? Im Strafrecht: Die Rechtsordnung des Handlungsortes oder die des Erfolgsortes? Wie sieht es mit der strafrechtlichen Verantwortlichkeit des Arztes für Fehler des Roboters aus? Ist das, strafrechtlich gesprochen, eine Art Mittäterschaft?

Damit kommt das  Thema der Schnittstellen zwischen Mensch und Maschine auf, das in der Rechtswissenschaft bisher insgesamt so wenig behandelt wurde, dass man von echter Grundlagenforschung sprechen kann. Die Diskussion verspricht spannend zu werden!

LTO: Herr Professor Hilgendorf, wir danken Ihnen für dieses Gespräch.

 

Vorschläge zum Weiterlesen:

Dr. Susanne Beck: "Grundlegende Fragen zum rechtlichen Umgang mit der Robotik", Juristische Rundschau 2009, Seiten 225-230.

dies.: "Roboter, Cyborgs und das Recht – von der Fiktion zur Realität", in: Tade Matthias Spranger (Hrsg.): "Recht der Lebenswissenschaften", Berlin 2010, Seiten 95-120.

Die Aufsätze sind über die Webpräsenz der Forschungsstelle abrufbar.

 

Vom Fragen-Steller auf LTO:

Unsterblichkeit - auf den DJT 2060 vertagt?

Ökonomische Analyse des Rechts: Fast ein bisschen verträumt

Lehrbuchfall "Sirius": Katholische Hilfsargumente gegen E.T. vor Gericht

Zitiervorschlag

Eric Hilgendorf, Robot-Recht: Grundlagenforschung mit ein bisschen Science-Fiction . In: Legal Tribune Online, 08.08.2011 , https://www.lto.de/persistent/a_id/3950/ (abgerufen am: 18.08.2022 )

Infos zum Zitiervorschlag