Nach dem Willen der EU-Kommission sollen bei einem Einsatz von KI künftig einheitliche Schutzstandards gelten und Schadensersatz leichter erlangt werden. Dazu werden auch die Beweislasteregeln angepasst. Daniel Krüger kennt die Details.
Die Haftung für Schäden, die aus dem Einsatz von Künstlicher Intelligenz (KI) resultieren, ist in Deutschland spezialgesetzlich bislang nicht geregelt. Es finden insoweit die allgemeinen Gesetze – etwa das Bürgerliche Gesetzbuch oder das Produkthaftungsgesetz – Anwendung.
Es gelten die allgemeinen Grundsätze der außervertraglichen Haftung: So ist neben der schuldhaften Verletzung eines geschützten Rechtsgutes durch eine Verletzungshandlung oder ein Unterlassen, der indizierten Rechtswidrigkeit, einem ersatzfähigen Schaden auch die Kausalität zwischen dem Handeln oder Unterlassen und der Rechtsgutverletzung – die sogenannte haftungsbegründende Kausalität – sowie der Rechtsgutverletzung und dem Schaden – haftungsausfüllende Kausalität – erforderlich.
Hat eine Person aufgrund eines von einem KI-System hervorgebrachten Ergebnisses oder aufgrund der Tatsache, dass das System kein Ergebnis hervorgebracht hat, einen Schaden erlitten, ist es für diese nach der aktuellen Gesetzeslage aufgrund der Besonderheiten dieser Systeme oftmals sehr schwierig, wenn nicht sogar unmöglich, den Anforderungen ihres Schadensersatzanspruchs nachzukommen. Denn KI-Systeme sind meist komplex, undurchsichtig und autonom, sie stellen für Außenstehende eine "Blackbox" dar, deren Prozesse nicht nachzuvollziehen sind. Damit ist es insbesondere kaum möglich, die haftenden Personen zu ermitteln oder der Beweispflicht hinsichtlich einer vorsätzlichen oder fahrlässigen schädigenden Handlung oder Unterlassen und der haftungsbegründenden Kausalität nachkommen.
Zwei EU-Richtlinien im Zusammenspiel
Die Europäische Kommission hat nunmehr Ende September einen "Entwurf für eine Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz" (Richtlinie über KI-Haftung) veröffentlicht. Dieser soll einen harmonisierten Rechtsrahmen auf Unionsebene schaffen und die durch den technischen Fortschritt bei Systemen mit künstlicher Intelligenz verursachten Haftungslücken füllen.
Gleichzeitig soll dadurch auch die Einführung, Verbreitung und Weiterentwicklung von KI-Systemen in der Union gefördert werden, indem rechtliche Fragmentierung vermieden wird, da bei unionsweit einheitlichen Haftungsvorschriften Unternehmen ihr Haftungsrisiko besser bewerten und versichern können. Dabei steht die Richtlinie über KI-Haftung im Zusammenspiel mit dem "Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz" (KI-Verordnung) vom April 2021, der den regulatorischen Rahmen für den Einsatz von KI setzen soll.
Den Problemen im Rahmen der Geltendmachung von Schadensersatzansprüchen bei der Beteiligung von KI-Systemen soll im Wesentlichen durch Offenlegungspflichten und eine Kausalitätsvermutung begegnet werden, also Regelungen in Bezug auf die Beweislast in nationalen Gerichtsverfahren. Allgemeine Aspekte der außervertraglichen, verschuldensabhängigen Haftung – etwa die Frage, welche Schäden ersatzfähig sind – sollen hingegen nicht neu geregelt werden. Insoweit bleibt es bei den teils sehr unterschiedlichen Regelungen der einzelnen Mitgliedsstaaten.
Offenlegung von Beweismitteln bei Hochrisiko-Systemen
Die Richtlinie über KI-Haftung sieht eine Befugnis für nationale Gerichte vor, die Offenlegung einschlägiger Beweismittel zu einem bestimmten Hochrisiko-KI-System auf Antrag anzuordnen. Wann ein Hochrisiko-KI-System vorliegt, richtet sich maßgeblich nach Funktion und Zweck des Systems und den möglichen Auswirkungen auf Gesundheit, Sicherheit und Grundrechte natürlicher Personen. Antragsberechtigt sind Kläger in einem entsprechenden Schadensersatzprozess, aber auch potenzielle Kläger, wenn sie den Antragsgegner bereits zuvor vergeblich aufgefordert haben, das vorliegende Beweismaterial offenzulegen. Antragsgegner können Anbieter, Personen, die nach den in der Richtlinie näher präzisierten Gründen den gleichen Pflichten unterliegen, oder Nutzer von Hochrisiko-KI-Systemen sein.
Die Verpflichtung zur Offenlegung wird auf das Maß beschränkt, das erforderlich und verhältnismäßig ist, um den geltend gemachten Schadensersatzanspruch zu stützen. Die Verhältnismäßigkeit ist dabei unter Berücksichtigung der berechtigten Interessen der Parteien, insbesondere in Bezug auf den Schutz von Geschäftsgeheimnissen, zu bestimmen. Zudem sieht die Richtlinie ein verfahrensrechtliches Instrument zur effektiven Durchsetzung der Offenlegungspflicht vor. Danach wird, wenn der Antragsgegner der Aufforderung des Gerichts nicht nachkommt, die Nichteinhaltung einer Sorgfaltspflicht vermutet.
Die Offenlegungspflicht ermöglicht es, Geschädigten Informationen über Hochrisiko-KI-Systeme zu verschaffen, die bereits nach der KI-Verordnung aufzuzeichnen oder zu dokumentieren sind, und somit die haftbaren Personen sowie die Nichteinhaltung einer Sorgfaltspflicht zu ermitteln und zu beweisen. Darüber hinaus statuiert die Richtlinie eine widerlegbare Vermutung, dass das Handeln oder Unterlassen des Anspruchsgegners ursächlich für das vom KI-System (nicht) hervorgebrachte Ergebnis ist. Sie gilt für alle Arten von KI-Systemen und soll als Abhilfe dafür dienen, dass es für einen Geschädigten kaum möglich ist nachzuweisen, dass eine einzelne Verfehlung des Beklagten zu dem von KI-System (nicht) hervorgebrachten Ergebnis geführt hat. Im Umkehrschluss soll die Vermutung daher aber nicht greifen, wenn keine Beweisschwierigkeiten bestehen, also etwa dann, wenn ausreichende Beweismittel zur Verfügung stehen.
Schritt in die richtige Richtung
Die Vermutung unterliegt dabei drei kumulativen Voraussetzungen. Zunächst hat der Geschädigte die Nichteinhaltung einer Sorgfaltspflicht durch den Beklagten nachzuweisen. Eine Sorgfaltspflicht ist ein im nationalen Recht oder Unionsrecht festgelegter Verhaltensmaßstab, der dazu dient, eine Beeinträchtigung von anerkannten Rechtsgütern zu vermeiden. Davon sind insbesondere die Pflichten nach der KI-Verordnung erfasst. Zudem muss nach vernünftigem Ermessen von einem ursächlichen Zusammenhang auszugehen sein. Abschließend muss der Geschädigte die Kausalität zwischen dem vom KI-System (nicht) hervorgebrachten Ergebnis und seinem Schaden beweisen, was im deutschen Recht der haftungsausfüllenden Kausalität entspricht. Differenzierte Voraussetzungen gelten bei Hochrisiko-Systemen bzw. bei Nicht-Hochrisiko-Systemen sowie im Falle nicht gewerblicher Nutzer eines KI-Systems.
Die Kausalitätsvermutung erleichtert dem Geschädigten insgesamt die Durchsetzung seines Anspruchs, indem sie die Beweislast bezüglich der haftungsbegründenden Kausalität dahingehend verändert, dass nun der Anspruchsgegner das Nichtvorliegen der Kausalität beweisen muss.
Was heißt das nun mit Blick auf die weiteren Entwicklungen? Welches Fazit darf man daraus ziehen? Der Einsatz von KI wird sicherlich weiter zunehmen. Welche Akzeptanz KI zukünftig genießen wird, wird dabei ganz entscheidend von dem Grad des Vertrauens abhängen, den der Einsatz solcher Systeme hervorrufen wird. Deshalb ist die Richtlinie über KI-Haftung ein Schritt in die richtige Richtung. Denn das Vertrauen in den Einsatz von KI dürfte umso mehr wachsen, je ausgeprägter die Schutzstandards sind.
Der Autor Daniel Krüger ist Rechtsanwalt bei der AWADO Rechtsanwaltsgesellschaft in Düsseldorf. Er leitet das Referat Aufsichtsrecht und Compliance, das neben klassischen bankaufsichtsrechtlichen Themen insbesondere auch die Regulatorik innovativer Bereiche (Krypto, Blockchain, Künstliche Intelligenz usw.) umfasst. Der Beitrag entstand unter Mithilfe der wissenschaftlichen Mitarbeiterin Frau Susan Wagner.
Einsatz von Künstlicher Intelligenz: . In: Legal Tribune Online, 13.12.2022 , https://www.lto.de/persistent/a_id/50451 (abgerufen am: 07.10.2024 )
Infos zum Zitiervorschlag