Kommt die E-Person? Auf dem Weg zum EU-Robotikrecht
Elemente eines „Robotikrechts“ erreichen nahezu sämtliche Bereiche des Rechts. Schon die terminologischen Zugänge sind divers: Je nach Standpunkt und Zielsetzung werden Roboter bzw. Robotik, Künstliche Intelligenz (KI), CPS oder intelligente autonome Systeme in den Mittelpunkt der Darstellung gerückt. Eine der grundlegendsten Rechtsfragen gilt der rechtlichen Anerkennung eines technischen Systems, was im Begriff der elektronischen Person versinnbildlicht wird. Auch in der Europäischen Politik ist die Idee aufgegriffen worden: In seiner Entschließung vom 16.2.2017 zu zivilrechtlichen Regelungen im Bereich Robotik hat das Europäische Parlament die zivilrechtliche Haftung für durch Robotereinsatz verursachte Schäden zur Grundsatzfrage erhoben, dazu einen EU-weiten Regulierungsrahmen angemahnt und – neben haftungsergänzenden Risikomanagementansätzen, Registrierungspflichten, Versicherungs- und Fondslösungen – Überlegungen angestellt, einen speziellen rechtlichen Status zumindest für „die ausgeklügeltsten autonomen Roboter“ als elektronischer Person zu schaffen (Ziff. 59 lit. f). Doch was blieb seither von der E-Person?
Als Referenzsubjekt muss oft das vollautonome Fahrzeug herhalten. Hier hat der Ausschuss für Verkehr und Tourismus des Europäischen Parlaments einen Bericht vom 5.12.2018 zu autonomem Fahren im europäischen Verkehrswesen nebst Entwurf einer Entschließung vorgelegt. In einer beigefügten Stellungnahme regt der Rechtsausschuss an, für ein adäquates Haftungskonzept namentlich den EU-Rahmen zum Produkthaftungsrecht einerseits und zum Haftpflichtversicherungsrecht andererseits zu überarbeiten. Eine teilweise Haftungsverschiebung hin zu einer herstellerbezogenen Kausalhaftung wird explizit erwogen, die Idee der Rechtsfähigkeit des Fahrzeugs nicht einmal erwähnt. Auch im fünften Bericht der Kommission über die Anwendung der Produkthaftungsrichtlinie (vom 7.5.2018, Dokument KOM(2018) 246 final) wird angesichts des technischen Fortschritts Änderungsbedarf hinsichtlich der gegenständlichen Anknüpfungspunkte der Richtlinie (Produkt, Fehler, Hersteller sowie Schaden) und der Beweislastregelung angemahnt – eine Notwendigkeit, die durchaus als „nicht perfekt“ erkannte Richtlinie um eine Haftung elektronischer Personen zu ergänzen, wird nicht vorgebracht. Insoweit mag man gespannt die für Mitte 2019 angekündigten neuen Leitlinien der Kommission abwarten. Schließlich hat am 18.12.2018 die von der Kommission eingesetzte Hochrangige Expertengruppe für KI einen ersten Entwurf zu Ethik-Leitlinien für eine vertrauenswürdige KI veröffentlicht. Darin wird die Herausbildung einer vertrauenswürdigen und humanzentrierten KI als Schlüssel zu einer „verantwortlichen Wettbewerbsfähigkeit“ angesehen. Wesentliche Kriterien der Vertrauenswürdigkeit sollen Benefizienz, Schadensverhütung, Wahrung menschlicher Autonomie, Gerechtigkeit und Erklärbarkeit sein. Die Grundsätze der Vertrauenswürdigkeit von KI soll schon auf frühester Phase bei der Entwicklung von KI berücksichtigt werden. Neben dieser „ethischen“ Ausrichtung wird die Notwendigkeit technischer Robustheit und Zuverlässigkeit der Systeme betont. Die Ausführungen zur Haftung bleiben indes vage, die E-Person findet keine Erwähnung.
Das Konzept privater Haftung ergibt nur dann rechtlich und ökonomisch Sinn, wenn mit der Schuld eine Haftungsmasse korrespondiert (vgl. u. a. Schaub, JZ 2017, 342, 346). Diese typologische Zuordnung ginge mit der rechtlichen Anerkennung elektronischer Personen zunächst einmal verloren. Würde fehlende Haftungsmasse durch gesetzliche Vorgaben zur Schaffung von Fondslösungen o. Ä. zu kompensieren versucht, bliebe die Frage nach dem Mehrwert: Denn Versicherungs- und Fondslösungen lassen sich ohne Weiteres in etablierten Konzepten der Haftungszuweisung und -verlagerung abbilden, ohne dass es der elektronischen Person bedarf. Daher sollte, neben technischen Lösungen, das geltende private Haftungsrecht auf EU-Ebene weiterentwickelt und angepasst werden – dies dürfte vor allem die Zuweisung individueller Haftung zu den Akteuren, Fragen die Abgrenzung und den Regress zwischen ihnen sowie die Beweislast betreffen. Damit ist künftigen „KI-Geschädigten“ mehr gedient als mit einer konturen- und vermögenslosen E-Person.
Prof. Dr. Stefan Müller*
* | Mehr über den Autor erfahren Sie auf Seite III. |