„Regulierte Intelligenz“ – erste Konturen einer EU-harmonisierten KI-Betreiberhaftung
Die rechtliche Regulierung Künstlicher Intelligenz (KI) nimmt Fahrt auf. In einer Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz (2020/2014(INL)) wird, soweit ersichtlich, erstmals ein konkreter gefasster Verordnungsvorschlag in Empfehlungsform des Parlaments an die Kommission vorgelegt. Damit haben sich Erkenntnisse aus zahlreichen Weißbüchern, Entschließungen, Berichten und Expertenwissen der vergangenen Jahre in die Buchstaben eines – möglichen – europäischen Rechtstexts kondensiert.
Als erste Erkenntnis, die aus dem Titel hervorgeht, zeigt sich, dass der Gesetzgeber weiterhin am System der zivilrechtlichen Haftung als primärem Konfliktlösungsmodus festhält. Dies zwar nicht völlig überraschend, jedoch haben vorausgegangene Standpunkte der Kommission alternative Ansätze (Risikomanagement, Versicherungsschutz, Fondslösungen) dezidiert ins Feld geführt. Ausweislich der Erwägungsgründe wird der Regelungsvorschlag von der Abwägung zwischen Innovationsverantwortung und Innovationsförderung beherrscht. Der Regulierungsansatz fußt auf der Idee eines vollständig harmonisierten digitalen Binnenmarkts (daher die Verordnung als Rechtsakt der Wahl), wobei das Instrumentarium einer unionsweiten Haftung für KI-System in enger Abstimmung mit den Mitgliedstaaten und unter Berücksichtigung wirtschaftlicher, rechtlicher und sozialer Geltungsbedingungen entwickelt wird.
Der vorgeschlagene Rechtsakt operiert in Art. 3 mit dem Begriff des näher definierten KI-Systems, das als ein softwaregestütztes oder in Hardware-Geräte eingebettetes System vorgestellt wird, welches ein Intelligenz simulierendes Verhalten zeigt, indem es unter anderem Daten sammelt und verarbeitet, seine Umgebung analysiert und interpretiert und mit einem gewissen Maß an Autonomie Maßnahmen ergreift, um bestimmte Ziele zu erreichen. Darauf aufbauend wird eine Zweiteilung vorgenommen zwischen KI-Systemen mit hohen Risiken bzw. solchen, die in kritischen Sektoren zum Einsatz kommen, einerseits und anderen KI-Systemen (mit offenbar „nur“ gewöhnlichem Risikoprofil) andererseits. In einem Anhang sollen die hochriskanten Systeme bzw. diejenigen, die in kritischen Sektoren zur Anwendung kommen, erschöpfend aufgezählt werden. Der Zuschnitt des Anhangs soll legislativ zeitlich befristet über delegierte Rechtsakte der Kommission gesteuert werden (Art. 13).
Als Schwerpunkt der zivilrechtlichen KI-Haftung wird, neben einer als novellierungsbedürftig erkannten EU-weiten Produkthaftung, eine KI-Betreiberhaftung ausgemacht. Überraschenderweise bemüht das Parlament als Begründung für den Topos der Beherrschbarkeit einen Vergleich zum „Eigentümer eines Fahrzeugs“, was in vielerlei Hinsicht befremdet. Der Betreiberbegriff wird aufgrund einer Zweiteilung zwischen Frontend- und Backend-Betreiber unscharf gefasst; letztere scheinen ausweislich der Definition (Art. 3 lit. f) ggfs. auch Entwickler und Support-Dienstleister zu erfassen, soweit diese kontinuierlich für den Betrieb maßgebliche Leistungen erbringen, die ein gewisses Maß an Kontrolle über Betrieb und Funktionsweise des Systems ermöglichen. Nur Betreiber von KI-Systemen mit hohem Risikoprofil werden mit einer verschuldensunabhängigen Haftung belegt (Art. 4) mit gedeckeltem Entschädigungsumfang (Art. 5), im Übrigen bewendet es bei einer Verschuldenshaftung, die in Art. 8 Ziff. 2 jedoch als Haftung für vermutetes Verschulden umschrieben wird. Die angesprochene Trennung zwischen Frontend- und Backend-Betreiber wirkt sich im Hochrisikobereich beim Zuschnitt des erforderlichen Pflichtversicherungsschutzes aus. Für den Hochrisikobereich werden vergleichsweise lange Verjährungsfristen (30 bzw. 10 Jahre nach Schadensarten) angesetzt, was einerseits dem vielfach noch nicht restlos geklärten Risikopotential entspricht, andererseits eine Haf¬
Der erste Aufschlag für einen haftungsrechtlichen Rahmen für KI ist damit gemacht, eine grobe Weichenstellung erfolgt. Die Legaldefinitionen des KI-Systems und des autonomen Systems sorgen für Anschlussfähigkeit der rechtlichen Regulierung an die Technik und bietet Anknüpfung für das weitere Rechtssetzungsverfahren. Zweifel begegnet hingegen der Regulierungsansatz anhand unterschiedlicher Risikoklassen, wie Hacker jüngst näher dargelegt hat (NJW 2020, 2142 ff.).
Prof. Dr. Stefan Müller*
* | Mehr über den Autor erfahren Sie auf Seite III. |