KI: Eine unlösbare Aufgabe für das Haftungsrecht?

KI: Eine unlösbare Aufgabe für das Haftungsrecht?

Der Einsatz künstlicher Intelligenz (KI) in allen Lebensbereichen ist seit geraumer Zeit ein großes Thema und inzwischen auch bei den Juristen angekommen. Es gilt, sich mit solch kniffeligen Fragen auseinanderzusetzen wie: „Wer haftet, wenn KI in der Produktionsanlage den Roboterarm ausscheren lässt und dabei ein Mitarbeiter verletzt wird?“

Susanne Wende berät Hersteller im Hinblick auf alle Fragen rund um Product Compliance und Produkthaftung beim Vertrieb in Europa. (Bild: Noerr LLP)

Schon eine Definition des Begriffs KI ist nicht so ganz einfach. Die von der Europäischen Kommission einberufene Artificial Intelligence High-Level Expert Group hat ein neunseitiges (!) Dokument mit dem Versuch einer Definition veröffentlicht. Im Kern wird darauf abgestellt, dass KI die eigene Umgebung analysiert und daraus – mit einem gewissen Maß an Autonomie – selbst Handlungen ableitet. Gerade das Maß der Autonomie bereitet den Juristen Schwierigkeiten. Das existierende Haftungsrecht benötigt nämlich immer eine menschliche Handlung als Anknüpfungspunkt; eine Handlung, die auf eine willentliche Entscheidung zurückführbar ist. Nur dann kann die haftungsrechtlich relevante Frage gestellt und beantwortet werden, ob in der menschlichen Willensbildung ein rechtswidriges und zugleich vorwerfbares Verhalten zu sehen ist. Der Jurist nennt dies eine vorsätzliche oder fahrlässige Pflichtverletzung. Zu einem qualitativen Sprung in der rechtlichen Wertung kommt es daher in dem Moment, in dem ein Programm aufgrund der Auswertung seiner Umgebung selbst den eigenen Algorithmus verändern kann. Damit reduziert sich zum einen die Vorhersehbarkeit, zum anderen aber auch die Rechtfertigung der Anknüpfung eines Fehlers an ein menschliches Verhalten.

Der juristische Diskurs ist breit. Es wird die Frage aufgeworfen, ob immer noch danach bewertet werden kann, ob der Programmierer jedenfalls alles Erforderliche getan hat, um sicherzustellen, dass sich der Algorithmus nicht in eine gefährliche Richtung weiterentwickelt. Oder sollte vielleicht jeder Einsatz von KI wegen der mangelnden Beherrschbarkeit und Abschätzbarkeit des Autonomierisikos als pflichtwidrig eingestuft werden, solange die Rahmenbedingungen nicht rechtlich festgelegt sind? Diskutiert wird auch die Übertragung bereits entwickelter Zurechnungsgrundsätze, wie z.B. die Haftung des Unternehmers für seine Verrichtungsgehilfen. Der Jurist stößt in diesem Zusammenhang auf ein dogmatisches Problem, da der Verrichtungsgehilfe aufgrund seiner menschlichen Willensfreiheit handelt. Diese Willensfreiheit hat eine KI nicht. Daher wird z.T. die Etablierung eines ganz eigenen Haftungsregimes angeregt oder auch eine Lösung der Haftungsfragen allein über die Definition von Risikosphären. Denn hinter der Maschine steht ja stets eine menschliche Einheit von Entwickler, Hersteller und Betreiber. Es erscheint möglich, dieser Einheit als eine Art Geflecht von Mitverursachern das Risiko des Fehlverhaltens in Form der Gefährdungshaftung zuzurechnen.

Eine wiederum andere juristische Strömung untersucht, ob als juristische Konsequenz der möglichen Entstehung eines Selbstbewusstseins der KI eine entsprechende Rechtspersönlichkeit geschaffen werden müsste. Es gäbe dann zwar formell ein Haftungssubjekt, aber eine Verteilung der finanziellen Haftungsrisiken ginge damit nicht einher. Die Europäische Kommission hat eine Expertengruppe eingesetzt, um Auslegungshilfen im Hinblick auf die rechtliche Handhabung von Haftungsfragen beim Einsatz von KI auf Grund der aktuellen Gesetzeslage zu erarbeiten. Leitlinien dieser Expertengruppe waren für Mitte Mai 2019 angekündigt. Sie sind allerdings bisher noch nicht veröffentlicht. Auch das zeigt, dass die haftungsrechtliche Erfassung des Einsatzes von KI durchaus eine Herausforderung für unser Rechtssystem ist.

Hiermit verbleibe ich hochachtungsvoll

Ihre Susanne Wende

Noerr LLP
www.noerr.com

Das könnte Sie auch Interessieren

Bild: KUKA AG
Bild: KUKA AG
Cobot-Einsatz in der Qualitätssicherung

Cobot-Einsatz in der Qualitätssicherung

Zur Qualitätssicherung des neuen Mahlwerks für die neue Kaffeemarke Ligre hinsichtlich Langlebigkeit und Einhaltung des voreingestellten Kaffeegewichts setzten die Entwicklungstechniker von Gronbach in einem Testaufbau auf die Unterstützung durch den Cobot LBR iisy von Kuka.

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.