Zwei neue Richtlinien-Vorschläge der EU-Kommission vom 28. September 2022 sollen für mehr Rechtssicherheit in der KI-Haftung sorgen.
Künstliche Intelligenz (KI) bleibt ein „Hot Topic“: Nachdem die EU-Kommission im April 2021 den Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für KI („KI-Verordnung“ oder „AI Act“) veröffentlicht hatte (wir berichteten hier), zog sie kürzlich mit zwei Richtlinien-Vorschlägen nach – für eine (aktualisierte) Richtlinie über Produkthaftung (KOM(2022)495) und eine Richtlinie über KI-Haftung (KOM(2022)496). Was hat es mit diesen neuen Richtlinien-Vorschlägen auf sich? Ein Überblick:
Diese Frage stellt sich nur auf den ersten Blick. Ein zweiter Blick zeigt: Die KI-Verordnung ist unvollständig, da sie das für die Praxis besonders wichtige Thema der Haftung für KI-Systeme nicht berührt. Diese Lücke sollen die beiden Richtlinien-Entwürfe füllen. Verordnung und Richtlinien-Entwürfe würden nach der Vorstellung der Kommission dann wie Zahnräder ineinandergreifen und sich ergänzen:
Aktuell existiert weder auf nationaler noch auf europäischer Ebene ein Regelungswerk, das auf KI-spezifische Anforderungen eingeht. Wer meint, durch den Einsatz eines KI-Systems geschädigt worden zu sein, kann also, falls er nicht mit dem Schädiger in einem Vertragsverhältnis steht, das eine solche Haftung regelt, zur Begründung seiner Ersatzansprüche nur auf das geltende Zivilrecht zurückgreifen. Dieses sieht vereinfacht vor:
Nach Auffassung der EU-Kommission führt die aktuelle Rechtslage daher zu Rechtsunsicherheit und zu einem Verlust von Verbrauchervertrauen in die neuen, innovativen Technologien. Dies bestätigt auch eine nicht-repräsentative Umfrage, die Dentons im September 2021 unter mehreren Hundert Führungskräften durchführte, in die auch Antworten aus einer Umfrage über das Netzwerk LinkedIn einflossen: 75% der Teilnehmer an der Dentons-Umfrage klagten über Rechtsunsicherheit. Ein Großteil der Teilnehmer wusste nicht, welche Regelungen auf die Nutzung der KI-Systeme Anwendung finden. Diesem Missstand sollen nun – so der Wunsch der EU-Kommission – die neuen Richtlinien abhelfen.
Der Vorschlag für die aktualisierte Richtlinie über Produkthaftung stellt vor allem klar, dass auch nicht verkörperte KI-Systeme wie Software zukünftig in ihren Anwendungsbereich fallen. Daneben erweitert der Vorschlag den Anwendungsbereich der Richtlinie auf den Verlust von Daten und psychische Verletzungen. Und: Unter den Fehlerbegriff sollen künftig auch schadensverursachende selbstlernende KI-Systeme fallen.
Ein anderer wichtiger Aspekt des Richtlinienvorschlags sind Beweiserleichterungen zugunsten des Geschädigten. Der Geschädigte soll zwar auch weiterhin grundsätzlich die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen Fehlerhaftigkeit und Schaden nachweisen. Die Fehlerhaftigkeit des Produkts (also auch des KI-Systems) kann aber in bestimmten Fällen widerlegbar vermutet werden, z.B. wenn der Geschädigte nachweist, dass ein Produkt den EU-weiten oder nationalen Sicherheitsanforderungen nicht entspricht.
Weiteres Novum: Das Gericht soll auf Antrag des Geschädigten verfügen können, dass der Beklagte die ihm zur Verfügung stehenden einschlägigen Beweismittel offenlege. Kommt der Beklagte einer solchen Verfügung nicht nach, wird ebenfalls vermutet, dass das Produkt fehlerhaft sei.
Anders als der Entwurf für eine aktualisierte Richtlinie über die verschuldensunabhängige Produkthaftung betrifft die Richtlinie über KI-Haftung die außervertragliche verschuldensabhängige zivilrechtliche Haftung. Sie macht zudem auch keine Unterscheidung zwischen bestimmten Schadensarten. Sie gilt umfassend für jegliche Schäden, die durch ein KI-System verursacht wurden, z.B. wenn der Einsatz des KI-Systems zu Diskriminierung etwa im Rahmen einer Bewerberauswahl oder zu einem Bruch der Vertraulichkeit personenbezogener Daten führt.
Weiteres Kernstück des Richtlinienentwurfs ist der vereinfachte Zugang zu Informationen in Fällen möglicher Rechtsverletzungen: War Hochrisiko-KI im Einsatz, sollen die Gerichte auf Antrag des potenziell Geschädigten gegen den potenziellen Schädiger die Offenlegung der einschlägigen Beweismittel anordnen dürfen; hinzukommen Kausalitätsvermutungen zu Gunsten des potenziell Geschädigten. Mit der Bezugnahme auf Hochrisiko-KI in diesem Kontext schlägt der Richtlinienentwurf eine Brücke zu der Klassifizierung der Technologien im Entwurf des AI Acts, der den Einsatz von Hochrisiko-KI-Systemen besonders strengen Zulassungs- und Kontrollregimen unterwirft.
Die beiden Richtlinienentwürfe bergen einigen Zündstoff. Die Erweiterungen des Anwendungsbereichs der Produkthaftung und des Fehlerbegriffs auf selbstlernende KI-Systeme können in Anbetracht des sich rasch verbreitenden Einsatzes dieser Technologien noch als unvermeidbar erscheinen. Die weitreichenden Offenlegungspflichten stehen dagegen in einem offenen Konflikt mit den Geheimnisschutzinteressen und ‑pflichten der beteiligten Unternehmen. Die betreffenden KI-Technologien dürften, falls sie nicht ausnahmsweise patentgeschützt sind, regelmäßig dem Schutz als Geschäftsgeheimnisse unterfallen und in dieser Eigenschaft zu den wertvollsten und zugleich verletzlichsten Vermögensgegenständen der Entwickler und Verwender dieser Systeme zählen. Diesen Konflikt zu antizipieren und vertragliche Vorsorge (Stichworte: Haftung und Regress innerhalb der Lieferketten) zu treffen, wird künftig eine der großen Herausforderungen für Unternehmen, die KI-Systeme einsetzen. Das bedeutet: Die beiden Richtlinien-Entwürfe lassen an mancher Stelle eine gewisse Rechtssicherheit erwarten. An anderer Stelle schüren sie aber neue Unsicherheiten.
Die beiden Richtlinienentwürfe durchlaufen noch das Europäische Parlament und den Rat. Zu erwarten sind in diesem Zuge Anpassungen im Detail, weniger fundamentale Änderungen. Da EU-Richtlinien der Umsetzung in das jeweilige nationale Recht der Mitgliedstaaten bedürfen, kann es auch hier noch Feinjustierungen durch den nationalen Gesetzgeber geben.
Unaufgeforderte E-Mails und andere Informationen, die Dentons erhält, werden nicht vertraulich behandelt, können an Dritte weitergegeben werden, erhalten möglicherweise keine Antwort und schaffen keine Anwalt-Mandanten-Beziehung. Wenn Sie noch kein Mandant von Dentons sind, schicken Sie uns bitte keine vertraulichen Informationen.
Die Seite, die Sie besuchen wollten, ist in der von Ihnen ausgewählten Sprache nicht verfügbar. Sie wurden auf einen entsprechenden Bereich unserer Webseite weitergeleitet.
Sie werden jetzt von der Dentons Website zur englischen $redirectingsite Website weitergeleitet. Wenn Sie fortfahren möchten, klicken Sie bitte auf Annehmen.
Sie werden jetzt von der Dentons Website zur Beijing Dacheng Law Offices, LLP Website weitergeleitet. Wenn Sie fortfahren möchten, klicken Sie bitte auf Annehmen.