Home / Finanzen / KI und rechtliche Haftung: Wie man künstliche Intelligenz verklagt und Entschädigung erhält

KI und rechtliche Haftung: Wie man künstliche Intelligenz verklagt und Entschädigung erhält

Es ist da und durchdringt zunehmend sowohl das persönliche als auch das geschäftliche Leben, aber die Geschwindigkeit, mit der alles geschieht, hat die Gesetzgeber etwas überrascht, die erst jetzt erkennen, dass das Feld der künstlichen Intelligenz rechtliche Regelungen benötigt. Es besteht kein Zweifel, dass dies in den kommenden Jahren eine Priorität sein wird, aber die Europäische Union hat bereits mit mehreren Richtlinien begonnen, die derzeit in Form von Vorschlägen vorliegen. So könnte das System zur Geltendmachung von Entschädigungen für Personen, die durch die Nutzung von Systemen der künstlichen Intelligenz (KI-Systeme) geschädigt wurden, bald erheblich erleichtert werden, dank zweier zusätzlicher Richtlinien, die die Europäische Kommission im September 2022 vorgeschlagen hat.

Nämlich sollte im dreiteiligen Regulierungssystem zur Verhinderung von Schäden und zur Regulierung der künstlichen Intelligenz in der Europäischen Union – neben der Verordnung über künstliche Intelligenz – eine Richtlinie zur Anpassung der Regeln zur außervertraglichen zivilrechtlichen Haftung in Bezug auf künstliche Intelligenz (Richtlinie zur Haftung für KI) und eine geänderte und erweiterte Richtlinie zur Haftung für fehlerhafte Produkte (Aktualisierte Richtlinie zur Produkthaftung) bestehen. Beide werden bestimmte Verpflichtungen für Unternehmen und viele Institutionen auferlegen, sodass Unternehmen, obwohl es sich derzeit nur um Vorschläge handelt, bereits Schritte unternehmen sollten, die sie auf diese Regelung vorbereiten könnten. Natürlich muss sich auch das Rechtssystem anpassen, bevor diese Richtlinien angenommen werden.

Barrieren abbauen

Trotz der Merkmale, die künstliche Intelligenz zu einem attraktiven Geschäftsinstrument machen – von Kosteneffizienz und Betriebseffizienz bis hin zu Autonomie – ist es aufgrund ihrer Komplexität und Mehrdeutigkeit gleichzeitig schwierig, sie zu verstehen und zu erklären, insbesondere für externe Interessengruppen. Daher könnte eine Person, die glaubt, durch ein KI-System geschädigt worden zu sein, möglicherweise nicht nachweisen, dass die Handlung oder Unterlassung, die mit diesem System in Zusammenhang steht, die Ursache des erlittenen Schadens war. Folglich wird es für eine solche Person wahrscheinlich schwierig sein, alle Anforderungen zu erfüllen, die der rechtlichen Rahmenbedingungen zur schuldhaften zivilrechtlichen Haftung vorgeschrieben sind, und sie könnte letztendlich feststellen, dass es völlig unpraktisch oder unmöglich ist, einen Schadensersatzanspruch geltend zu machen.

Ziel der Richtlinie zur Haftung für KI ist es, genau dieses Problem anzugehen, indem Barrieren für den Zugang zur Justiz abgebaut werden, wenn ein KI-System die Ursache für den Schaden ist. Aufgrund des Prinzips der Territorialität wird sie für alle Anbieter digitaler Dienste, Entwickler und Nutzer eines KI-Systems gelten, das im Hoheitsgebiet der Europäischen Union tätig ist. Die Richtlinie enthält zwei zentrale Elemente.

Beweislast

Das erste Element besteht darin, dass die nationalen Gerichte der Mitgliedstaaten befugt sein sollten, die Offenlegung von Beweismitteln bezüglich bestimmter Hochrisiko-KI-Systeme an die geschädigte Partei, die Entschädigung vom Dienstanbieter oder einer anderen Person, die den Lieferverpflichtungen unterliegt, zu verlangen. Die vorgeschlagenen Befugnisse, die nur verfügbar wären, wenn der Kläger nachweisen kann, dass sein Anspruch begründet ist und wenn der Kläger alle zumutbaren Schritte unternommen hat, um relevante Beweise vom Beklagten zu sammeln, würden es den nationalen Gerichten ermöglichen, von Anbietern oder Nutzern von Hochrisiko-KI-Systemen, die verdächtigt werden, Schäden verursacht zu haben, Beweise zu verlangen und würden festlegen, dass das Gericht davon ausgeht, dass der Beklagte, wenn er der Anordnung des Gerichts nicht nachkommt und keine Beweise im Schadensersatzanspruch vorlegt, das Prinzip der gebotenen Sorgfalt in Bezug auf die angeforderten Beweise nicht erfüllt hat (wobei dies eine widerlegbare Vermutung sein sollte, wenn der Beklagte nachweist, dass er die gebotene Sorgfalt bei der Erbringung des Dienstes ausgeübt hat).

Aufgrund von Bedenken von Organisationen hinsichtlich der Offenlegung ihrer vertraulichen Informationen, insbesondere von Geschäftsgeheimnissen und proprietären Informationen, ist aus dem Vorschlagstext klar, dass bei der Bestimmung, welche Informationen aufgrund einer gerichtlichen Anordnung offengelegt werden sollten, die Interessen aller Parteien, einschließlich Dritter, berücksichtigt werden.

Ursache und Wirkung finden

Das zweite zentrale Element der Richtlinie zur Haftung für KI besteht darin, dass die nationalen Gerichte der Mitgliedstaaten verpflichtet wären, zu vermuten, dass ein ursächlicher Zusammenhang zwischen dem Output des KI-Systems und dem Verschulden des Beklagten besteht, falls der Kläger nachgewiesen hat (oder das Gericht aufgrund fehlender Beweise vermutet), dass der Beklagte die gebotene Sorgfalt, die durch europäisches oder nationales Recht vorgeschrieben ist und darauf abzielt, vor verursachten Schäden zu schützen, nicht ausgeübt hat; dass es aufgrund der Umstände des Falls als wahrscheinlich angesehen werden kann, dass das Verschulden den Output des KI-Systems oder dessen Fehlen beeinflusst hat, und dass der Kläger nachgewiesen hat, dass der Output oder das Fehlen des Outputs des KI-Systems Schäden verursacht hat.

Andererseits könnte die vermutete Kausalität widerlegt werden, beispielsweise durch den Nachweis, dass das Fehlen der gebotenen Sorgfalt den Schaden nicht verursacht haben kann (praktisch betont dies weiter die Bedeutung strenger Aufzeichnungsprozeduren, wie sie in der KI-Verordnung dargelegt sind). Darüber hinaus sollte die vorgenannte Vermutung des ursächlichen Zusammenhangs nur im Falle von Niedrigrisiko-KI-Systemen gelten und nur, wenn das Gericht beurteilt, dass es äußerst schwierig ist, den ursächlichen Zusammenhang nachzuweisen, jedoch nicht im Falle von Hochrisiko-KI-Systemen, wenn der Beklagte nachweisen kann, dass dem Kläger ausreichende Beweise und Fachkenntnisse zur Verfügung stehen, um eine solche Verbindung herzustellen.

In ‚fehlerhaftes Produkt‘ einbeziehen

Im Gegensatz zum Vorschlag für die Richtlinie zur Haftung für KI (die auf schuldhafter Haftung basiert) basiert das derzeitige europäische Produkthaftungssystem auf einer verschuldensunabhängigen Haftung, um Klarheit über die Haftung für Schäden zu gewährleisten, die durch fehlerhafte Produkte verursacht werden. In den meisten Fällen liegt jedoch die Beweislast für den erlittenen Schaden, den Produktfehler und den ursächlichen Zusammenhang zwischen ihnen weiterhin bei der geschädigten Partei. Der Hersteller trägt im Allgemeinen die Verantwortung für Produktfehler, ebenso wie der Importeur für Mängel an importierten Produkten. Die aktualisierte Richtlinie zur Produkthaftung sollte nun KI-Systeme auf verschiedene Weise in den Anwendungsbereich des Produkthaftungssystems einbeziehen, hauptsächlich indem KI-Systeme (sowie Waren und Dienstleistungen, die auf KI-Systemen basieren) in die Definition von Produkten aufgenommen werden, auf die sie anwendbar ist.

Wenn ein fehlerhaftes KI-System Schäden verursacht, wird die Entschädigung für die geschädigte Partei ohne den Nachweis des Verschuldens des Herstellers ermöglicht; auch durch die Anerkennung, dass nicht nur Hardwarehersteller, sondern auch Softwarehersteller, die Anbieter digitaler Dienste sind, die Funktionsweise von Produkten, die mit künstlicher Intelligenz in Verbindung stehen, beeinflussen können und dass sie ebenfalls zur Verantwortung gezogen werden können, sowie durch die klare Feststellung, dass die verantwortliche Person für Änderungen an Produkten, die bereits auf dem Markt sind, haftbar gemacht werden kann, einschließlich wenn diese Änderungen durch Software-Updates oder maschinelles Lernen angestoßen werden. Es ist auch wichtig, ein Regime zu etablieren, bei dem die verantwortliche Person nicht von der Haftung befreit ist, wenn das Produkt aufgrund fehlender Updates oder Software-Upgrades, die zur Aufrechterhaltung der Sicherheit erforderlich sind, fehlerhaft wird.

Die vorgeschlagenen Richtlinien, zusammen mit der KI-Verordnung, stellen bedeutende regulatorische Änderungen für künstliche Intelligenz dar, da sie die Verhinderung von Schäden und deren Entschädigung kombinieren. Es gibt viele Änderungen, aber Organisationen, die die Initiative ergreifen und sich rechtzeitig anpassen, werden in der Lage sein, weiterhin mit Vertrauen zu schaffen, zu innovieren und zu operieren.

Markiert: