Eine beispiellose Lösung in der Welt – so bewertet die Fachöffentlichkeit den Vorschlag der Regierung, die strafrechtliche Verantwortung in Fällen von Sachschäden oder Körperverletzungen, die durch Systeme der Künstlichen Intelligenz verursacht werden, einzuführen. Der umstrittene Vorschlag, der die Entwicklung der Künstlichen Intelligenz in Kroatien erheblich entmutigen könnte, wurde vom Ministerium für Justiz, Verwaltung und digitale Transformation (MPUDT) in den Vorschlag für Änderungen des Strafgesetzbuches aufgenommen. Der Vorschlag war vom 24. Juli bis 23. August zur öffentlichen Konsultation geöffnet und erhielt insgesamt 622 Kommentare, darunter 577 Kommentare und 45 Textänderungen.
Die Jubiläums-, zehnte Änderung des Strafgesetzbuches wird verabschiedet, um sich weiter an die Anforderungen für die Mitgliedschaft in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) anzupassen, insbesondere im Kampf gegen die Bestechung ausländischer Amtsträger bei internationalen Geschäftstransaktionen. Darüber hinaus werden europäische Richtlinien zur Prävention und Bekämpfung des Menschenhandels sowie zum Schutz seiner Opfer in das nationale Recht umgesetzt. Am meisten Aufmerksamkeit erhielt jedoch der Vorschlag zur Einführung eines neuen Straftatbestands aufgrund der Entwicklung der Technologie der Künstlichen Intelligenz, einschließlich automatisierter Fahrzeuge – Gefährdung von Leben und Eigentum durch Systeme der Künstlichen Intelligenz.
Ein Präzedenzfall in der EU
So wird ein neuer Artikel, 215.a, in das Strafgesetzbuch aufgenommen, der Freiheitsstrafen von sechs Monaten bis zu fünfzehn Jahren für diejenigen vorschreibt, die ‚bei der Entwicklung, Erprobung, Überprüfung, Überwachung, Nutzung von Systemen der Künstlichen Intelligenz und deren Verwaltung oder anderweitig Gefahr für das Leben oder den Körper von Menschen oder für Eigentum größeren Ausmaßes verursachen‘.
Wenn angenommen, kann Kroatien ’stolz‘ darauf sein, das erste Land in Europa zu sein, das tatsächlich die Entwicklung von Künstlicher Intelligenz kriminalisiert. Da die größten Volkswirtschaften der Welt Künstliche Intelligenz als Quelle einer neuen industriellen Revolution betrachten, ist es nicht überraschend, dass der Vorschlag des Ministeriums, das die digitale Transformation in seinem Namen trägt, bei Geschäftsleuten auf Ablehnung gestoßen ist. Laut dem Kroatischen Arbeitgeberverband (HUP) konzentriert sich die Europäische Union derzeit hauptsächlich auf die zivilrechtliche Haftung (Schadenersatz), die an die Besonderheiten von KI-Systemen angepasst ist.
– Die Richtlinie zur Haftung für Künstliche Intelligenz führt Erleichterungen für Schadenersatzansprüche ein, einschließlich einer widerlegbaren Vermutung der Kausalität und einer Verpflichtung zur Offenlegung von Beweisen für hochriskante KI-Systeme, während das Gesetz über Künstliche Intelligenz ein Risikolevel-Regime – inakzeptabel, hoch, begrenzt, minimal – mit strengen Regeln für hochriskante Anwendungen festlegt und inakzeptable Praktiken wie Manipulation, soziale Bewertung, d.h. das Sammeln und Aggregieren von Daten über das Verhalten und die Eigenschaften von Individuen, sowie die Verwendung von Biometrie ohne angemessene Garantien ausdrücklich verbietet. Die europäische Praxis führt daher hauptsächlich Haftung im Rahmen zivilrechtlicher Mechanismen ein, während das Strafrecht noch nicht der primäre Rahmen zur Regulierung von KI-Risiken in der EU ist – betonen sie im HUP.
In diesem Sinne wäre die Einführung eines solchen neuen Straftatbestands ein Präzedenzfall in der Europäischen Union, da kein Mitgliedstaat bisher eine so umfassende und restriktive strafrechtliche Haftung für breite Aktivitäten in der Entwicklung und Anwendung von Künstlicher Intelligenz eingeführt hat, fügen sie im Verband hinzu.
– Darüber hinaus gibt es keinen EU-Mitgliedstaat, der einen neuen Straftatbestand eingeführt hat, der allgemein und direkt auf Systeme der Künstlichen Intelligenz abzielt. Die Einführung solcher Bestimmungen würde erhebliche rechtliche Unsicherheit schaffen, normale Geschäftstätigkeiten behindern und Kroatien im Vergleich zu anderen EU-Mitgliedstaaten benachteiligen. Dies gefährdet ernsthaft einen signifikanten Rückgang der Innovation, schreckt Investitionen ab und demotiviert Experten auf diesem Gebiet, was langfristig die Entwicklung der heimischen KI-Industrie und die Gesamtwettbewerbsfähigkeit der kroatischen Wirtschaft sowohl auf europäischer als auch auf globaler Ebene einschränken könnte – warnen die Arbeitgeberverbände.
Die Bestrafung sogar der Möglichkeit
Ähnliche Gedanken teilt Davor Aničić, ein Mitglied des Vorstands des Kroatischen Verbands für Künstliche Intelligenz CroAI. Seiner Meinung nach führt die Einführung spezifischer strafrechtlicher Haftung sicherlich zu zusätzlichen Risiken und Kosten im Geschäft.
– Dies wird dazu führen, dass kleinere Unternehmen, die nicht die Kapazität haben, diese zusätzlichen Kosten und Risiken zu tragen, ihre Entwicklung in weniger riskante Bereiche lenken, in denen KI-Systeme keine realen Risiken für Menschen und Eigentum darstellen können – bewertet Aničić.
Auf der anderen Seite sieht der Anwalt Vlaho Hrdalo keine Gründe, warum die neue Bestimmung die Entwicklung der Branche negativ beeinflussen sollte, da europäische Innovatoren und Regulierungsbehörden ohnehin konservativer sind als ihre amerikanischen Kollegen.
– Es ist sicherlich nicht gut, eine Technologie mit der Vorstellung zu entwickeln, dass man dafür ins Gefängnis kommen könnte, aber vielleicht ist es an der Zeit, aufzuhören, Sklaven der Effizienz und des ständigen Fortschritts um jeden Preis zu sein – glaubt Hrdalo.
Es bleibt zu diskutieren, fügt Hrdalo hinzu, warum sie sich entschieden haben, abstrakte Gefahren, d.h. die Möglichkeit des Entstehens von Folgen, zu bestrafen und nicht nur deren tatsächliches Eintreten. So sind beispielsweise Verkehrsdelikte, bei denen Geschwindigkeitsüberschreitungen bestraft werden, selbst wenn sie keinen Verkehrsunfall verursachen.
Allerdings hat der Vorschlag ernsthafte Mängel in der rechtlichen Logik, so die Anwälte, die wir um ihre Meinung gebeten haben. Anwalt Stefan Martinić war Mitglied der Arbeitsgruppe für das europäische KI-Gesetz im Namen des CroAI-Verbandes. Auf die Frage, ob die Haftung zu weit gefasst sei, antwortet er, dass das vorgeschlagene Modell der strafrechtlichen Haftung durch die Linse der grundlegenden Prinzipien des Strafrechts, insbesondere des Schuldprinzips, betrachtet werden sollte.
