Home / Geschäft und Politik / Mit der Entwicklung von Künstlicher Intelligenz in Kroatien können wir uns verabschieden

Mit der Entwicklung von Künstlicher Intelligenz in Kroatien können wir uns verabschieden

Image by: foto

Eine beispiellose Lösung in der Welt – so bewertet die Fachöffentlichkeit den Vorschlag der Regierung, die strafrechtliche Verantwortung in Fällen von Sachschäden oder Körperverletzungen, die durch Systeme der Künstlichen Intelligenz verursacht werden, einzuführen. Der umstrittene Vorschlag, der die Entwicklung der Künstlichen Intelligenz in Kroatien erheblich entmutigen könnte, wurde vom Ministerium für Justiz, Verwaltung und digitale Transformation (MPUDT) in den Vorschlag für Änderungen des Strafgesetzbuches aufgenommen. Der Vorschlag war vom 24. Juli bis 23. August zur öffentlichen Konsultation geöffnet und erhielt insgesamt 622 Kommentare, darunter 577 Kommentare und 45 Textänderungen.

Die Jubiläums-, zehnte Änderung des Strafgesetzbuches wird verabschiedet, um sich weiter an die Anforderungen für die Mitgliedschaft in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) anzupassen, insbesondere im Kampf gegen die Bestechung ausländischer Amtsträger bei internationalen Geschäftstransaktionen. Darüber hinaus werden europäische Richtlinien zur Prävention und Bekämpfung des Menschenhandels sowie zum Schutz seiner Opfer in das nationale Recht umgesetzt. Am meisten Aufmerksamkeit erhielt jedoch der Vorschlag zur Einführung eines neuen Straftatbestands aufgrund der Entwicklung der Technologie der Künstlichen Intelligenz, einschließlich automatisierter Fahrzeuge – Gefährdung von Leben und Eigentum durch Systeme der Künstlichen Intelligenz.

Ein Präzedenzfall in der EU

So wird ein neuer Artikel, 215.a, in das Strafgesetzbuch aufgenommen, der Freiheitsstrafen von sechs Monaten bis zu fünfzehn Jahren für diejenigen vorschreibt, die ‚bei der Entwicklung, Erprobung, Überprüfung, Überwachung, Nutzung von Systemen der Künstlichen Intelligenz und deren Verwaltung oder anderweitig Gefahr für das Leben oder den Körper von Menschen oder für Eigentum größeren Ausmaßes verursachen‘.

Wenn angenommen, kann Kroatien ’stolz‘ darauf sein, das erste Land in Europa zu sein, das tatsächlich die Entwicklung von Künstlicher Intelligenz kriminalisiert. Da die größten Volkswirtschaften der Welt Künstliche Intelligenz als Quelle einer neuen industriellen Revolution betrachten, ist es nicht überraschend, dass der Vorschlag des Ministeriums, das die digitale Transformation in seinem Namen trägt, bei Geschäftsleuten auf Ablehnung gestoßen ist. Laut dem Kroatischen Arbeitgeberverband (HUP) konzentriert sich die Europäische Union derzeit hauptsächlich auf die zivilrechtliche Haftung (Schadenersatz), die an die Besonderheiten von KI-Systemen angepasst ist.

– Die Richtlinie zur Haftung für Künstliche Intelligenz führt Erleichterungen für Schadenersatzansprüche ein, einschließlich einer widerlegbaren Vermutung der Kausalität und einer Verpflichtung zur Offenlegung von Beweisen für hochriskante KI-Systeme, während das Gesetz über Künstliche Intelligenz ein Risikolevel-Regime – inakzeptabel, hoch, begrenzt, minimal – mit strengen Regeln für hochriskante Anwendungen festlegt und inakzeptable Praktiken wie Manipulation, soziale Bewertung, d.h. das Sammeln und Aggregieren von Daten über das Verhalten und die Eigenschaften von Individuen, sowie die Verwendung von Biometrie ohne angemessene Garantien ausdrücklich verbietet. Die europäische Praxis führt daher hauptsächlich Haftung im Rahmen zivilrechtlicher Mechanismen ein, während das Strafrecht noch nicht der primäre Rahmen zur Regulierung von KI-Risiken in der EU ist – betonen sie im HUP.

In diesem Sinne wäre die Einführung eines solchen neuen Straftatbestands ein Präzedenzfall in der Europäischen Union, da kein Mitgliedstaat bisher eine so umfassende und restriktive strafrechtliche Haftung für breite Aktivitäten in der Entwicklung und Anwendung von Künstlicher Intelligenz eingeführt hat, fügen sie im Verband hinzu.

– Darüber hinaus gibt es keinen EU-Mitgliedstaat, der einen neuen Straftatbestand eingeführt hat, der allgemein und direkt auf Systeme der Künstlichen Intelligenz abzielt. Die Einführung solcher Bestimmungen würde erhebliche rechtliche Unsicherheit schaffen, normale Geschäftstätigkeiten behindern und Kroatien im Vergleich zu anderen EU-Mitgliedstaaten benachteiligen. Dies gefährdet ernsthaft einen signifikanten Rückgang der Innovation, schreckt Investitionen ab und demotiviert Experten auf diesem Gebiet, was langfristig die Entwicklung der heimischen KI-Industrie und die Gesamtwettbewerbsfähigkeit der kroatischen Wirtschaft sowohl auf europäischer als auch auf globaler Ebene einschränken könnte – warnen die Arbeitgeberverbände.

Die Bestrafung sogar der Möglichkeit

Ähnliche Gedanken teilt Davor Aničić, ein Mitglied des Vorstands des Kroatischen Verbands für Künstliche Intelligenz CroAI. Seiner Meinung nach führt die Einführung spezifischer strafrechtlicher Haftung sicherlich zu zusätzlichen Risiken und Kosten im Geschäft.

– Dies wird dazu führen, dass kleinere Unternehmen, die nicht die Kapazität haben, diese zusätzlichen Kosten und Risiken zu tragen, ihre Entwicklung in weniger riskante Bereiche lenken, in denen KI-Systeme keine realen Risiken für Menschen und Eigentum darstellen können – bewertet Aničić.

Auf der anderen Seite sieht der Anwalt Vlaho Hrdalo keine Gründe, warum die neue Bestimmung die Entwicklung der Branche negativ beeinflussen sollte, da europäische Innovatoren und Regulierungsbehörden ohnehin konservativer sind als ihre amerikanischen Kollegen.

– Es ist sicherlich nicht gut, eine Technologie mit der Vorstellung zu entwickeln, dass man dafür ins Gefängnis kommen könnte, aber vielleicht ist es an der Zeit, aufzuhören, Sklaven der Effizienz und des ständigen Fortschritts um jeden Preis zu sein – glaubt Hrdalo.

Es bleibt zu diskutieren, fügt Hrdalo hinzu, warum sie sich entschieden haben, abstrakte Gefahren, d.h. die Möglichkeit des Entstehens von Folgen, zu bestrafen und nicht nur deren tatsächliches Eintreten. So sind beispielsweise Verkehrsdelikte, bei denen Geschwindigkeitsüberschreitungen bestraft werden, selbst wenn sie keinen Verkehrsunfall verursachen.

Allerdings hat der Vorschlag ernsthafte Mängel in der rechtlichen Logik, so die Anwälte, die wir um ihre Meinung gebeten haben. Anwalt Stefan Martinić war Mitglied der Arbeitsgruppe für das europäische KI-Gesetz im Namen des CroAI-Verbandes. Auf die Frage, ob die Haftung zu weit gefasst sei, antwortet er, dass das vorgeschlagene Modell der strafrechtlichen Haftung durch die Linse der grundlegenden Prinzipien des Strafrechts, insbesondere des Schuldprinzips, betrachtet werden sollte.

– Nämlich, die Herausforderung, die Künstliche Intelligenz darstellt, ist nicht unbedingt neu; wir sind bereits auf sie in komplexen Unternehmensstrukturen und Entscheidungsprozessen gestoßen, wo diese Komplexität eines der Argumente für die Einführung des Instituts der Unternehmensstrafbarkeit war. Der Unterschied bei KI-Systemen liegt in der Unvorhersehbarkeit ihrer Ergebnisse. Aufgrund des Phänomens der Black Box kann weder der Programmierer noch der Endbenutzer immer vorhersagen, wie das System entscheiden wird. Dies schafft ernsthafte Schwierigkeiten bei der Beweisführung des Kausalzusammenhangs zwischen menschlichen Handlungen und den vom System erzeugten Folgen. Wenn der Gesetzgeber darauf mit einem vereinfachten Kausalitätsmodell reagiert, indem er beispielsweise automatisch die Schuld auf den Menschen im Prozess überträgt, würde das Schuldprinzip ernsthaft in Frage gestellt. Der Mensch würde lediglich als Mittel zur Schließung der ‚Verantwortungslücke‘ behandelt, was der fragmentierten Natur des Strafrechts widerspricht – glaubt Martinić.

Eine breite Palette von Kritiken

Daher wäre der beste Ansatz, die Existenz einer solchen ‚Verantwortungslücke‘ anzuerkennen und verschiedene Regulierungsinstrumente in Betracht zu ziehen, wie strengere zivilrechtliche Haftung oder eine obligatorische Versicherung, anstatt das Strafrecht über seine grundlegenden Prinzipien hinaus auszudehnen.

– Wenn in einem konkreten Fall tatsächlich bewiesen werden kann, dass es eine klare Schuld gibt, kann ein solches Verhalten unter bestehende Straftatbestände subsumiert werden, ohne dass es notwendig ist, eine neue spezielle Kriminalisierung einzuführen – weist Martinić hin.

Allgemein gesprochen ist die Bandbreite der Kritiken, die an der unkontrollierten Entwicklung der Künstlichen Intelligenz gerichtet werden können, sehr breit. In diesem Zusammenhang verweist Vlaho Hrdalo auf einen der führenden Experten für KI, Geoffrey Hinton, der sich über autonome Waffen, den Verlust der gemeinsamen Realität und die Einmischung in Wahlen als Folge der Entwicklung der Künstlichen Intelligenz sorgt.

– Ein solcher Straftatbestand erscheint mir bedrohlich für die Entwicklung der Künstlichen Intelligenz, da er sogar das Testen bestraft, aber trotz dessen halte ich ihn für begrüßenswert. Ich würde jedoch wünschen, dass das Ministerium, das die digitale Transformation in seinem Namen trägt, die Frage der Künstlichen Intelligenz sorgfältig und interdisziplinär angeht, anstatt willkürlich, weil eine Empfehlung eingegangen ist. Für Künstliche Intelligenz brauchen wir gebündelte Kräfte, die aus den größten Köpfen bestehen, nicht nur einen Artikel im Gesetz – bewertet Hrdalo.

Haftung von juristischen Personen

Das Ministerium für Justiz erklärt, dass auch die akademische Gemeinschaft, die sich auf Künstliche Intelligenz spezialisiert hat, an der Entwicklung normativer Lösungen beteiligt war und informiert wurde, wie Länder wie Frankreich, Deutschland und die USA zu diesem Thema denken. In der detaillierten Begründung des Vorschlags betont das MPUDT, dass die grundlegenden Formen dieses Straftatbestands als vorsätzliche und fahrlässige Straftaten mit der Folge einer spezifischen Gefährdung vorgeschrieben sind, und es wird vorgeschlagen, dass qualifizierte Formen im Falle schwerer Körperverletzungen, großflächiger Sachschäden oder des Todes einer oder mehrerer Personen vorgeschrieben werden. Laut dem Vorschlag gilt die strafrechtliche Haftung sowohl für natürliche als auch für juristische Personen.

– Wenn es um die Haftung von juristischen Personen für den vorgeschlagenen Straftatbestand geht, ist die Bestimmung des Artikels 5, Absatz 2 des Gesetzes über die Haftung von juristischen Personen für Straftaten wichtig, die vorschreibt, dass eine juristische Person für die Straftat einer verantwortlichen Person bestraft wird, selbst in Fällen, in denen rechtliche oder tatsächliche Hindernisse für die Feststellung der Verantwortung der verantwortlichen Person bestehen. Dies ist entscheidend in Fällen, in denen nicht bestimmt werden kann, welcher der verantwortlichen Personen in der juristischen Person direkt die Merkmale des Straftatbestands erfüllt hat, beispielsweise aufgrund hierarchischer oder organisatorischer Unklarheiten oder Komplexität innerhalb der juristischen Person, und es wahrscheinlich ist, dass einer von ihnen es ist. In solchen Fällen, die auch in der Rechtsprechung anerkannt sind, können strafrechtliche Verfahren gegen die juristische Person durchgeführt werden, auch wenn gegen die verantwortliche Person aufgrund des Vorliegens eines tatsächlichen Hindernisses keine strafrechtlichen Verfahren durchgeführt werden können – betonen sie im Ministerium.

Rimac sieht kein Problem

Während die Welt vor KI-basierten Waffen Angst hat, bezieht sich die einzige konkrete Anwendung dieser Technologie in Kroatien, die zu Schäden oder zur Gefährdung von Menschenleben führen könnte, auf autonome Fahrzeuge oder Robotaxis. Unter dem Namen Verne werden sie von der Firma P3M, die Mate Rimac gehört, entwickelt, und der erste Prototyp wurde im März dieses Jahres der Öffentlichkeit vorgestellt. Wahrscheinlich aufgrund der Tatsache, dass die Entwicklung von Robotaxis mit 180 Millionen Euro öffentlichen Geldern finanziert wird, sehen sie bei Verne den Vorschlag zur strafrechtlichen Haftung versöhnlich. Sie geben an, sich des Vorschlags für Änderungen des Strafgesetzbuches bewusst zu sein und mit allen relevanten Institutionen in Kontakt zu stehen.

Das Hauptziel ist es, einen regulatorischen Rahmen zu schaffen, der die Entwicklung und Erprobung zukünftiger Technologien fördert. Frühere Änderungen einer Reihe von Gesetzen, wie dem Gesetz über die Verkehrssicherheit, dem Gesetz über den Straßenverkehr, dem Gesetz über die obligatorische Versicherung im Verkehr und verwandten untergeordneten Vorschriften, haben Kroatien bereits als einen der globalen Führer bei der Definition des Rahmens für autonomes Fahren positioniert – kommentieren sie kurz von Verne.

Ein bekanntes Sprichwort besagt, dass Gefängnisse voller unschuldiger Menschen sind. In Kroatien könnten Programmierer sich jetzt unter ihnen befinden.

Markiert: