Home / Geschäft und Politik / Europäisches KI-Gesetz bis Ende des Jahres: Soziale Bewertung wird verboten

Europäisches KI-Gesetz bis Ende des Jahres: Soziale Bewertung wird verboten

<p>ai dionice</p>
ai dionice / Image by: foto

Die Europäische Kommission und das Europäische Parlament planen, das KI-Gesetz, das Gesetz über Künstliche Intelligenz – KI (Künstliche Intelligenz) bis Ende des Jahres zu veröffentlichen. Obwohl noch nicht ganz klar ist, was dieses Gesetz enthalten wird und wie es den Bereich der Künstlichen Intelligenz regulieren wird, ist bekannt, dass die Kommission in keinem Fall soziale Bewertungen oder social scoring durch irgendeine Regierung auf dem Gebiet der Europäischen Union zulassen wird, ähnlich wie es in China der Fall ist.

Was bekannt ist, ist, dass das Gesetz sich in erster Linie auf die Stärkung der Regeln bezüglich Datenqualität, Transparenz, menschlicher Aufsicht und Verantwortlichkeit konzentrieren wird. Es wird auch ethische Fragen und Implementierungsherausforderungen in verschiedenen Sektoren ansprechen, von Gesundheitswesen und Bildung bis hin zu Finanzen und Energie. Der Gesetzesvorschlag zielt auch darauf ab, die Position Europas als globales Zentrum für Exzellenz in der KI von Labor bis Markt zu stärken und sicherzustellen, dass KI in Europa europäische Werte und Regeln respektiert und das Potenzial der KI für industrielle Anwendungen nutzt.

Klassifizierungssysteme

Das Hauptgerüst des KI-Gesetzes wird ein Klassifizierungssystem sein, das das Risiko bestimmt, das Technologien der Künstlichen Intelligenz für die Gesundheit und Sicherheit oder die Grundrechte von Individuen darstellen können. Der Rahmen umfasst vier Risikostufen: inakzeptabel, hoch, begrenzt und minimal. Künstliche Intelligenzsysteme mit begrenztem und minimalem Risiko, wie Spam-Filter oder Videospiele, können mit geringeren Anforderungen verwendet werden, abgesehen von Transparenzpflichten. Systeme, die als inakzeptabel riskant gelten – wie staatliche soziale Bewertungen und Systeme zur biometrischen Identifizierung in Echtzeit in öffentlichen Räumen – werden mit einer kleinen Ausnahme verboten. Hochriskante Künstliche Intelligenzsysteme sind erlaubt, aber Entwickler und Nutzer müssen Vorschriften einhalten, die strenge Tests, angemessene Dokumentation der Datenqualität und einen Verantwortungsrahmen erfordern, der die menschliche Aufsicht detailliert beschreibt. Andernfalls umfasst Künstliche Intelligenz, die als hochriskant gilt, autonome Fahrzeuge, medizinische Geräte und kritische Infrastrukturmaschinen.

Präzedenzfall und globaler Standard

Dies wird ein Präzedenzfall sein, da kein Staat bisher versucht hat, Künstliche Intelligenz zu regulieren. Das Europäische KI-Gesetz könnte, hofft die Kommission, ein globaler Standard werden, der bestimmen wird, inwieweit Künstliche Intelligenz einen positiven oder negativen Einfluss auf unser Leben hat, wo auch immer wir sind.

– Unternehmen, die Technologien auf Basis von Künstlicher Intelligenz entwickeln, bitten uns förmlich, diese Aktivität zu regulieren, damit sie wissen, in welche Richtung sie sich entwickeln können – betont die Kommission, sich der Gefahren, die KI-Technologie darstellen kann, wenn sie in die falschen Hände gerät, voll bewusst.

Bußgelder von bis zu 30 Millionen Euro

Es ist jedoch noch unklar, wie und in welcher Weise Strafen für Unternehmen, die nicht den europäischen rechtlichen Lösungen bezüglich der Nutzung von KI-Technologien entsprechen, festgelegt werden würden, und eine der wahrscheinlichsten Optionen sind hohe Geldstrafen in Form von mehreren Prozenten des Jahresumsatzes. Für Unternehmen können die Strafen bis zu 30 Millionen Euro oder sechs Prozent des gesamten globalen Umsatzes erreichen. Das Einreichen falscher oder irreführender Dokumentationen bei den Aufsichtsbehörden kann ebenfalls zu Strafen führen. Ob dies ausreichend sein wird, ist selbst für EU-Bürokraten ungewiss.

– Wir befinden uns auf unerforschten Territorien – erklärt die Kommission.

Das vorgeschlagene Gesetz zielt auch darauf ab, ein Europäisches Gremium für Künstliche Intelligenz einzurichten, das die Umsetzung der Verordnung überwachen und eine einheitliche Anwendung in der gesamten EU sicherstellen würde. Das Gremium wäre damit beauftragt, Stellungnahmen und Empfehlungen zu aufkommenden Fragen zu veröffentlichen sowie den nationalen Behörden Leitlinien zu geben.

All dies geschieht im Gefolge des italienischen Verbots von Chat GPT. Nämlich hat die italienische Datenschutzbehörde den Chatbot des amerikanischen Unternehmens Open AI vorübergehend verboten, weil er angeblich Benutzer Daten unangemessen verwendet hat.

Markiert: