Die Europäische Kommission und das Europäische Parlament planen, das KI-Gesetz, das Gesetz über Künstliche Intelligenz – KI (Künstliche Intelligenz) bis Ende des Jahres zu veröffentlichen. Obwohl noch nicht ganz klar ist, was dieses Gesetz enthalten wird und wie es den Bereich der Künstlichen Intelligenz regulieren wird, ist bekannt, dass die Kommission in keinem Fall soziale Bewertungen oder social scoring durch irgendeine Regierung auf dem Gebiet der Europäischen Union zulassen wird, ähnlich wie es in China der Fall ist.
Was bekannt ist, ist, dass das Gesetz sich in erster Linie auf die Stärkung der Regeln bezüglich Datenqualität, Transparenz, menschlicher Aufsicht und Verantwortlichkeit konzentrieren wird. Es wird auch ethische Fragen und Implementierungsherausforderungen in verschiedenen Sektoren ansprechen, von Gesundheitswesen und Bildung bis hin zu Finanzen und Energie. Der Gesetzesvorschlag zielt auch darauf ab, die Position Europas als globales Zentrum für Exzellenz in der KI von Labor bis Markt zu stärken und sicherzustellen, dass KI in Europa europäische Werte und Regeln respektiert und das Potenzial der KI für industrielle Anwendungen nutzt.
Klassifizierungssysteme
Das Hauptgerüst des KI-Gesetzes wird ein Klassifizierungssystem sein, das das Risiko bestimmt, das Technologien der Künstlichen Intelligenz für die Gesundheit und Sicherheit oder die Grundrechte von Individuen darstellen können. Der Rahmen umfasst vier Risikostufen: inakzeptabel, hoch, begrenzt und minimal. Künstliche Intelligenzsysteme mit begrenztem und minimalem Risiko, wie Spam-Filter oder Videospiele, können mit geringeren Anforderungen verwendet werden, abgesehen von Transparenzpflichten. Systeme, die als inakzeptabel riskant gelten – wie staatliche soziale Bewertungen und Systeme zur biometrischen Identifizierung in Echtzeit in öffentlichen Räumen – werden mit einer kleinen Ausnahme verboten. Hochriskante Künstliche Intelligenzsysteme sind erlaubt, aber Entwickler und Nutzer müssen Vorschriften einhalten, die strenge Tests, angemessene Dokumentation der Datenqualität und einen Verantwortungsrahmen erfordern, der die menschliche Aufsicht detailliert beschreibt. Andernfalls umfasst Künstliche Intelligenz, die als hochriskant gilt, autonome Fahrzeuge, medizinische Geräte und kritische Infrastrukturmaschinen.
