Am Mittwoch haben die Mitglieder des Europäischen Parlaments das Gesetz über künstliche Intelligenz genehmigt, das die Sicherheit und den Schutz der Grundrechte gewährleistet und gleichzeitig Innovationen fördert. Die Verordnung, die während der Verhandlungen mit den Mitgliedstaaten im Dezember 2023 vereinbart wurde, wurde mit 523 Stimmen dafür, 46 dagegen und 49 Enthaltungen angenommen. Ziel ist es, die Menschenrechte, die Demokratie, den Rechtsstaat und die ökologische Nachhaltigkeit vor hochriskanter künstlicher Intelligenz zu schützen und gleichzeitig Innovationen zu fördern und Europas Rolle als Führer auf diesem Gebiet zu sichern. Die Regeln für künstliche Intelligenz werden auf der Grundlage ihrer potenziellen Risiken und Auswirkungen festgelegt.
Die neuen Regeln verbieten bestimmte Anwendungen von künstlicher Intelligenz, die die Rechte der Bürger bedrohen, einschließlich Systeme zur biometrischen Kategorisierung basierend auf sensiblen Merkmalen und die willkürliche Erfassung von Gesichtsaufnahmen aus dem Internet oder Überwachungsaufnahmen zur Erstellung von Erkennungsdatenbanken. Es verbietet auch die Emotionserkennung am Arbeitsplatz und in Schulen, die soziale Bewertung von Bürgern, prädiktive Polizeiarbeit (wenn sie ausschließlich auf der Profilierung von Personen oder der Bewertung ihrer Merkmale basiert) und künstliche Intelligenz, die das menschliche Verhalten beeinflusst oder die Verwundbarkeiten von Individuen ausnutzt.
Die Verwendung von Fernbiometrie-Identifikationssystemen zur Strafverfolgung ist im Allgemeinen verboten, es sei denn, es liegen Umstände vor, die erschöpfend aufgelistet und genau definiert sind. Die Echtzeit-Fernbiometrie-Identifikation darf nur verwendet werden, wenn strenge Anforderungen erfüllt sind, z. B. wenn ihre Nutzung zeitlich und geografisch begrenzt ist und eine spezielle gerichtliche oder administrative Genehmigung zuvor erteilt wurde. Einige Beispiele für solche Umstände sind gezielte Suchaktionen nach vermissten Personen oder die Verhinderung von Terroranschlägen. Die nachfolgende Nutzung von Fernbiometrie-Identifikationssystemen wird als hochriskante Nutzung betrachtet und erfordert eine gerichtliche Genehmigung im Zusammenhang mit einer Straftat.
Klare Verpflichtungen sind auch für andere hochriskante Systeme der künstlichen Intelligenz vorgesehen (aufgrund ihres erheblichen Potenzials, Gesundheit, Sicherheit, Grundrechte, die Umwelt, Demokratie und den Rechtsstaat zu gefährden). Hochriskante künstliche Intelligenz wird unter anderem für kritische Infrastrukturen, Bildung und Ausbildung, Beschäftigung, wichtige private und öffentliche Dienstleistungen (z. B. Gesundheitswesen, Banken), bestimmte Systeme innerhalb der Strafverfolgung, Migration und Grenzmanagement, Justiz und demokratische Prozesse (z. B. Einflussnahme auf Wahlen) eingesetzt. Für solche Systeme müssen Risikobewertung und -minderung, Dokumentation der Nutzung, Transparenz und Genauigkeit sowie menschliche Aufsicht sichergestellt werden. Bürger haben das Recht, Klagen im Zusammenhang mit künstlicher Intelligenz einzureichen und Erklärungen für Entscheidungen zu erhalten, die auf hochriskanten Systemen der künstlichen Intelligenz basieren und ihre Rechte betreffen.
Allgemeine Systeme der künstlichen Intelligenz und die Modelle, auf denen sie basieren, müssen bestimmte Transparenzkriterien erfüllen, einschließlich der Einhaltung des EU-Urheberrechts und der Veröffentlichung detaillierter Zusammenfassungen des Inhalts, der für das Training verwendet wurde. Leistungsstärkere allgemeine Systeme der künstlichen Intelligenz, die systemische Risiken darstellen könnten, unterliegen zusätzlichen Anforderungen, einschließlich Modellbewertung, Risikobewertung und -minderung sowie Vorfallberichterstattung. Darüber hinaus müssen künstlich erstellte oder manipulierte Audioinhalte, Fotografien und Videoinhalte (Deepfakes) klar als solche gekennzeichnet werden.
