Das EU-Parlament gibt grünes Licht für schärfere Regeln für Künstliche Intelligenz (KI) in der Europäischen Union. Die Parlamentarier stimmten am Mittwoch in Straßburg mehrheitlich für das Gesetz. In Brüssel gilt das Regelwerk als "historisch", Wirtschaftsverbände befürchten, dass europäische Startups dadurch nicht mehr mit der Konkurrenz aus den USA oder China mithalten können.
Ob in der Videoüberwachung, Spracherkennung oder bei der Auswertung von Finanzdaten: Für den Einsatz von Künstlicher Intelligenz (KI) bekommt die Europäische Union ein einheitliches Regelwerk, das abhängig von Risikokriterien Vorschriften für die Nutzung aufstellt und bestimmte Anwendungen verbietet. Das Europaparlament hat das KI-Gesetz am Mittwoch abgesegnet.
Worum geht es bei dem Gesetz?
Das Gesetz zielt darauf ab, die Nutzung von Künstlicher Intelligenz (KI) in der Europäischen Union sicherer zu machen. Es soll sicherstellen, dass KI-Systeme transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Ein wichtiger Aspekt ist, dass die KI-Systeme von Menschen überwacht werden und nicht nur von anderen Technologien.
Die Umsetzung geht auf einen Vorschlag der EU-Kommission von 2021 zurück. Demnach sollen KI-Systeme künftig in verschiedene Risikogruppen eingeteilt werden. Je höher die potenziellen Gefahren einer Anwendung sind, desto höher sollen die Anforderungen sein. KI, die zur Manipulation des menschlichen Verhaltens eingesetzt wird, wird demnach in Europa verboten.
Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht.
Wo wird der Einsatz von KI verboten?
Verboten sind künftig KI-Systeme, die Menschen nach Kriterien wie ihren politischen und religiösen Ansichten, ihrer sexuellen Orientierung oder der Hautfarbe in Gruppen einteilen. Außerdem werden in China bereits übliche sogenannte Sozialkredit-Systeme verboten, die auf das Verhalten oder persönliche Eigenschaften abzielen.
Unternehmen dürfen KI nicht einsetzen, um die Gefühle ihrer Beschäftigten zu erfassen. Die Technologie darf zudem nicht genutzt werden, um Menschen gegen ihren Willen zu beeinflussen. Betroffene dürfen durch die Nutzung zudem nicht etwa wegen ihres Alters, einer Behinderung oder ihrer finanziellen Situation benachteiligt werden.
Was gilt für Gesichtserkennungs-Technologien?
Die Polizei und andere Sicherheitsbehörden dürfen die KI-gesteuerte Gesichtserkennung an öffentlichen Orten nutzen, wenn eine richterliche Anordnung vorliegt. Solche Systeme wurden in Deutschland bereits etwa am Berliner Bahnhof Südkreuz getestet.
Bei aufgezeichnetem Videomaterial darf die Technologie für die Fahndung nach Verurteilten oder Verdächtigten schwerer Straftaten verwendet werden. Verfolgen die Beamten das Videomaterial in Echtzeit, sind KI-Systeme auch für die Suche nach Opfern von Menschenhandel und sexueller Gewalt erlaubt. Außerdem dürfen sie die Gesichtserkennung zur "Verhinderung einer konkreten und akuten Terrorgefahr" nutzen.
Welche Anwendungen gelten als "hohes Risiko"?
Für die Nutzung von Künstlicher Intelligenz in Sicherheitsbehörden stellt das Gesetz grundsätzlich ein "hohes Risiko" für Menschenrechtsverletzungen fest. Das gleiche gilt für Anwendungen bei kritischer Infrastruktur und in der Personalverwaltung. Zu den sogenannten Hochrisiko-Anwendungen gehören zudem Systeme, die Wahlen beeinflussen können.
In diesen Fällen soll deshalb in letzter Instanz ein Mensch die Kontrolle über die Entscheidungen der KI haben. Zudem schreibt das Gesetz eine technische Dokumentation und ein System zum Risikomanagement vor. Betroffene sollen bei den Behörden Beschwerde gegen die Nutzung der KI einreichen können.
Wie wird die Qualität der Systeme sichergestellt?
Entwicklerinnen und Entwickler müssen künftig klar kennzeichnen, wenn Texte, Bilder oder Videos auf Künstlicher Intelligenz beruhen. Das gilt auch für Beiträge in Online-Plattformen wie Facebook, Instagram oder X. In der Praxis ist das Fachleuten zufolge jedoch schwierig zu überprüfen.
Neue Systeme sollen mit ausgewogenen Datensätzen entwickelt und trainiert werden. Die Behörden sollen KI-Startups deshalb Zugang zu realen Testbedingungen ermöglichen, bevor eine Anwendung auf den Markt kommt. Das Gesetz soll zudem dafür sorgen, dass dabei keine Urheberrechte verletzt werden.
Was befürchtet die Industrie?
Industrieverbände befürchten, dass die neuen Regeln für zu hohe Hürden bei der Entwicklung neuer KI-Anwendungen sorgen. Europäische Unternehmen könnten dadurch Nachteile im Wettbewerb mit der Konkurrenz aus den USA und aus China haben, warnte etwa der Bundesverband der Deutschen Industrie.
Mehrere europäische Regierungen fürchteten etwa um den Fortschritt von Startups wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich. Die Verhandlungen über das Gesetz dauerten deshalb fast drei Jahre.
Welche Strafen drohen den Unternehmen?
Bei Verstößen gegen das KI-Gesetz drohen Strafen in Millionenhöhe. Für den Einsatz einer verbotenen Technologie kann die EU-Kommission Zahlungen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatz eines Unternehmens verlangen. Wer gegen andere Bestimmungen des Gesetzes verstößt, muss mit Strafen in Höhe von bis zu 15 Millionen Euro oder drei Prozent des Jahresumsatzes rechnen.
Die neuen Regeln gelten allerdings erst ab dem Frühjahr 2026. Bis dahin setzt die Kommission auf freiwillige Absprachen mit den Unternehmen. Kritiker befürchten allerdings, dass die EU-Vorgaben in zwei Jahren bereits wieder veraltet sein könnten. (afp/dpa/phs)
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.