Nach langwierigen Verhandlungen haben sich das Europäische Parlament, der Rat der Europäische Union und die Europäische Kommission auf einen Kompromiss zum sogenannten EU-AI-Act vereinbart. Dieser soll den Umgang mit Künstlicher Intelligenz (KI) regeln, wobei KI-Anwendungen in unterschiedliche Risikoklassen unterteilt und je nach Risiko reguliert werden sollen. Dennoch wird der Abschluss des formellen Beschlusses erst im kommenden Jahr erwartet.
KI-Anwendungen werden in Risikoklassen unterteilt
Die EU hat bekannt gegeben, dass KI-gesteuerte Anwendungen wie Empfehlungssysteme oder Spamfilter aufgrund ihres minimalen oder nicht vorhandenen Risikos für die Rechte oder Sicherheit der Bürger nicht reguliert werden sollen. Im Gegensatz dazu müssen KI-Systeme, die als risikoreich eingestuft sind, strenge Anforderungen erfüllen. Dazu gehören Risikominderungssysteme, eine hohe Qualität der Datensätze, Protokollierung von Aktivitäten, detaillierte Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Niveau von Robustheit, Genauigkeit und Cybersicherheit.
Hohe Risiken bei bestimmten Anwendungsgebieten
Beispiele für KI-Systeme mit hohem Risiko sind bestimmte kritische Infrastrukturen wie Wasser-, Gas- und Stromnetzwerke, medizinische Geräte, Zugangsprüfungssysteme für Bildungseinrichtungen oder Rekrutierungsprozesse, sowie bestimmte Systeme in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse. Biometrische Identifikations-, Kategorisierungs- und Emotionserkennungssysteme werden ebenfalls als risikoreich eingestuft.
KI-Systeme mit „inakzeptablem Risiko“
Die EU möchte zudem KI-Systeme definieren und verbieten, die ein „inakzeptables Risiko“ darstellen und eine klare Bedrohung für die Grundrechte der Menschen sind, darunter Spielzeuge mit Sprachunterstützung, die gefährliches Verhalten von Minderjährigen fördern und Systeme, die „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen. Einige Anwendungen biometrischer Systeme sollen ebenfalls verboten werden.
Transparenz für Nutzer
Nutzer müssen zukünftig klar erkennen können, dass sie mit einem KI-System wie einem Chatbot interagieren. So genannte „Deep Fakes“ und andere KI-generierte Inhalte müssen als solche gekennzeichnet sein, und Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Anbieter müssen zudem ihre Systeme so gestalten, dass synthetische Inhalte als künstlich erzeugt oder manipuliert erkennbar sind.
Kritik an der Einigung
Trotz der Einigung zum EU-AI-Act gibt es Kritiker. Bernhard Rohleder, Chef des Digitalverbandes Bitkom, bezeichnete die Einigung als „politischen Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft“. Er argumentierte, dass der Kompromiss bei der Regulierung generativer KI über das Ziel hinausschieße und zu tief in die Technologie eingreife. Das Risiko sei groß, dass europäische Unternehmen „durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können“.
✨ durch KI bearbeitet, .