Berlins Antidiskriminierungsbeauftragte, Ferda Ataman, warnt vor potenzieller Diskriminierung durch die zunehmende Nutzung von Künstlicher Intelligenz (KI) zur Entscheidungsfindung bei öffentlichen und privaten Stellen.
Warnung vor digitaler Diskriminierung
Ataman fordert die Bundesregierung auf, die anstehende Reform des Allgemeinen Gleichbehandlungsgesetzes zu nutzen, um gegen digitale Diskriminierung vorzugehen. “Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter – leider auch Diskriminierung. Wir dürfen die Gefahren digitaler Diskriminierung auf keinen Fall unterschätzen”, sagte Ataman den Zeitungen der Funke-Mediengruppe.
Künstliche Intelligenz in Alltag und Arbeitswelt
Automatisierte Systeme und KI beeinflussen immer mehr wichtige Aspekte des Alltags, von Bewerbungsverfahren und Bankkrediten bis hin zu Versicherungen und staatlichen Leistungen. “Menschen müssen darauf vertrauen können, dass sie durch KI nicht benachteiligt werden – und sich wehren können, wenn es doch passiert”, betonte Ataman. Angesichts dieser Realität sei es dringend erforderlich, “klare und nachvollziehbare Regeln” für die Nutzung von KI zu erstellen.
Internationale Beispiele für KI-Diskriminierung
Als beunruhigende Beispiele führte Ataman Fälle aus den USA und den Niederlanden an: In den USA hatten fehlerhafte Algorithmen Frauen bei der Vergabe von Apple-Kreditkarten systematisch benachteiligt. In den Niederlanden hatte ein diskriminierender Algorithmus Menschen mit doppelter Staatsbürgerschaft im Rahmen der “Kindergeld-Affäre” 2021 benachteiligt und zum Rücktritt der Regierung geführt.
Rechtsgutachten offenbart Lücken
Ataman verwies auch auf ein von ihr in Auftrag gegebenes Rechtsgutachten, das “große Lücken” im deutschen Recht aufzeigt. Das Gutachten “Automatisch benachteiligt” warnt vor der Fehleranfälligkeit algorithmischer Entscheidungssysteme und ihrem “unumstrittenen Diskriminierungspotenzial”. Es beschreibt das Allgemeine Gleichbehandlungsgesetz als “nur bedingt gewachsen” den Herausforderungen und ruft zu umfassenden Untersuchungsrechten, einer breiteren Anwendung des Antidiskriminierungsgesetzes und einer Schlichtungsstelle auf. Es warnt insbesondere vor “Diskriminierung durch Statistik”, die durch die Weitergabe und Verwendung diskriminierender Datensätze ermöglicht wird, und vor dem mangelnden Verständnis von Nutzern und Betroffenen über die Datenqualität und das inhärente Diskriminierungspotenzial des Systems.