Berlin (dts Nachrichtenagentur) – Der Deutsche Ethikrat spricht sich für klare Begrenzungen bei der Nutzung von Künstlicher Intelligenz (KI) aus. KI dürfe die „menschliche Entfaltung“ nicht vermindern, heißt es in einem Papier des Gremiums, welches am Montag veröffentlicht wurde.
Sie dürfe den Menschen nicht „ersetzen“, sagte Ethikrat-Chefin Alena Buyx. Das seien „grundlegende Regeln für die ethische Bewertung“. Der stellvertretende Vorsitzende des Ethikrats, Julian Nida-Rümelin, sagte unterdessen, dass KI-Anwendungen menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen könnten. Die Stellungnahme der Experten enthält Empfehlungen in den vier Anwendungsbereichen Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung. So richten sich die Empfehlungen zum Beispiel für den Medizinbereich auf die Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten, auf die Vermeidung ärztlicher Kompetenzverluste und auf das Ziel, die Privatsphäre von Patienten mit intensiver Datennutzung in der medizinischen Forschung in Einklang zu bringen. Der Einsatz von KI in der schulischen Bildung sollte nach den Empfehlungen des Ethikrates nicht durch technologische Visionen gesteuert werden, sondern sich an grundlegenden Bildungsvorstellungen orientieren und auf Elemente beschränken, die nachweislich die Kompetenzen und sozialen Interaktionen der Schüler erweitern, ihre Privatsphäre schützen und die Persönlichkeitsbildung fördern. Im Bereich der öffentlichen Kommunikation und Meinungsbildung empfiehlt der Ethikrat unter anderem Weiterentwicklungen der Regeln für Online-Plattformen hinsichtlich der Auswahl und Moderation von Inhalten sowie zu personalisierter Werbung und zum Datenhandel. Außerdem fordert er besseren Zugang auf Plattformdaten für die Forschung und empfiehlt, den Aufbau einer digitalen Kommunikationsinfrastruktur in öffentlich-rechtlicher Verantwortung zu erwägen.
Für den Einsatz von KI in der öffentlichen Verwaltung rät das Gremium zu Ansätzen, die vor Diskriminierungen schützen und dem blinden Befolgen maschineller Empfehlungen vorbeugen. Weiterhin wird in dem Papier gefordert, dass Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen gewährleistet werden. Bei der Anwendung von KI in der Arbeit von Gefahrenabwehrbehörden sollten gesellschaftliche Aushandlungsprozesse über ein angemessenes Verhältnis zwischen Risiken und Chancen solcher Ansätze geführt werden, so die Experten.
Foto: Computer-Nutzerin, über dts Nachrichtenagentur