Hausarbeiten schreiben, Diagnosen zu Hautkrebs stellen, Prognosen für Versicherungen abgeben oder bei der Auswahl von Jobbewerbern helfen – all das kann Künstliche Intelligenz. Beim Einsatz von KI gibt es Vor-, aber auch einige Nachteile. Zum Verhältnis von Mensch und Maschine hat der Ethikrat am Montag eine Stellungnahme vorgestellt. KI dürfe den Menschen nicht ersetzen, so das Fazit der Wissenschaftler und Wissenschaftlerinnen. Konkrete Vorgaben werden dabei nicht gemacht, denn: "Der Teufel steckt im Detail."
"Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen." Das seien grundlegende Regeln für eine ethische Bewertung, sagte
Die Stellungnahme trägt den Titel "Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz" und wurde von einer Arbeitsgruppe in den vergangenen beiden Jahren erarbeitet. Auf beinahe 290 Seiten werden vier Anwendungsbereiche beleuchtet:
- Medizin
- Bildung
- öffentliche Kommunikation und Meinungsbildung
- Verwaltung
KI muss immer im Kontext betrachtet werden
Die Leitfrage dabei war, ob menschliche Autorenschaft und die Bedingungen für verantwortliches Handeln durch den Einsatz von KI erweitert oder vermindert werden. Dabei habe sich gezeigt, dass die Beurteilung von KI immer kontext-, anwendungs- und personenspezifisch erfolgen müsse.
"Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben", sagte Judith Simon, die Sprecherin der Arbeitsgruppe. "Der Teufel steckt im Detail, jede Anwendung muss individuell bewertet werden."
Vorhersagen zu Brust- und Prostatakrebs oder über die Ausbreitung eines Virus - für die Medizin etwa empfiehlt der Ethikrat, auf die Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten zu achten. Auch sollten Ärzte und Ärztinnen ihre Kompetenzen nicht verlieren und die Privatsphäre von Patientinnen und Patienten sollte mit intensiver Datennutzung in der medizinischen Forschung in Einklang gebracht werden. Ein vollständiger Ersatz von Ärztinnen und Ärzten "gefährdet das Patientenwohl", sagte Buyx und sei auch nicht durch den akuten Personalmangel zu rechtfertigen.
Lesen Sie auch: Hochumstrittene Debatte um Verbrechensvorhersage: Ethikrat bezieht Stellung
Verzerrte Trainingsdaten können Ungerechtigkeiten verfestigen
Problematisiert wurde auch das Verfestigen von bestehenden Ungerechtigkeiten aufgrund von verzerrten Trainingsdaten. Das sei etwa für die Diagnostik von Hautkrebs der Fall, wenn diese primär mit weißen Probanden und Probandinnen getestet wurde. Dunklere Haut werde dann ungenauer erkannt.
"Wir können die Daten ausgewogener auswählen, die Methode verbessern oder am Ende darauf hinweisen, dass die Daten auf eine bestimmte Population beschränkt waren und deswegen die Aussagen für andere Personengruppen eher beschränkt sind", erklärte Buyx mögliche Verbesserungen.
Der Einsatz von KI in der schulischen Bildung sollte "nicht durch technologische Visionen gesteuert werden", sondern sich auf die Erweiterung von Kompetenzen und sozialen Interaktionen der Lernenden konzentrieren. Auch solle für Schulaufgaben nicht nur noch ChatGPT benutzt werden. Beim Vokabellernen oder in der Arithmetik könnten hingegen KI-Tools Lehrkräfte ersetzen, sagte Julian Nida-Rümelin, stellvertretender Vorsitzender des Ethikrates. Die Beziehung zwischen Schülern, Schülerinnen und Lehrkräften dürfe darunter aber nicht leiden.
Ebenso dürfe die Datenerfassung in Schulen nicht zur Überwachung und Stigmatisierung Einzelner führen. Bei der Videoüberwachung in Klassenzimmern sei sich der Rat uneins gewesen. "Die einen sehen die Chancen einer verbesserten, zukünftigen Technologie. Die anderen lehnen Dinge wie Emotionserkennung kategorisch ab", erklärte Nida-Rümelin.
Außerdem fordert der Ethikrat einen besseren Zugang auf Plattformdaten für die Forschung und empfiehlt, eine digitale Kommunikationsinfrastruktur in öffentlich-rechtlicher Verantwortung aufzubauen. Um das Feld der Kommunikation nicht Twitter und Co. allein mit ihrer "Aufmerksamkeitsökonomie" zu überlassen.
"KI-Ethiks – Made in Europe"
"Es gibt weltweit eine Handvoll Plattformbetreiber, die eine Art Monopolstellung in der digitalen Infrastruktur haben – und alle nicht aus Europa stammen", so Nida-Rümelin. Das schaffe Abhängigkeiten und bedenkliche Entwicklungen. Dass die USA und China in der KI-Entwicklung viel weiter sind, sehen die Wissenschaftler und Wissenschaftlerinnen nicht als Maßstab. "Die Beschaffung der Daten passiert oft in Ländern des globalen Südens, unter sehr prekären Arbeitsbedingungen", fügte Buyx hinzu.
Man sollte die europäischen Standards deswegen nicht absenken, um mithalten zu können. "Es braucht europäische Lösungen für ethische Überlegungen und Wertvorstellungen, insbesondere in der digitalen Kommunikation und der öffentlichen Meinungsbildung: 'KI-Ethiks – Made in Europe'." Der öffentliche Austausch brauche weder "eine von Ängsten getriebene Debatte noch einen Hype".
Keine Empfehlung für Gesetze
Für den KI-Einsatz in der Verwaltung rät der Ethikrat zu Ansätzen, die vor Diskriminierung schützen und "dem blinden Befolgen maschineller Empfehlungen vorbeugen". Hingewiesen wird dabei etwa auf die Prüfung von Sozialleistungen in anderen europäischen Ländern. Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen müssten dabei gewährleistet werden.
Ein und dieselbe Technik führe dazu, dass menschliche Handlungsmöglichkeiten erweitert und vermindert werden könnten. "Wenn ich im Personalbereich eine Software einsetze, die Bewerber vorsortiert, dann kann es für den Personaler eine zeitliche Entlastung und für den aussortierten Bewerber eine Benachteiligung bedeuten", sagte die Sprecherin der Arbeitsgruppe, Judith Simon. So könne der Einsatz einer Technologie unterschiedliche Effekte für die Beteiligten bedeuten.
Konkrete gesetzgeberische Empfehlungen macht die Stellungnahme nicht – eher liefert sie Leitlinien. Buyx verwies aber auf die laufenden Beratungen zu einem europäischen KI-Gesetz.