Prof. Dr. Nicola Marsden


Hochschule Heilbronn

Bei künstlicher Intelligenz geht es um das eigenständige „intelligente“ Lernen von Maschinen. Computer treffen Entscheidungen auf Grund der Analyse großer Datenmengen. Man könnte meinen, das führe zu faktenbasierten, neutralen Ergebnissen. Ist das so, Frau Prof. Dr. Marsden?

Prof. Dr. Nicola Marsden: Große Datenmengen sind kein Garant für vollständige Daten. Wir sehen, dass KI-Systeme keine neutralen Ergebnisse produzieren: Frauen werden auf Jobplattformen schlechter bewertet als Männer. Ihre Krankheiten werden mit KI-gestützter Diagnose weniger gut diagnostiziert. Die Übertragung ihrer Stimme über Videokonferenzsysteme lässt sie weniger kompetent erscheinen. Ihnen werden auf Karriereplattformen weniger technische Jobs angeboten. Dies hat reelle Konsequenzen für das Leben von Menschen. Es werden Ausschlüsse produziert und es werden Stereotype und Vorurteile, die ohnehin schon in unserer Gesellschaft vorhanden sind, noch weiter verstärkt.

Künstliche Intelligenz im Sinne des maschinellen Lernens bezeichnet den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden. Kann KI daher nur so diskriminierungsfrei sein, wie die Menschen, die sie programmiert haben?

Prof. Dr. Nicola Marsden: Ja, definitiv. Dabei geht es zum einen um die Datengrundlage, zum anderen um den Entwicklungsprozess von KI-Anwendungen. Beides spielt zusammen und verstärkt sich gegenseitig: Einem homogenen Team fallen Datenlücken, fehlende Funktionalitäten oder falsche Ergebnisse weniger auf als einem diversen Team.

Aber Fairness stellt sich auch mit Diversität nicht automatisch ein: Es braucht ethische Rahmensetzungen, konkrete Prozesse und Transparenz. Gerade Transparenz ist schwierig, aber nötig: Wenn wir Lebensmittel kaufen, würden wir auch nicht akzeptieren, wenn auf der Packung steht: „Was drin ist, können nicht so genau sagen.“ Warum sollten wir das bei KI-Systemen tun?

Ist es nicht ein unauflösbarer Konflikt, dass bei Künstlicher Intelligenz zwar Technologie von morgen zum Einsatz kommt, diese aber Daten von gestern auswertet?

Prof. Dr. Nicola Marsden: Ein Problem entsteht vor allem dann, wenn wir auf Basis der Daten von gestern existierende Ausschlusssysteme manifestieren und starre Kategoriesysteme beibehalten. Aber das muss nicht sein: KI-Systeme erweitern unsere Möglichkeit, aus den Daten von gestern zu lernen und bessere Entscheidungen zu treffen. Wir alle „können“ durch KI mehr. Darin liegen Chancen für die Gestaltung der Welt von morgen, aber auch Risiken, wenn wir die Datenbasis oder die Deutungshoheit nicht in der Hand haben. Deshalb ist Zugang, Teilhabe und Fairness so wichtig.

Jeder kennt Siri und Alexa. Wieso ist die Frauenquote bei Assistenzprogrammen so viel höher als in der IT-Branche bzw. der vorgeschalteten IT-Ausbildung? Welche Maßnahmen sollten aus Ihrer Sicht ergriffen werden, um die Wahrscheinlichkeit von Diskriminierung durch KI-Systeme so niedrig wie möglich zu halten? Bietet die UNESCO-KI-Ethik-Empfehlung diesbezüglich hilfreiche Ansatzpunkte?

Prof. Dr. Nicola Marsden: Virtuelle Assistenzsysteme wie beispielsweise Siri, Alexa und Cortana sind ein sehr offensichtliches Beispiel für die Ein- und Fortschreibung tradierter patriarchaler Geschlechterrollen in und durch KI. Assistenzprogramme versuchen, einen möglichst natürlichen Dialog zu führen. Aufgrund unserer gesellschaftlichen Prägungen erleben wir aber stereotypes Verhalten oft als besonders authentisch, und die Systeme werden an solche vergeschlechtlichten Vorstellungen angepasst. Assistenzprogramme haben meist eine weibliche Stimme, Finanzberatungsprogramme häufiger eine männliche: Die freundliche, unterstützende Assistentin oder der kompetente, vertrauenseinflößende Finanzberater erscheinen uns als stimmig – verstärken aber einmal mehr heteronormative Vorstellungen und in Folge auch sexistisches Verhalten.

Die KI-Ethik-Empfehlung der UNESCO adressiert die Punkte, auf die es ankommt, um gegen diskriminierende KI-Systeme vorzugehen. Die Konkretisierung der Deutschen UNESCO-Kommission zu den Bedingungen zur Implementierung in Deutschland zeigt auf, wo bei den auf EU-Ebene und national auf den Weg gebrachten Standards noch weiterer Handlungsbedarf liegt, um negative Effekt abzumildern oder KI sogar zu nutzen, um Geschlechterstereotype zu überwinden.

Das Interview wurde im Januar 2023 für das Jahrbuch der Deutschen UNESCO-KommissionExterner Link: (erschienen im Juni 2023) schriftlich geführt.

Künstliche Intelligenz für mehr Geschlechtergerechtigkeit und gegen Diskriminierung - Handlungsansätze für die Politik

Eingangsbereich Deutsche UNESCO-Kommission mit Logo
Interview |

Künstliche Intelligenz - wo steht der Globale Süden?

Die UNESCO-Empfehlung zur Ethik Künstlicher Intelligenz (KI) ist der erste global verhandelte Völkerrechtstext in diesem wichtigen Zukunftsfeld. Einen…

Alle Interviews