Diskriminierung, Stereotype und Biases in der KI

Diskriminierung durch KI

Bei allem Potential stehen Künstliche Intelligenz und Algorithmen auch in der Kritik, dass sie nicht neutral sind, sondern die Absichten, Stereotype und unbewussten Vorurteile der Personen und Parteien reflektieren, die an der Entstehung und Implementierung der Technologie beteiligt sind.

Das ist problematisch, da sie so bestehende Diskriminierungen gegenüber bestimmten Personengruppen in der Gesellschaft verstärken. Ein viel diskutiertes Problem tritt bei der Gesichtserkennungssoftware auf. So zeigt Joy Boulamwini in ihrem TedX-Talk (Link befindet sich außerhalb von digital-mobil-im-alter.de) auf, wie KI-basierte Gesichtserkennungssoftware nicht die Gesichter von schwarzen Frauen erkennt, wohl aber die von weißen Männern.

Der aus dem Englischen stammende Begriff Bias bedeutet im Deutschen so viel wie Verzerrung, Vorurteil oder Befangenheit. Im Bereich der KI-Entwicklung erweisen sich solche Biases als problematisch, wenn es durch die Grundannahmen derer, die am Entwicklungsprozess beteiligt sind, z.B. zu Diskriminierungen kommt. So können KI-Algorithmen, die im Personalwesen, in der Bonitätsprüfung oder im Bereich der Kriminalprävention eingesetzt werden, nicht nur zur Benachteiligung, sondern auch zur Verstärkung rassistischer Stereotype führen.

Mehr zum Thema: Biases in Künstlicher Intelligenz (KI) - Anti-Bias

Zu solchen Diskriminierungen kann es kommen, wenn die Entwicklerteams nicht ausreichend divers sind. So sind in der IT-Branche überdurchschnittlich viele weiße Männer vertreten. Wenn also die Entwicklerteams eine neue Software entwickeln, kann es mitunter vorkommen, dass bestimmte Merkmale nicht berücksichtigt oder vergessen werden. Aber auch wenn die KI mit Datensätzen trainiert wird, die nicht ausreichend divers sind, kann dies zu Diskriminierungen führen. Um KI möglichst fair zu gestalten, braucht es also auch eine bewusste Auswahl an Datensätzen und die Überprüfung, ob die Daten rassistisch oder sexistisch sortiert sind.

Darstellung von Alter mit Midjourney

Erkennen Sie sich wieder? Je nachdem, mit welchen Datensätzen KI gefüttert wird, besteht die Gefahr, dass sie Stereotype reproduziert - wie in diesen Beispielen, die eine Frau bzw. einen Mann im Alter von 60 Jahren zeigen sollen. Die Frauen werden hier betont jugendlich, schön und geschminkt gezeigt, die Männer hingegen bärtig, faltig und gezeichnet vom Leben.

Midjourney, Antwort auf den Befehl (Prompt) “Zeige eine Frau im Alter von 60 Jahren” vom 26.09.2023, discord.com @Midjourney Bot

Midjourney, Antwort auf den Befehl (Prompt) “Zeige einen Mann im Alter von 60 Jahren” vom 26.09.2023, discord.com @Midjourney Bot

Wie diskriminierend Algorithmen sind

In dieser Folge der ZDF-Serie „Digital Empire“ sprechen Expert*innen und Betroffene über Diskriminierung durch Künstliche Intelligenz. Dabei geht es um Verzerrungen in Datensätzen, unethische Technik, fehlende Diversität in der IT-Branche und um die Verantwortung von Wirtschaft und Politik, für Fairness und Gerechtigkeit in der digitalen Welt zu sorgen.

Weitere Informationen dazu, warum KI nicht frei von Vorurteilen ist, finden Sie in diesem Beitrag von der Tagesschau.

 

Hinweis: Wir erweitern unsere Inhalte fortlaufend. So ist auch hier im Bereich "Diskriminierung durch KI" eine Ergänzung mit weiteren Informationen geplant.

 

 

 

Redaktion: Matthias Röck