Was KI wirklich bringt

Die voreingenommene Maschine

Trainingsdaten spielen eine entscheidende Rolle bei der Entwicklung von KI-Systemen, können aber auch unbeabsichtigt Vorurteile und Diskriminierung verstärken. Denn die Daten, die sie aus Büchern, dem Internet oder Social Media beziehen, enthalten Stereotype und Vorurteile. Das ist ein Problem, dem sich Eva Gengler annimmt: Sie forscht an der Friedrich-Alexander-Universität in Erlangen-Nürnberg zu Menschenrechten im Zeitalter der KI. Im Interview spricht sie darüber, wie KI-Systeme gerechter gestaltet werden können und wie das Einfluss auf die Gesellschaft nehmen kann. | Interview: Mareike Scharmacher-Wellmann
Wirtschaftsspiegel: Frau Gengler, Sie haben den Begriff feministische KI geprägt. Was bedeutet das?
Eva Gengler: Das Ziel feministischer KI ist, durch Technologie tiefgreifende gesellschaftliche Veränderungen herbeizuführen, indem bestehende Ungerechtigkeiten verändert und Macht gerechter verteilt wird. Dieser Ansatz geht über die Technologie hinaus. Wir müssen KI entwickeln und einsetzen, um Strukturen und Prozesse gerechter zu machen. Dabei geht es nicht nur um Frauen. Es geht um alle Menschen. Denn bisher produzieren wir mit KI menschliche Fehler. Aber ein schlechter Prozess, der mit KI automatisiert wird, bleibt ein schlechter Prozess. So muss es aber nicht sein.
Wirtschaftsspiegel: In welchen Branchen kommt es zu Diskriminierungen?
Gengler: Diskriminierung durch KI sehen wir überall. Studien zeigen, dass Algorithmen im Gesundheitswesen bei der Erkennung von Krankheiten Schwarze Patient:innen systematisch benachteiligen, weil sie oft auf verzerrten Datensätzen trainiert wurden. In der Finanzbranche werden Kreditanträge von Frauen häufiger abgelehnt, weil KI-Modelle auf historischen Daten basieren, die genderspezifische Vorurteile und die Vergangenheit der Finanzbranche widerspiegeln. Es geht mir in meiner Forschung darum zu verstehen, warum das so ist und Lösungen zu entwickeln. Darum habe ich gemeinsam mit Andreas Gengler die Organisations- und IT-Beratung enableYou gegründet. Wir müssen auch bei den Menschen ansetzen, die Einfluss auf KI haben.
Wirtschaftsspiegel: Wie genau macht man KI gerechter?
Gengler: Wir müssen erkennen, dass KI-Systeme ein Spiegel dessen sind, was wir in der Vergangenheit entschieden und priorisiert haben. Der Grund der Diskriminierung liegt nicht in der Technik, sondern in der Gesellschaft begründet. Wir müssen Menschen fortbilden, reflektieren und umdenken lassen. Wir müssen mehr Diversität in unsere Entscheidungsprozesse integrieren. Wir müssen hinterfragen, welche Datensätze ins Training von KI einfließen, welche Muster in ihnen stecken und ob wir das abbilden wollen, was in den Daten steckt. Auch das Design von KI-Systemen müssen wir gerechter machen.
Wirtschaftsspiegel: Was empfehlen Sie Unternehmen, die KI-Anwendungen gerechter nutzen wollen?
Gengler: KI sollte ein Werkzeug sein, um Probleme zu beheben und Macht gerechter zu verteilen. Darum sollten Unternehmen beim Einkauf auf Diversity-Gesichtspunkte achten. Dies wird auch im Kontext der neuen europäischen KI-Regulierung immer wichtiger. Außerdem empfehle ich ein Gremium der Vielfalt, das bei Entscheidungen rund um KI einbezogen wird.
Darüber hinaus sollten Geschäftsführer:innen eine KI-Strategie entwickeln – am besten unter Einbeziehung der Belegschaft und Betroffener von KI-Systemen. Die Strategie muss transparent kommuniziert und Weiterbildungsformate etabliert werden. Frauen nutzen generative KI-Systeme weitaus weniger als Männer, generell und im Arbeitskontext. Darum sollten Unternehmen explizit Angebote für Frauen schaffen.