Werden Frauen in KI-generierten Bildern stärker diskriminiert?
Bilder sind ein einflussreiches Medium, das Botschaften vermittelt und Eindrücke formt. Doch insbesondere im Internet sind viele Darstellungen von Geschlechterstereotypen geprägt, wie aktuelle Forschungsergebnisse aufzeigen. Diese tragen signifikant zur Fortführung von Ungleichheiten bei.
Eine jüngste Studie von Forschern der University of California, Berkeley, veröffentlicht in der angesehenen Zeitschrift Nature, zeigt auf, dass Geschlechtervorurteile in Online-Bildern deutlich stärker ausgeprägt sind als in Texten. Die Forschenden analysierten die Präsenz von Geschlechtervorurteilen in Online-Bildern im Vergleich zu Online-Texten, indem sie 3'495 soziale Kategorien wie Berufe und soziale Rollen aus Wordnet, einer umfangreichen Datenbank der Princeton University, heranzogen.
Sie durchsuchten jede Kategorie auf Google Images, analysierten die Top 100 Bilder der Suchergebnisse und ließen eine Gruppe von Studienteilnehmern jedes menschliche Gesicht in diesen Bildern nach Geschlecht klassifizieren. Zum Vergleich nutzten sie ein Sprachlernmodell, um die Häufigkeit der Erwähnung jeder sozialen Kategorie in Bezug auf das Geschlecht in Google News-Texten zu ermitteln.
ür die Analyse von Google News-Texten verwendeten sie ein Sprachlernmodell, um die Häufigkeit der Erwähnung jeder sozialen Kategorie in Bezug auf das Geschlecht zu bestimmen.
Die kürzlich in "Nature" veröffentlichte Studie von Forschern der University of California, Berkeley, hat die Darstellung von Geschlechtern in Online-Bildern und -Texten untersucht. Das Ergebnis: Bilder fokussieren sich viel stärker auf stereotype Zuschreibungen als textliche Inhalte. Dieses Phänomen ist nicht auf einzelne Länder beschränkt, sondern lässt sich global beobachten.
Die Ergebnisse zeigten, dass Geschlechtszuordnungen in Bildern häufiger vorkamen als in Texten, wobei Bilder sich stärker auf Männer als auf Frauen konzentrierten.
Darüber hinaus fanden die Forscher heraus, dass Online-Bilder die Geschlechtervorurteile der Menschen, die sie betrachten, stärker beeinflussen als Texte.
In einem Experiment suchten die Teilnehmenden nach Berufen im Bereich Naturwissenschaften, Technik und Kunst; eine Gruppe verwendete Google Images und die andere Google News.
Die Teilnehmenden wurden dann gebeten, anzugeben, welchem Geschlecht sie diese Berufe zuordnen würden. Die Ergebnisse zeigten, dass die Teilnehmenden, die nach Bildern suchten, stärkere Geschlechterzuordnungen hatten als diejenigen, die Teilnehmenden, die nach Texten suchten.
In einer ähnlichen Studie fanden Forschende heraus, dass Bilder im Internet "Geschlechtervorurteile widerspiegeln und verstärken", indem sie Frauen in vielen Berufen und Rollen unterrepräsentieren. Die Studie ergab auch, dass diese geschlechtsspezifischen Vorurteile nicht auf die Vereinigten Staaten beschränkt sind, sondern weltweit auftreten.
Insgesamt scheinen also diese Studien darauf hinzudeuten, dass Online-Bilder ein grösseres Potenzial haben, Geschlechtervorurteile zu vermitteln und zu verstärken als Texte, und dass mehr Anstrengungen unternommen werden sollten, um diese Ungleichheiten anzugehen und die Geschlechterdarstellung in Online-Medien auszugleichen. Und was hat das nun mit KI und KI Trainings zu tun?
Welche Auswirkungen hat die Geschlechtsdiskriminierung in Online-Bildern auf das Training von KI Modellen?
Leider verdeutlicht derzeit nichts das Ausmass der geschlechtsspezifischen Voreingenommenheit in der Technologie als generative KI. So hat Amy Webb, eine quantitative Futuristin und Geschäftsführerin des Future Today Institute, ein auf TikTok sehr virales Video geteilt, in dem sie ein Experiment mit Midjourney, dem beliebten KI-Bildgenerator, durchgeführt hatte, um zu sehen, welche Bilder es bei der Eingabe eines "CEO" erzeugen würde.
Und dann, obwohl sie verschiedene Eingabeaufforderungen ausprobierte (darunter war dann auch "CEO einer Tamponfirma"), so war das Ergebnis fast immer dann dasselbe: nämlich das Bild eines weissen Mannes im mittleren Alter. (Der "Tampon" hingegen hatte die Grösse eines wie sie selbst aufzeigte: Schuhkartons.)
Zu einem ähnlichen Ergebnis kam übrigens das UNDP und zwar im letzten Jahr:
Es testete zwei andere visuelle generative KIs, DALL-E 2 und Stable Diffusion, und stellte dabei dann fest, dass fast alle Ergebnisse für die visuellen Darstellungen von den englischen Begriffen wie "engineer / Ingenieur", oder "scientist / Wissenschaftler" und von "it-expert / IT-Experte" fast ausnahmslos Männer darstellten. Und dabei muss man natürlich fest halten, dass die englischen Wörter eigentlich neutral sein sollen. Als die testenden Personen dann aber die KI explizit mit der Erzeugung von Frauen Bildern beauftragt hatten, waren diese Ergebnisse eher stark sexualisiert.
Künftige KI Bild Modelle tragen das Risiko in sich
Geschlechtsdiskriminierung in Online-Bildern kann wie oft erwähnt, erhebliche Auswirkungen auf das Training von KI-Modellen haben. Wenn diese Internetdaten, wie zum Beispiel aus Social Media Plattformen nun herangezogen werden, sind diese oft nicht geschlechtsneutral, da Männer häufiger in bestimmten Berufen und Rollen repräsentiert sind als Frauen und Frauen (Only Fans sei Dank) oft übersexualisiert dargestellt werden.
Dies kann mittel- bis langfristig dazu führen, dass KI-Modelle, die auf diesen Daten trainiert werden, voreingenommen sind und Geschlechterstereotype immer mehr verstärken.
Und wo ist das Problem? Multiplikation!
Wenn also KI-Modelle auf diskriminierenden Daten trainiert werden, können sie diese Vorurteile lernen und in ihren Entscheidungen replizieren. Dies kann dann wiederum zu Diskriminierung und Ungleichheit in verschiedenen Bereichen des Lebens führen, aber vor allem auch in der Aussenwahrnehmung für Kinder und Jugendliche.
Ein ganz krasses Beispiel für die Auswirkungen von Geschlechtsdiskriminierung in Online-Bildern auf KI-Modelle ist der Fall der Foto-App von Google, die 2015 afrikanisch-stämmige Menschen mit dem Wort "Gorilla" klassifizierte - das Beispiel ist aber über 9 Jahre alt. Was dennoch spannend war: Dieses Problem trat auf, weil das KI-System auf Daten trainiert wurde, die nicht repräsentativ für die Vielfalt der menschlichen Bevölkerung waren.
Und wer glaubt, das Thema sei vorbei, darf gerne mal hier reinschauen:
Natürlich sind dabei nicht nur Frauen betroffen - aber die Botschaft amplifiziert sich doch enorm was Stereotypen angeht.
KI-Bildgeneratoren verstärken Vorurteile
Denn ja AI-Bildgeneratoren verstärken Vorurteile, insbesondere wenn sie auf voreingenommenen Datensätzen trainiert werden. Dies kann zu einem selbstverstärkenden Rückkopplungseffekt führen, bei dem das Internet mit voreingenommenen Bildern gefüllt wird, die dann wiederum in Datensätze für andere AI-Bildgeneratoren aufgenommen werden.
Dies kann zu repräsentativen Schäden führen, die stärker sind als die Realität. Ein Beispiel dafür ist ein inzwischen gelöschter Artikel von Buzzfeed, in dem gezeigt wurde, wie AI Barbies aus verschiedenen Ländern der Welt darstellt, was zu extremen Formen von Darstellungsverzerrungen führte, einschliesslich farbenblinder und rassistischer Darstellungen
Aber es gibt noch das Video dazu:
Spannend ist hierbei dieser Bericht und das Tool dazu
Und genau darum ist es wichtig, dass KI-Modelle auf repräsentativen und unvoreingenommenen Daten trainiert werden. Dies erfordert eine sorgfältige Überprüfung der Daten, um sicherzustellen, dass sie nicht diskriminierend sind, sowie die Anwendung von Techniken zur Reduzierung von Voreingenommenheit in den Daten.
Fangen wir bei uns an?
Bei Fragen? #fragRoger
Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.
Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger
Disclaimer: dieser Artikel wurde mit PerplexityPro recherchiert, mit Deepl Write verbessert und stellenweise mit ChatGPT Plus zusammen gefasst und vereinfacht. Das Bild stammt von IdeogramAi. Diese Artikel sind rein edukativ und enthalten keinen Anspruch auf Vollständigkeit.
Quellen:
[...] https://www.popsugar.co.uk/beauty/lensa-ai-portraits-beauty-standards-49048462
[...] https://nftnow.com/features/the-objectification-of-women-in-ai-art/
[...] https://www.independent.co.uk/tech/pictures-photos-internet-gender-bias-sexism-b2496247.html
[...] https://www.nature.com/articles/s41586-024-07068-x
[...] https://www.nature.com/articles/d41586-024-00674-9
[...] https://www.lis.ac.uk/stories/how-ai-image-generators-make-bias-worse
[...] https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app
[...] https://www.lis.ac.uk/stories/how-ai-image-generators-make-bias-worse
[...] https://arxiv.org/abs/2303.11408
[...] https://huggingface.co/spaces/society-ethics/StableBias