Werden Frauen in KI-generierten Bildern stärker diskriminiert?

Werden Frauen in KI-generierten Bildern stärker diskriminiert?
Nicht nur Frauen, aber vor allem sie sind durch Stereotypen von KI Bildern betroffen - Bild von Ideogram, Roger Basler de Roca

Bilder sind ein einflussreiches Medium, das Botschaften vermittelt und Eindrücke formt. Doch insbesondere im Internet sind viele Darstellungen von Geschlechterstereotypen geprägt, wie aktuelle Forschungsergebnisse aufzeigen. Diese tragen signifikant zur Fortführung von Ungleichheiten bei.

Eine jüngste Studie von Forschern der University of California, Berkeley, veröffentlicht in der angesehenen Zeitschrift Nature, zeigt auf, dass Geschlechtervorurteile in Online-Bildern deutlich stärker ausgeprägt sind als in Texten. Die Forschenden analysierten die Präsenz von Geschlechtervorurteilen in Online-Bildern im Vergleich zu Online-Texten, indem sie 3'495 soziale Kategorien wie Berufe und soziale Rollen aus Wordnet, einer umfangreichen Datenbank der Princeton University, heranzogen.

Sie durchsuchten jede Kategorie auf Google Images, analysierten die Top 100 Bilder der Suchergebnisse und ließen eine Gruppe von Studienteilnehmern jedes menschliche Gesicht in diesen Bildern nach Geschlecht klassifizieren. Zum Vergleich nutzten sie ein Sprachlernmodell, um die Häufigkeit der Erwähnung jeder sozialen Kategorie in Bezug auf das Geschlecht in Google News-Texten zu ermitteln.

ür die Analyse von Google News-Texten verwendeten sie ein Sprachlernmodell, um die Häufigkeit der Erwähnung jeder sozialen Kategorie in Bezug auf das Geschlecht zu bestimmen.

Die kürzlich in "Nature" veröffentlichte Studie von Forschern der University of California, Berkeley, hat die Darstellung von Geschlechtern in Online-Bildern und -Texten untersucht. Das Ergebnis: Bilder fokussieren sich viel stärker auf stereotype Zuschreibungen als textliche Inhalte. Dieses Phänomen ist nicht auf einzelne Länder beschränkt, sondern lässt sich global beobachten.

Die Ergebnisse zeigten, dass Geschlechtszuordnungen in Bildern häufiger vorkamen als in Texten, wobei Bilder sich stärker auf Männer als auf Frauen konzentrierten.

Darüber hinaus fanden die Forscher heraus, dass Online-Bilder die Geschlechtervorurteile der Menschen, die sie betrachten, stärker beeinflussen als Texte.

In einem Experiment suchten die Teilnehmenden nach Berufen im Bereich Naturwissenschaften, Technik und Kunst; eine Gruppe verwendete Google Images und die andere Google News.

Die Teilnehmenden wurden dann gebeten, anzugeben, welchem Geschlecht sie diese Berufe zuordnen würden. Die Ergebnisse zeigten, dass die Teilnehmenden, die nach Bildern suchten, stärkere Geschlechterzuordnungen hatten als diejenigen, die Teilnehmenden, die nach Texten suchten.

In einer ähnlichen Studie fanden Forschende heraus, dass Bilder im Internet "Geschlechtervorurteile widerspiegeln und verstärken", indem sie Frauen in vielen Berufen und Rollen unterrepräsentieren. Die Studie ergab auch, dass diese geschlechtsspezifischen Vorurteile nicht auf die Vereinigten Staaten beschränkt sind, sondern weltweit auftreten.
AI image generators often give racist and sexist results: can they be fixed?
Researchers are tracing sources of racial and gender bias in images generated by artificial intelligence, and making efforts to fix them.

Insgesamt scheinen also diese Studien darauf hinzudeuten, dass Online-Bilder ein grösseres Potenzial haben, Geschlechtervorurteile zu vermitteln und zu verstärken als Texte, und dass mehr Anstrengungen unternommen werden sollten, um diese Ungleichheiten anzugehen und die Geschlechterdarstellung in Online-Medien auszugleichen. Und was hat das nun mit KI und KI Trainings zu tun?

Welche Auswirkungen hat die Geschlechtsdiskriminierung in Online-Bildern auf das Training von KI Modellen?

Leider verdeutlicht derzeit nichts das Ausmass der geschlechtsspezifischen Voreingenommenheit in der Technologie als generative KI. So hat Amy Webb, eine quantitative Futuristin und Geschäftsführerin des Future Today Institute, ein auf TikTok sehr virales Video geteilt, in dem sie ein Experiment mit Midjourney, dem beliebten KI-Bildgenerator, durchgeführt hatte, um zu sehen, welche Bilder es bei der Eingabe eines "CEO" erzeugen würde.

Und dann, obwohl sie verschiedene Eingabeaufforderungen ausprobierte (darunter war dann auch "CEO einer Tamponfirma"), so war das Ergebnis fast immer dann dasselbe: nämlich das Bild eines weissen Mannes im mittleren Alter. (Der "Tampon" hingegen hatte die Grösse eines wie sie selbst aufzeigte: Schuhkartons.)

Zu einem ähnlichen Ergebnis kam übrigens das UNDP und zwar im letzten Jahr:

Reproducing inequality: How AI image generators show biases against women in STEM
There have long been concerns that AI models, including text-to-image tools, may contribute to the reproduction of existing inequalities and stereotypes. Therefore, as part of UNDP Accelerator Lab’s ongoing research on the gender gaps in STEM, we conducted a small experiment to test how two popular visual generative AIs: DALL-E 2 and Stable Diffusion view the STEM fields when it comes to the representation of women.

Es testete zwei andere visuelle generative KIs, DALL-E 2 und Stable Diffusion, und stellte dabei dann fest, dass fast alle Ergebnisse für die visuellen Darstellungen von den englischen Begriffen wie "engineer / Ingenieur", oder "scientist / Wissenschaftler" und von "it-expert / IT-Experte" fast ausnahmslos Männer darstellten. Und dabei muss man natürlich fest halten, dass die englischen Wörter eigentlich neutral sein sollen. Als die testenden Personen dann aber die KI explizit mit der Erzeugung von Frauen Bildern beauftragt hatten, waren diese Ergebnisse eher stark sexualisiert.

Künftige KI Bild Modelle tragen das Risiko in sich

Geschlechtsdiskriminierung in Online-Bildern kann wie oft erwähnt, erhebliche Auswirkungen auf das Training von KI-Modellen haben. Wenn diese Internetdaten, wie zum Beispiel aus Social Media Plattformen nun herangezogen werden, sind diese oft nicht geschlechtsneutral, da Männer häufiger in bestimmten Berufen und Rollen repräsentiert sind als Frauen und Frauen (Only Fans sei Dank) oft übersexualisiert dargestellt werden.

Did AI Portraits Change How You See Yourself? You’re Not Alone
Some women are speaking out about how the “magic avatars” oversexualized them.

Dies kann mittel- bis langfristig dazu führen, dass KI-Modelle, die auf diesen Daten trainiert werden, voreingenommen sind und Geschlechterstereotype immer mehr verstärken.

Und wo ist das Problem? Multiplikation!

Wenn also KI-Modelle auf diskriminierenden Daten trainiert werden, können sie diese Vorurteile lernen und in ihren Entscheidungen replizieren. Dies kann dann wiederum zu Diskriminierung und Ungleichheit in verschiedenen Bereichen des Lebens führen, aber vor allem auch in der Aussenwahrnehmung für Kinder und Jugendliche.

Ein ganz krasses Beispiel für die Auswirkungen von Geschlechtsdiskriminierung in Online-Bildern auf KI-Modelle ist der Fall der Foto-App von Google, die 2015 afrikanisch-stämmige Menschen mit dem Wort "Gorilla" klassifizierte - das Beispiel ist aber über 9 Jahre alt. Was dennoch spannend war: Dieses Problem trat auf, weil das KI-System auf Daten trainiert wurde, die nicht repräsentativ für die Vielfalt der menschlichen Bevölkerung waren.

Und wer glaubt, das Thema sei vorbei, darf gerne mal hier reinschauen:

https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes/
https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes/
https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes/

Natürlich sind dabei nicht nur Frauen betroffen - aber die Botschaft amplifiziert sich doch enorm was Stereotypen angeht.

KI-Bildgeneratoren verstärken Vorurteile

Denn ja AI-Bildgeneratoren verstärken Vorurteile, insbesondere wenn sie auf voreingenommenen Datensätzen trainiert werden. Dies kann zu einem selbstverstärkenden Rückkopplungseffekt führen, bei dem das Internet mit voreingenommenen Bildern gefüllt wird, die dann wiederum in Datensätze für andere AI-Bildgeneratoren aufgenommen werden.

Dies kann zu repräsentativen Schäden führen, die stärker sind als die Realität. Ein Beispiel dafür ist ein inzwischen gelöschter Artikel von Buzzfeed, in dem gezeigt wurde, wie AI Barbies aus verschiedenen Ländern der Welt darstellt, was zu extremen Formen von Darstellungsverzerrungen führte, einschliesslich farbenblinder und rassistischer Darstellungen

Aber es gibt noch das Video dazu:

Spannend ist hierbei dieser Bericht und das Tool dazu

These new tools let you see for yourself how biased AI image models are
Bias and stereotyping are still huge problems for systems like DALL-E 2 and Stable Diffusion, despite companies’ attempts to fix it.
StableBias - a Hugging Face Space by society-ethics
Discover amazing ML apps made by the community

Und genau darum ist es wichtig, dass KI-Modelle auf repräsentativen und unvoreingenommenen Daten trainiert werden. Dies erfordert eine sorgfältige Überprüfung der Daten, um sicherzustellen, dass sie nicht diskriminierend sind, sowie die Anwendung von Techniken zur Reduzierung von Voreingenommenheit in den Daten.

Fangen wir bei uns an?


Bei Fragen? #fragRoger

Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.

Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger


Disclaimer: dieser Artikel wurde mit PerplexityPro recherchiert, mit Deepl Write verbessert und stellenweise mit ChatGPT Plus zusammen gefasst und vereinfacht. Das Bild stammt von IdeogramAi. Diese Artikel sind rein edukativ und enthalten keinen Anspruch auf Vollständigkeit.


Quellen:

[...] https://www.antidiskriminierungsstelle.de/SharedDocs/downloads/DE/publikationen/Expertisen/expertise_diskriminierungserfahrungen_in_deutschland.pdf?__blob=publicationFile&v=6

[...] https://www.undp.org/serbia/blog/reproducing-inequality-how-ai-image-generators-show-biases-against-women-stem

[...] https://www.popsugar.co.uk/beauty/lensa-ai-portraits-beauty-standards-49048462

[...] https://nftnow.com/features/the-objectification-of-women-in-ai-art/

[...] https://www.wiareport.com/2024/02/study-finds-gender-bias-is-more-prevalent-in-online-imagines-than-online-text/

[...] https://newsroom.haas.berkeley.edu/research/internet-images-may-be-turning-back-the-clock-on-gender-bias-research-finds/

[...] https://www.independent.co.uk/tech/pictures-photos-internet-gender-bias-sexism-b2496247.html

[...] https://www.nature.com/articles/s41586-024-07068-x

[...] https://www.nature.com/articles/d41586-024-00674-9

[...] https://www.france24.com/en/live-news/20240214-online-images-reinforce-gender-stereotypes-more-than-text-study

[...] https://www.lis.ac.uk/stories/how-ai-image-generators-make-bias-worse

[...] https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app

[...] https://www.technologyreview.com/2023/03/22/1070167/these-news-tool-let-you-see-for-yourself-how-biased-ai-image-models-are/

[...] https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes/

[...] https://www.lis.ac.uk/stories/how-ai-image-generators-make-bias-worse

[...] https://arxiv.org/abs/2303.11408

[...] https://huggingface.co/spaces/society-ethics/StableBias

[...] https://youtu.be/L2sQRrf1Cd8?si=OWDomUuIVxMlZMzb

Read more

Verändert Künstliche Intelligenz die Art der Kriegsführung?

Verändert Künstliche Intelligenz die Art der Kriegsführung?

Die Rolle der Künstlichen Intelligenz (KI) in der Kriegsführung, insbesondere den Einsatz von autonomen Drohnen und Direktenergie-Waffen, ist vielschichtig und komplex. Diese Technologien können zwar entscheidende militärische Vorteile bieten, werfen jedoch auch tiefgreifende ethische, rechtliche und sicherheitstechnische Fragen auf, die internationale Zusammenarbeit und sorgfältige Überlegungen erfordern. Die schnelle Integration von

By Roger Basler de Roca
Wie verändert KI die Echtzeitüberwachung unserer Privatsphäre und Sicherheit?

Wie verändert KI die Echtzeitüberwachung unserer Privatsphäre und Sicherheit?

Künstliche Intelligenz (KI) gewinnt in der Videoüberwachung in Europa zunehmend an Bedeutung. KI-Systeme werden in Überwachungskameras integriert, um Objekte, Personen oder Aktivitäten automatisch zu identifizieren und zu verfolgen. Diese Technologien nutzen maschinelles Lernen und Algorithmen, die auf umfangreichen Datensätzen basieren. Anwendungsbeispiele umfassen die Erkennung von Objekten, Personen und Tieren in

By Roger Basler de Roca