Fördert künstliche Intelligenz Diskriminierung, Desinformation und Täuschung?

Künstliche Intelligenz (KI) birgt das Risiko, Diskriminierung und Desinformation zu verstärken. Besonders in den letzten Wochen wurden vermehrt Fälle von KI-generierten Fake-Profilen, Robocalls und Deepfakes bekannt – von öffentlichen Persönlichkeiten wie Joe Biden und Taylor Swift bis hin zu alltäglichen Personen ist niemand vor dieser Bedrohung sicher.
Diese Entwicklungen haben weltweit Besorgnis erregt. Die schnelle Fortentwicklung dieser Technologien konfrontiert Gesetzgeber, Regulierungsbehörden und die Gesellschaft mit erheblichen Herausforderungen. Es ist entscheidend, Strategien zu entwickeln, um Missbrauch zu verhindern, während gleichzeitig die Meinungsfreiheit geschützt und die Technologie positiv genutzt wird.
Obwohl KI auch positive Anwendungsmöglichkeiten bietet, wie die Verbesserung öffentlicher Dienste und die Förderung von Transparenz, konzentriert sich unsere Diskussion heute auf jene Anwendungen von KI, die das Potenzial haben, unsere Wahrnehmung und unser Vertrauen in Informationen grundlegend zu verändern. Im Folgenden werden einige Schlüsselaspekte erörtert, bevor wir uns tiefer mit dem Thema befassen.
Deepfakes
Deepfake-Technologie ermöglicht es, überzeugende gefälschte Videos und Audiodateien zu erstellen, in denen Personen scheinbar Dinge sagen oder tun, die nie passiert sind. Beispiele hierfür sind die Erstellung von Videos, in denen Prominente oder Politiker manipulierte Aussagen treffen. Ein bekanntes Beispiel ist ein Video, das von BuzzFeed und dem Komiker Jordan Peele erstellt wurde, in dem Peele's Mundbewegungen auf ein Video von Barack Obama übertragen wurden, um zu demonstrieren, wie leicht Menschen durch Deepfakes getäuscht werden können.
Fake Influencer Profile
KI kann auch zur Erstellung von Fake-Profilen in sozialen Netzwerken oder auf Dating-Plattformen verwendet werden. Diese Profile können für verschiedene Zwecke eingesetzt werden, von harmlosen Influencerinnen wie der Instagram-Account von Aitana Lopez mit dem Nutzernamen fit_aitanas bis hin zu gezielten Desinformationskampagnen oder sogar zur Beeinflussung von Wahlen.
Fake Ads
Unternehmen könnten versucht sein, Deepfake-Technologie einzusetzen, um Prominente in Werbekampagnen zu verwenden, ohne dass diese tatsächlich teilnehmen müssen, gerade kürzlich passiert mit Taylor Swift. Dies wirft ethische Fragen auf und könnte zu rechtlichen Konsequenzen führen, wenn Verbraucher in die Irre geführt werden.
Gesellschaftliche und politische Auswirkungen
Die Verbreitung von Deepfakes und Fake-Profilen kann das Vertrauen in Medien und öffentliche Institutionen untergraben. Wenn es schwierig wird, echte von gefälschten Inhalten zu unterscheiden, könnte dies die politische Polarisierung verstärken und demokratische Prozesse beeinträchtigen, das werden wir bald in den US Wahlen erleben.
Diskriminierung aufgrund der Hautfarbe?
Erstelle mal ein Bild einer analogen Uhr mit einer Uhrzeit (zB, 18:15Uhr), sie wird immer 10:10 anzeigen - warum? Trainingsmaterial. Das ist ein harmloses Beispiel natürlich.
Aber KI-Systeme können diskriminierende Entscheidungen treffen, wenn sie auf voreingenommenen Daten trainiert werden. Beispielsweise können sie bei der Einstellung von Mitarbeitern oder der Kreditvergabe zu Entscheidungen führen, die durch ethnische Zugehörigkeit, Geschlecht oder Alter beeinflusst werden.
Das erleben gerade Menschen mit einer dunkleren Hautfarbe. KI-Systeme diskriminieren dabei nicht "absichtlich", aber es gibt Fälle, in denen sie aufgrund von Voreingenommenheiten in den Daten, mit denen sie trainiert wurden, diskriminierende Ergebnisse liefern können.
Ein Beispiel ist die Studie von Joy Buolamwini vom MIT Media Lab, die zeigte, dass kommerzielle Gesichtserkennungssysteme von IBM, Microsoft und Face++ eine höhere Fehlerrate bei der Geschlechtserkennung von dunkelhäutigen und insbesondere von Frauen hatten. Die Fehlerrate bei hellhäutigen Männern lag bei 0,8%, während sie bei dunkelhäutigen Frauen bei bis zu 34,7% lag.
Ein weiteres Beispiel ist der COMPAS-Algorithmus, der in den USA zur Risikobewertung von Straftätern eingesetzt wird. Eine Analyse von ProPublica ergab, dass der Algorithmus fast doppelt so wahrscheinlich falsche Vorhersagen über zukünftige Straftaten von schwarzen als von weißen Personen machte.
Diese Beispiele zeigen, dass KI-Systeme, wenn sie mit voreingenommenen Daten trainiert werden, diskriminierende Ergebnisse liefern können. Es ist daher wichtig, dass KI-Entwickler und -Anwender sich dieser Risiken bewusst sind und Massnahmen ergreifen, um sicherzustellen, dass ihre Systeme fair und unvoreingenommen sind.
KI geht uns alle an Stichwort #Sharenting
Es ist wichtig zu betonen, dass KI nicht zwangsläufig zu Diskriminierung und Desinformation und Deep Fakes führen muss. Sie kann auch dazu beitragen, demokratische Prozesse zu stärken, beispielsweise durch die Verbesserung der öffentlichen Dienstleistungen oder die Unterstützung von Transparenz und Rechenschaftspflicht.
Aber es geht uns alle an und fängt dabei an, dass Du keine Bilder von schutzbedürftigen Personen, zB deiner Kinder, ins Internet stellst.
Und wenn Du mir nicht glaubst, dann glaub dieser Dokumentation:
Und es gibt aber auch Good News!
Lasst uns neben all den schlechten News aber nicht vergessen: es gibt auch AI GOOD NEWS!
Diese kannst Du hier abonnnieren.