Fördert künstliche Intelligenz Diskriminierung, Desinformation und Täuschung?

Fördert künstliche Intelligenz Diskriminierung, Desinformation und Täuschung?
Explore the dark side of media manipulation

Künstliche Intelligenz (KI) birgt das Risiko, Diskriminierung und Desinformation zu verstärken. Besonders in den letzten Wochen wurden vermehrt Fälle von KI-generierten Fake-Profilen, Robocalls und Deepfakes bekannt – von öffentlichen Persönlichkeiten wie Joe Biden und Taylor Swift bis hin zu alltäglichen Personen ist niemand vor dieser Bedrohung sicher.

Diese Entwicklungen haben weltweit Besorgnis erregt. Die schnelle Fortentwicklung dieser Technologien konfrontiert Gesetzgeber, Regulierungsbehörden und die Gesellschaft mit erheblichen Herausforderungen. Es ist entscheidend, Strategien zu entwickeln, um Missbrauch zu verhindern, während gleichzeitig die Meinungsfreiheit geschützt und die Technologie positiv genutzt wird.

Obwohl KI auch positive Anwendungsmöglichkeiten bietet, wie die Verbesserung öffentlicher Dienste und die Förderung von Transparenz, konzentriert sich unsere Diskussion heute auf jene Anwendungen von KI, die das Potenzial haben, unsere Wahrnehmung und unser Vertrauen in Informationen grundlegend zu verändern. Im Folgenden werden einige Schlüsselaspekte erörtert, bevor wir uns tiefer mit dem Thema befassen.

Deepfakes

Deepfake-Technologie ermöglicht es, überzeugende gefälschte Videos und Audiodateien zu erstellen, in denen Personen scheinbar Dinge sagen oder tun, die nie passiert sind. Beispiele hierfür sind die Erstellung von Videos, in denen Prominente oder Politiker manipulierte Aussagen treffen. Ein bekanntes Beispiel ist ein Video, das von BuzzFeed und dem Komiker Jordan Peele erstellt wurde, in dem Peele's Mundbewegungen auf ein Video von Barack Obama übertragen wurden, um zu demonstrieren, wie leicht Menschen durch Deepfakes getäuscht werden können.

Fake Influencer Profile

KI kann auch zur Erstellung von Fake-Profilen in sozialen Netzwerken oder auf Dating-Plattformen verwendet werden. Diese Profile können für verschiedene Zwecke eingesetzt werden, von harmlosen Influencerinnen wie der Instagram-Account von Aitana Lopez mit dem Nutzernamen fit_aitanas bis hin zu gezielten Desinformationskampagnen oder sogar zur Beeinflussung von Wahlen.

Fake Ads

Unternehmen könnten versucht sein, Deepfake-Technologie einzusetzen, um Prominente in Werbekampagnen zu verwenden, ohne dass diese tatsächlich teilnehmen müssen, gerade kürzlich passiert mit Taylor Swift. Dies wirft ethische Fragen auf und könnte zu rechtlichen Konsequenzen führen, wenn Verbraucher in die Irre geführt werden.

Gesellschaftliche und politische Auswirkungen

Die Verbreitung von Deepfakes und Fake-Profilen kann das Vertrauen in Medien und öffentliche Institutionen untergraben. Wenn es schwierig wird, echte von gefälschten Inhalten zu unterscheiden, könnte dies die politische Polarisierung verstärken und demokratische Prozesse beeinträchtigen, das werden wir bald in den US Wahlen erleben.

Researchers Say the Deepfake Biden Robocall Was Likely Made With Tools From AI Startup ElevenLabs
Two fake-audio experts say that the deepfake robocall of President Biden received by some voters last week was likely created with technology from Silicon Valley’s favorite voice cloning startup.

Diskriminierung aufgrund der Hautfarbe?

Erstelle mal ein Bild einer analogen Uhr mit einer Uhrzeit (zB, 18:15Uhr), sie wird immer 10:10 anzeigen - warum? Trainingsmaterial. Das ist ein harmloses Beispiel natürlich.

Aber KI-Systeme können diskriminierende Entscheidungen treffen, wenn sie auf voreingenommenen Daten trainiert werden. Beispielsweise können sie bei der Einstellung von Mitarbeitern oder der Kreditvergabe zu Entscheidungen führen, die durch ethnische Zugehörigkeit, Geschlecht oder Alter beeinflusst werden.

Das erleben gerade Menschen mit einer dunkleren Hautfarbe. KI-Systeme diskriminieren dabei nicht "absichtlich", aber es gibt Fälle, in denen sie aufgrund von Voreingenommenheiten in den Daten, mit denen sie trainiert wurden, diskriminierende Ergebnisse liefern können.

Ein Beispiel ist die Studie von Joy Buolamwini vom MIT Media Lab, die zeigte, dass kommerzielle Gesichtserkennungssysteme von IBM, Microsoft und Face++ eine höhere Fehlerrate bei der Geschlechtserkennung von dunkelhäutigen und insbesondere von Frauen hatten. Die Fehlerrate bei hellhäutigen Männern lag bei 0,8%, während sie bei dunkelhäutigen Frauen bei bis zu 34,7% lag.

Ein weiteres Beispiel ist der COMPAS-Algorithmus, der in den USA zur Risikobewertung von Straftätern eingesetzt wird. Eine Analyse von ProPublica ergab, dass der Algorithmus fast doppelt so wahrscheinlich falsche Vorhersagen über zukünftige Straftaten von schwarzen als von weißen Personen machte.

Diese Beispiele zeigen, dass KI-Systeme, wenn sie mit voreingenommenen Daten trainiert werden, diskriminierende Ergebnisse liefern können. Es ist daher wichtig, dass KI-Entwickler und -Anwender sich dieser Risiken bewusst sind und Massnahmen ergreifen, um sicherzustellen, dass ihre Systeme fair und unvoreingenommen sind.

KI geht uns alle an Stichwort #Sharenting

Es ist wichtig zu betonen, dass KI nicht zwangsläufig zu Diskriminierung und Desinformation und Deep Fakes führen muss. Sie kann auch dazu beitragen, demokratische Prozesse zu stärken, beispielsweise durch die Verbesserung der öffentlichen Dienstleistungen oder die Unterstützung von Transparenz und Rechenschaftspflicht.

Aber es geht uns alle an und fängt dabei an, dass Du keine Bilder von schutzbedürftigen Personen, zB deiner Kinder, ins Internet stellst.

Und wenn Du mir nicht glaubst, dann glaub dieser Dokumentation:

VOLLBILD - Recherchen, die mehr zeigen: Dein Kind im Porno? Unfreiwillig nackt online
Dein Kind im Porno – mit Künstlicher Intelligenz leider ganz einfach. Die Technologie wird zunehmend missbraucht, um Kinder- und Jugendpornografie zu erstellen. Wie kann das sein? Wie groß ist die Bedrohung? Wer steckt dahinter? VOLLBILD taucht ein in die Welt der KI-Fakes. Mit erschreckenden Rechercheergebnissen.

Und es gibt aber auch Good News!

Lasst uns neben all den schlechten News aber nicht vergessen: es gibt auch AI GOOD NEWS!

Diese kannst Du hier abonnnieren.

Read more