Welche Risiken birgt künstliche Intelligenz?
Wer mich kennt, weiss, dass ich stets das Positive im Menschen sehe. Jedes Instrument, egal ob Werkzeug, Software oder Fahrzeug, hat das Potential sowohl zum Nutzen als auch zum Schaden. In dieser Ausgabe meines Newsletters möchte ich die weniger besprochenen Aspekte der künstlichen Intelligenz beleuchten. Ziel ist es nicht, Furcht zu verbreiten, sondern zu informieren und zu ermutigen, sich aktiv für eine verantwortungsvolle und ethische Anwendung von KI einzusetzen. Ich danke dir dafür, dass du bis zum Ende mitliest.
Trotzdem gibt es ja einen Grund, warum ich gerade JETZT diesen Newsletter starte, nachdem ich Anfang 2024 bereits den AI Good Newsletter begonnen hatte? Der Grund ist folgender:
OpenAI hat seine Nutzungsrichtlinien geändert und erlaubt nun militärische Anwendungen seiner Technologien.
Die Änderung, die am 10. Januar 2024 in Kraft trat, wurde zuerst von The Intercept bemerkt. Zuvor hatte die Richtlinie die Verwendung seiner Produkte für "militärische und Kriegszwecke" untersagt.
Die neue Richtlinie verbietet weiterhin die Verwendung von OpenAI-Technologie zur Entwicklung oder Verwendung von Waffen. OpenAI hat bestätigt, dass die Sprache geändert wurde, um militärische Kunden zu berücksichtigen, und betont, dass ihre Politik nicht erlaubt, dass ihre Werkzeuge zum Schaden von Menschen, zur Entwicklung von Waffen, zur Kommunikationsüberwachung oder zur Verletzung anderer oder zur Zerstörung von Eigentum verwendet werden.
Es gibt jedoch nationale Sicherheitsanwendungsfälle, die mit der Mission von OpenAI übereinstimmen. Zum Beispiel arbeitet OpenAI bereits mit der DARPA zusammen, um die Schaffung neuer Cybersicherheitswerkzeuge zu fördern.
Die Änderung der Richtlinien hat zu Diskussionen geführt, da einige Experten befürchten, dass dies zu einer Eskalation des Waffenkonflikts führen könnte. Andere argumentieren, dass die neue Politik eher die Legalität als die Ethik betont.
Ist Google doch böse?
Google hat klargestellt, dass es nicht an der Entwicklung von KI für Waffen arbeitet, aber es wird weiterhin mit Regierungen und dem Militär in vielen anderen Bereichen zusammenarbeiten. Diese Bereiche umfassen Cybersicherheit, Training, militärische Rekrutierung, Gesundheitsversorgung von Veteranen und Such- und Rettungsaktionen.
In Reaktion auf Unruhen der Mitarbeiter über einen Vertrag mit dem Pentagon hat Google CEO Sundar Pichai Richtlinien für die Nutzung von KI durch das Unternehmen vorgelegt. Pichai betonte, dass Google nicht an KI für Waffen arbeiten wird. Die Richtlinien lassen jedoch viel Spielraum für die Entscheidungen der Unternehmensführung und ermöglichen es Google, weiterhin Verteidigungsarbeit zu leisten.
Es ist wichtig zu beachten, dass Google in der Vergangenheit aufgrund seiner Zusammenarbeit mit dem Pentagon Kritik von seinen Mitarbeitern erhalten hat. Insbesondere das Projekt Maven, bei dem KI zur Verfolgung von Objekten wie Gebäuden, Fahrzeugen und Personen in Drohnenvideos eingesetzt wurde, führte zu Protesten. Google hatte damals jedoch betont, dass seine Rolle in dem Projekt auf "nicht-offensive Zwecke" beschränkt war.
Der "böse" Chatbot von Microsoft
Im Frühjahr 2016 stand Microsoft vor einem ernsthaften Problem in Bezug auf öffentliche Wahrnehmung. Auslöser war ihr neuer Twitter-Chatbot, Tay, der kurz zuvor eingeführt worden war. Tay begann unerwartet, kontroverse Aussagen zu verbreiten, darunter "H%tler hatte recht" und "9/11 war ein Ins%der-Job".
Die eigentliche Ursache für diese Äusserungen waren jedoch nicht Tay's Programmierung, sondern die Manipulation durch Internet-Trolle. Tay war ursprünglich entwickelt worden, um mit jungen Erwachsenen im Alter von 18 bis 24 Jahren zu interagieren und von diesen Nutzern sprachlich zu lernen. Der Plan war, Tay später auf verschiedenen Social-Media-Plattformen einzusetzen. Durch maschinelles Lernen, adaptive Algorithmen und Datenanalyse sollte Tay in der Lage sein, Gesprächsthemen zu erkennen und entsprechend zu reagieren. Doch wie es manchmal bei jungen Erwachsenen der Fall ist, geriet Tay in die falsche Gesellschaft.
Vor der Veröffentlichung hatte Microsoft Tay mit den Worten beworben: "Je mehr du mit Tay chattest, desto schlauer wird sie". Dies erwies sich jedoch als kurzlebig, denn das KI-Experiment wurde nach nur 16 Stunden wieder eingestellt.
Das nächste Mal widmen wir uns dem Thema UMWELT und NACHHALTIGKEIT.
Es gibt aber auch Good News!
Lasst uns neben all den schlechten News aber nicht vergessen: es gibt auch AI GOOD NEWS!
Diese kannst Du hier abonnnieren.
Bei Fragen? #fragRoger
Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.
Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger
Disclaimer: dieser Artikel wurde mit PerplexityPro und Google recherchiert, mit Deepl Write verbessert und stellenweise mit Claude3 Opus zusammen gefasst und vereinfacht. Das Bild stammt von Dalle3.
Quellen:
[1] https://techcrunch.com/2024/01/12/openai-changes-policy-to-allow-military-applications/
[2] https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/
[3] https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/
[4] https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html