Ist künstliche Intelligenz böse?

Ist künstliche Intelligenz böse? Es kommt wohl darauf an was man daraus macht.

Ist künstliche Intelligenz böse?

Wer mich kennt weiss, ich bin Fan vom Guten im Menschen. Jedes Werkzeug, ob Hammer oder Axt, ob Code oder Fahrzeug, kann für gute und schlechtere Zwecke eingesetzt werden. Trotzdem erlaube ich mir, in dieser Version eines Newsletters, einmal auf die Schattenseiten von künstlicher Intelligenz hinzuweisen. Dabei soll es nicht Angst machen, sondern aufklären und Mut machen, informiert zu bleiben und sich zu engagieren: für einen sicheren und fairen Einsatz von KI. Danke, dass Du bis zum Schluss dabei bleibst.

Trotzdem gibt es ja einen Grund, warum ich gerade JETZT diesen Blog starte. Der Grund ist folgender:

OpenAI hat seine Nutzungsrichtlinien geändert und erlaubt nun militärische Anwendungen seiner Technologien.

Die Änderung, die am 10. Januar 2024 in Kraft trat, wurde zuerst von The Intercept bemerkt. Zuvor hatte die Richtlinie die Verwendung seiner Produkte für "militärische und Kriegszwecke" untersagt.

Die neue Richtlinie verbietet weiterhin die Verwendung von OpenAI-Technologie zur Entwicklung oder Verwendung von Waffen. OpenAI hat bestätigt, dass die Sprache geändert wurde, um militärische Kunden zu berücksichtigen, und betont, dass ihre Politik nicht erlaubt, dass ihre Werkzeuge zum Schaden von Menschen, zur Entwicklung von Waffen, zur Kommunikationsüberwachung oder zur Verletzung anderer oder zur Zerstörung von Eigentum verwendet werden.

Es gibt jedoch nationale Sicherheitsanwendungsfälle, die mit der Mission von OpenAI übereinstimmen. Zum Beispiel arbeitet OpenAI bereits mit der DARPA zusammen, um die Schaffung neuer Cybersicherheitswerkzeuge zu fördern.

Die Änderung der Richtlinien hat zu Diskussionen geführt, da einige Experten befürchten, dass dies zu einer Eskalation des Waffenkonflikts führen könnte. Andere argumentieren, dass die neue Politik eher die Legalität als die Ethik betont.

Ist Google doch böse?

Google hat klargestellt, dass es nicht an der Entwicklung von KI für Waffen arbeitet, aber es wird weiterhin mit Regierungen und dem Militär in vielen anderen Bereichen zusammenarbeiten. Diese Bereiche umfassen Cybersicherheit, Training, militärische Rekrutierung, Gesundheitsversorgung von Veteranen und Such- und Rettungsaktionen.

In Reaktion auf Unruhen der Mitarbeiter über einen Vertrag mit dem Pentagon hat Google CEO Sundar Pichai Richtlinien für die Nutzung von KI durch das Unternehmen vorgelegt. Pichai betonte, dass Google nicht an KI für Waffen arbeiten wird. Die Richtlinien lassen jedoch viel Spielraum für die Entscheidungen der Unternehmensführung und ermöglichen es Google, weiterhin Verteidigungsarbeit zu leisten.

Es ist wichtig zu beachten, dass Google in der Vergangenheit aufgrund seiner Zusammenarbeit mit dem Pentagon Kritik von seinen Mitarbeitern erhalten hat. Insbesondere das Projekt Maven, bei dem KI zur Verfolgung von Objekten wie Gebäuden, Fahrzeugen und Personen in Drohnenvideos eingesetzt wurde, führte zu Protesten. Google hatte damals jedoch betont, dass seine Rolle in dem Projekt auf "nicht-offensive Zwecke" beschränkt war.

Der "böse" Chatbot von Microsoft

Im Frühjahr 2016 stand Microsoft vor einem ernsthaften Problem in Bezug auf öffentliche Wahrnehmung. Auslöser war ihr neuer Twitter-Chatbot, Tay, der kurz zuvor eingeführt worden war. Tay begann unerwartet, kontroverse Aussagen zu verbreiten, darunter "H%tler hatte recht" und "9/11 war ein Ins%der-Job".

Die eigentliche Ursache für diese Äusserungen waren jedoch nicht Tay's Programmierung, sondern die Manipulation durch Internet-Trolle. Tay war ursprünglich entwickelt worden, um mit jungen Erwachsenen im Alter von 18 bis 24 Jahren zu interagieren und von diesen Nutzern sprachlich zu lernen. Der Plan war, Tay später auf verschiedenen Social-Media-Plattformen einzusetzen. Durch maschinelles Lernen, adaptive Algorithmen und Datenanalyse sollte Tay in der Lage sein, Gesprächsthemen zu erkennen und entsprechend zu reagieren. Doch wie es manchmal bei jungen Erwachsenen der Fall ist, geriet Tay in die falsche Gesellschaft.

Vor der Veröffentlichung hatte Microsoft Tay mit den Worten beworben: "Je mehr du mit Tay chattest, desto schlauer wird sie". Dies erwies sich jedoch als kurzlebig, denn das KI-Experiment wurde nach nur 16 Stunden wieder eingestellt.

Das nächste Mal widmen wir uns dem Thema UMWELT und NACHHALTIGKEIT.

Es gibt aber auch Good News!

Lasst uns neben all den schlechten News aber nicht vergessen: es gibt auch AI GOOD NEWS!

Quellen:

[...] https://techcrunch.com/2024/01/12/openai-changes-policy-to-allow-military-applications/

[...] https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/

[...] https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/

[...] https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html

[...] https://www.capital.de/wirtschaft-politik/-sorry--aber-ich-liege-nicht-falsch—wo-macht-die-ki-fehler--33206418.html

Read more

Verändert Künstliche Intelligenz die Art der Kriegsführung?

Verändert Künstliche Intelligenz die Art der Kriegsführung?

Die Rolle der Künstlichen Intelligenz (KI) in der Kriegsführung, insbesondere den Einsatz von autonomen Drohnen und Direktenergie-Waffen, ist vielschichtig und komplex. Diese Technologien können zwar entscheidende militärische Vorteile bieten, werfen jedoch auch tiefgreifende ethische, rechtliche und sicherheitstechnische Fragen auf, die internationale Zusammenarbeit und sorgfältige Überlegungen erfordern. Die schnelle Integration von

By Roger Basler de Roca