Zunehmender Energiebedarf der Künstlichen Intelligenz – Ist die Nachhaltigkeit von KI noch gewährleistet?
TLDR: Der Energiebedarf der Künstlichen Intelligenz (KI) ist in den vergangenen fünf Jahren erheblich gestiegen, vor allem aufgrund der Entwicklung und des Trainings fortschrittlicher Modelle sowie des Betriebs grosser KI-Systeme. Wir haben zudem Energieverbrauchsunterschiede bei verschiedenen KI-Modellen beleuchtet und festgestellt, dass der Energiebedarf wesentlich von der Art, Grösse, Komplexität und dem Verwendungszweck der KI-Modelle beeinflusst wird. Um die KI nachhaltiger zu gestalten, müssen Entwicklervon Beginn an Energieeffizienz als zentrales Kriterium berücksichtigen und auf energieeffizientere Modelle, Hardware und Techniken setzen.
Warum eine genaue Analyse fast unmöglich ist
In diesem Artikel versuche ich den Energieverbrauch von Künstlicher Intelligenz (KI) im Vergleich zu anderen Industrien untersucht und die Auswirkungen auf den CO2-Ausstoss und den Wasserverbrauch zu betrachten.
Das wird eine Herkulesaufgabe und selbst nach 8 Revisionen dieses Artikels weiss ich, dass ich kein komplettes Bild abgeben kann.
Denn die genaue Bestimmung des Energieverbrauchs von künstlicher Intelligenz (KI) im Vergleich zu anderen Branchen ist aus verschiedenen Gründen herausfordernd:
- Fehlende zuverlässige Daten: Viele KI-Firmen halten ihre Energienutzung geheim und es gibt keine einheitlichen Methoden zur Messung und Berichterstattung. Daher basieren viele Schätzungen auf Annahmen.
- Rasante Entwicklung: KI-Technologien entwickeln sich schnell weiter, was dazu führt, dass Energiedaten rasch veralten. Ausserdem entstehen ständig neue Anwendungen mit unbekanntem Energieverbrauch.
- Komplexität: KI-Systeme bestehen aus vielen Teilen (wie Chips, Kühlung, Speicher), die unterschiedlich viel Energie verbrauchen. Der Gesamtverbrauch ist daher schwer zu bestimmen.
- Indirekte Effekte: KI kann in vielen Bereichen Energie einsparen, z.B. durch Prozessoptimierung. Diese positiven indirekten Effekte sind jedoch schwer zu messen und werden oft nicht berücksichtigt. Ausserdem kann eine höhere Effizienz zu einer stärkeren Nutzung führen (Rebound-Effekt).
- Fehlende Vergleichbarkeit: Andere Branchen haben etablierte Methoden zur Messung ihres Energieverbrauchs. Für KI gibt es diese Standards noch nicht, was Vergleiche erschwert.
Trotz dieser Herausforderungen ist es wichtig, den Energieverbrauch von KI so gut wie möglich zu analysieren und transparent zu machen.
Energieverbrauch von KI im Vergleich zu Smartphones und Haushalten
In meiner ersten Recherche habe ich festgestellt, dass der Energieverbrauch von KI-Systemen schon heute erheblich ist und in den kommenden Jahren voraussichtlich weiter zunehmen wird. Der CO2-Ausstoss und der Wasserverbrauch von KI sind ebenfalls besorgniserregend.
Um diese Entwicklung in Perspektive zu setzen, dachte ich unter anderem, dass es hilfreich wäre, diese Energie mit dem täglichen Energieverbrauch eines Smartphones und eines Haushalts zu vergleichen.
- Smartphone: Ein typisches Smartphone verbraucht etwa 2-6 Wattstunden (Wh) pro Tag, wenn es aktiv genutzt wird. Dies schliesst Aktivitäten wie Anrufe, Internetnutzung und Apps ein.
- Haushalt: Der durchschnittliche tägliche Energieverbrauch eines Haushalts in den USA liegt bei etwa 30 Kilowattstunden (kWh) pro Tag. In Deutschland, wo der Energieverbrauch durch effizientere Geräte und strengere Umweltstandards oft niedriger ist, liegt der Durchschnitt bei etwa 8-10 kWh pro Tag.
Unterschiede im Energieverbrauch zwischen verschiedenen KI-Modellen
1. Generative vs. diskriminative KI-Modelle:
Generative KI-Modelle wie ChatGPT, Midjourney oder Gemini haben einen sehr hohen Energiebedarf. Ein Beispiel ist das GPT-3-Sprachmodell, dessen Training 1.287 MWh verbraucht hat, was etwa dem Energieverbrauch von 420 durchschnittlichen deutschen Haushalten über ein Jahr entspricht (basierend auf einem durchschnittlichen Jahresverbrauch von 3.000 kWh pro Haushalt).
Diskriminative KI-Modelle, die zur Analyse und Auswertung von Daten eingesetzt werden, sind im Vergleich zu generativen Modellen energieeffizienter.
2. Grösse und Komplexität der Modelle:
Grössere und komplexere KI-Modelle benötigen mehr Rechenleistung und Energie für Training und Betrieb. Zum Beispiel verbrauchte das Training eines grossen Convolutional Neural Network (CNN) für medizinische Bildanalyse bis zu 263.000 kWh, was ungefähr dem Energieverbrauch von 88 durchschnittlichen deutschen Haushalten über ein Jahr entspricht.
3. Art der Rechenbeschleuniger:
Grafikprozessoren (GPUs) werden häufig zum Training von KI-Modellen verwendet und verbrauchen viel Energie. Eine NVIDIA Tesla V100 GPU verbraucht etwa 300 Watt pro Stunde im Vergleich zu einem durchschnittlichen Smartphone mit 2,5 Watt pro Stunde.
Spezialisierte KI-Chips wie FPGAs (Field Programmable Gate Arrays) versprechen deutliche Energieeinsparungen im Vergleich zu GPUs.
4. Verteiltes vs. zentrales Training:
Beim verteilten Training, wie Federated Learning auf Mobilgeräten, entstehen zusätzliche Energiekosten für die Übertragung der Modelle zum zentralen Server. Durch Kompression der Modelle für die Übertragung lässt sich dieser Energiebedarf jedoch reduzieren.
5. Anwendungsbereich haben einen Einfluss
KI-Modelle für Anwendungen wie Sprachübersetzung, Objekt-/Gesichtserkennung oder medizinische Bildanalyse (z.B. CNNs) haben einen besonders hohen Trainingsbedarf.
Modelle für andere Anwendungen wie Prozessoptimierung in der Industrie sind tendenziell weniger energieintensiv.
Insgesamt hängt der Energiebedarf also stark vom Typ, der Grösse, der Komplexität und dem Einsatzzweck der KI-Modelle ab.
Um KI nachhaltiger zu gestalten, müssen Entwickler:Innen den Energiebedarf von Anfang an berücksichtigen und auf effizientere Modelle, Hardware und Methoden setzen - aber wer das noch tun wird bei steigenden Hardware und Energiekosten bleibt offen.
Energieverbrauch von KI im Vergleich zu anderen Industrien
Rechenzentren, die die Infrastruktur für KI und andere digitale Technologien bereitstellen, verbrauchen heute bereits 4-5% des weltweiten Stroms. Und einigen Schätzungen zufolge könnte der KI-bedingte Stromverbrauch von Rechenzentren von derzeit 4-5% auf 30% in den nächsten Jahren ansteigen.
Bis 2030 könnten KI-Training und Datenspeicherung für 3,5% des globalen Stromverbrauchs verantwortlich sein – das 3,5-fache des heutigen Anteils aller Rechenzentren.
Der Energieverbrauch von KI-Modellen hängt von verschiedenen Faktoren ab, wie dem Typ des Modells, der Grösse und Komplexität, der verwendeten Hardware und dem Anwendungsbereich. Generative KI-Modelle wie ChatGPT, Midjourney oder Gemini, die zur Erstellung von Inhalten verwendet werden, haben in der Regel einen höheren Energiebedarf als diskriminative Modelle, die zur Analyse und Auswertung von Daten eingesetzt werden.
Je grösser und komplexer ein KI-Modell ist, desto mehr Rechenleistung und Energie benötigt es für Training und Betrieb. Beispielsweise verbrauchte das Training des sehr grossen GPT-3 Sprachmodells 1.287 MWh, so viel wie ein Atomkraftwerk in einer Stunde produziert.
Die Details: CO2-Ausstoss durch KI
Die gesamte IT-Branche verursacht derzeit angeblich 2-4% der globalen Treibhausgasemissionen, was dem Ausstoss des weltweiten Flugverkehrs entspricht. Allein das Training des Sprachmodells GPT-3 verursachte CO2-Emissionen von 552 Tonnen, was 700 Hin- und Rückflügen zwischen New York und San Francisco entsprechen würde.
Würde jede Google-Suche künftig über KI laufen, würde dies einen jährlichen Stromverbrauch von 29,3 TWh erfordern – so viel wie ganz Irland verbraucht und der damit verbundene CO2-Ausstoss entspräche dem bisherigen Verbrauch aller Krypto-Miner zusammen (zumindest die, die wir kennen).
Die Details: Wasserverbrauch durch KI
Neben dem Energieverbrauch und dem CO2-Ausstoss hat KI auch Auswirkungen auf den Wasserverbrauch. Für das Training von GPT-3 wurden 700.000 Liter Kühlwasser benötigt. Microsofts globaler Wasserverbrauch ist 2022 um 34% auf 6,4 Mrd. Liter gestiegen, bei Google um 20% auf 25 Mrd. Liter – vermutlich aufgrund des verstärkten KI-Einsatzes.
Basierend auf den vorliegenden Recherchen lässt sich zusammenfassen, dass eine einzelne Anfrage an ein generatives KI-System wie ChatGPT oder Google Gemini etwa 500 ml Wasser verbraucht. Das entspricht einer kleinen Plastikflasche Wasser für 5-50 Prompts.
Einige Kernpunkte aus meiner Recherche:
- Laut einer Studie der University of California benötigt ChatGPT ca. 500 ml Wasser für 5-50 Anfragen, je nach Standort und Jahreszeit. Darin ist auch der indirekte Wasserverbrauch z.B. für die Kühlung von Kraftwerken enthalten.
- Bei Google stiegen die Wasserverbräuche der Rechenzentren von 2021 auf 2022 um 20% auf 5,6 Mrd. Gallonen (21 Mrd. Liter). Das entspricht laut Google dem Wasser für 37 Golfplätze.
- Microsofts globaler Wasserverbrauch stieg im gleichen Zeitraum sogar um 34% auf fast 1,7 Mrd. Gallonen (6,4 Mrd. Liter).
- Expert:Innen führen diese enormen Anstiege grösstenteils auf die verstärkte Nutzung von KI zurück. Die Rechenzentren benötigen viel Wasser zur Kühlung der Server, auf denen die rechenintensiven KI-Modelle laufen.
- Zum Vergleich: Eine normale Google-Suche benötigt nur 0,5 ml Wasser. Eine KI-gestützte Suche mit Gemini wäre also fast 1000x wasserintensiver.
Insgesamt zeigt sich, dass der Wasserverbrauch einzelner KI-Anfragen zwar gering erscheint, sich aber durch die enorme Skalierung zu einem ernstzunehmenden Umweltproblem aufsummiert.
Gerade in wasserarmen Regionen geraten Tech-Konzerne so zunehmend in Konflikt mit den Bedürfnissen von Bevölkerung und Natur. Um KI nachhaltig zu gestalten, müssen dringend Wege gefunden werden, ihren Wasser-Fussabdruck zu reduzieren.
Ein paar abschliessende Zahlen zum Energie Verbrauch von KI
Hier sind die zehn Fakten, die den signifikanten Einfluss von Künstlicher Intelligenz (KI) und anderen digitalen Technologien auf den globalen Energieverbrauch und die Treibhausgasemissionen zusammenfassen:
- Rechenzentren sind heute für 4-5% des weltweiten Stromverbrauchs verantwortlich.
- Dieser Anteil steigt auf 8%, wenn man andere digitale Technologien wie Laptops und Smartphones hinzuzählt.
- Der Anteil des durch KI verursachten Stromverbrauchs von Rechenzentren könnte in den nächsten Jahren von derzeit 4-5% auf 30% ansteigen.
- Bis zum Jahr 2030 könnte der globale Stromverbrauch für KI-Training und Datenspeicherung auf 3,5% anwachsen, das entspricht mehr als dem Dreifachen des heutigen Gesamtstromverbrauchs aller Rechenzentren.
- Die gesamte IT-Branche, inklusive KI-Technologien, ist für 2-4% der globalen Treibhausgasemissionen verantwortlich, vergleichbar mit den Emissionen des weltweiten Flugverkehrs.
- Das Training des Sprachmodells GPT-3 allein verursachte 552 Tonnen CO2, was den Emissionen von 700 Flügen zwischen New York und San Francisco entspricht.
- Würden alle Google-Suchen über KI laufen, wäre der jährliche Stromverbrauch mit 29,3 TWh so hoch wie der Gesamtverbrauch Irlands.
- Der CO2-Ausstoss einer KI-basierten Google-Suche wäre vergleichbar mit dem der globalen Kryptowährungs-Miner.
- KI-Modelle zum Erstellen von Texten verbrauchen in der Regel weniger Energie als solche, die komplexe Bilder generieren oder verarbeiten.
- Maschinelles Sehen benötigt typischerweise mehr Rechenleistung – und damit auch mehr Energie – als einfache Textverarbeitungs-Aufgaben.
Aber es ist wichtig zu unterscheiden:
- Entwicklung und Training: Die Energieintensität für das Training von KI-Modellen ist enorm. Zum Beispiel benötigte das Training von GPT-3 etwa 1.287 MWh, was dem Energieverbrauch von mehreren hundert Haushalten über das Jahr entspricht.
- Betrieb: Der tägliche Betrieb von ChatGPT benötigt 564 MWh, was etwa dem 18.800-fachen des täglichen Energieverbrauchs eines durchschnittlichen Haushalts in den USA entspricht.
- Pro Nutzeranfrage: Jede Nutzeranfrage an generative KI-Modelle verbraucht etwa 3-9 Wh. Das ist bis zu 30-mal mehr als eine durchschnittliche Google-Suche.
Nochmals wichtig, ich hatte es eingangs schon erwähnt: der Energiebedarf hängt stark vom Typ, der Grösse, der Komplexität und dem Einsatzzweck der KI-Modelle ab. Um KI nachhaltiger zu gestalten, müssen Entwickler den Energiebedarf von Anfang an berücksichtigen und auf effizientere Modelle, Hardware und Methoden setzen.
Es wird besser mit dem Energievebrauch, teilweise
Es gibt verschiedene Strategien, um den Energieverbrauch bei der Verwendung von Künstlicher Intelligenz (KI) zu verringern:
- Entwicklung energieeffizienter Hardware: Forscher arbeiten an speziellen Chips wie neuromorphen Chips, die bis zu 90% weniger Energie verbrauchen als aktuelle Supercomputer. Auch Memristoren werden untersucht, die eine effizientere Datenverarbeitung direkt im Speicher ermöglichen.
- Optimierung von Algorithmen und Software: Durch Anpassung der Algorithmen und die Verwendung einfacherer Rechenprozesse, wo weniger genaue Berechnungen ausreichen, kann der Energieverbrauch gesenkt werden. Einige Unternehmen arbeiten daran, KI durch evolutionäre Algorithmen effizienter zu gestalten.
- Kombination von KI mit anderen Methoden: Die Verknüpfung von datenbasierter KI mit wissenschaftlichen Modellen und menschlichem Fachwissen kann die Effizienz erhöhen.
- Energieeffiziente Inferenz: Die energieeffiziente Ausführung (Inferenz) der trainierten KI-Modelle ist wichtig, um den Einsatz komplexer neuronaler Netze in Echtzeit-Anwendungen zu ermöglichen.
- Bewertung der Energieeffizienz: Benchmarks wie EC-NAS helfen dabei, die Energieeffizienz von KI-Modellen zu messen und zu optimieren. Auch Forscher der Universität Kopenhagen haben Richtlinien für die Entwicklung energieeffizienter KI-Modelle erstellt.
- Politische Förderung: Regierungsprogramme unterstützen Forschung und Entwicklung im Bereich umwelt- und klimafreundlicher KI-Anwendungen.
Fachleute sind sich einig, dass die Energieeffizienz ein zentrales Kriterium bei der Entwicklung von KI werden muss, um ihren ökologischen Fussbdruck zu begrenzen und eine nachhaltige Nutzung zu ermöglichen. Und durch eine Kombination technologischer Innovationen und gezielter Anreize mit gemeinsamer Verantwortung, könnte auch KI langfristig klimaverträglicher gestaltet werden.
Disclaimer: dieser Artikel wurde aufgrund der unten recherchierten Quellen geschrieben, mit Deepl Write verbessert und Mistral zusammen gefasst und vereinfacht. Das Bild stammt von IdeogramAi. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit.
Bei Fragen? #fragRoger
Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder einer Keynote / Referat.
Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger
Kennst Du schon meine fragRoger Newsletter: werde Teil einer Community und erhalte Vorzüge zu Büchern und exklusive Einladungen und vieles mehr: https://fragroger.beehiiv.com/
Quellen:
[...] https://www.dena.de/newsroom/meldungen/2024/dena-erreicht-steigerung-der-energieeffizienz-von-ki/
[...] https://krassevideos.de/blog/2024/02/28/wird-sora-das-internet-sprengen/
[...] https://www.infosperber.ch/umwelt/energieproduktion/der-unheimliche-hunger-der-ki-nach-strom/
[...] https://n3xtcoder.org/de/energy-impact-of-ai
[...] https://www.industr.com/de/je-groesser-das-ki-modell-desto-hoeher-der-energiebedarf-2748299
[...] https://www.computerweekly.com/de/feature/Generative-KI-Die-Nachhaltigkeitsprobleme-erklaert
[...] https://www.scinexx.de/news/technik/wie-viel-strom-braucht-der-ki-boom/
[...] https://hyscaler.com/insights/water-consumption-of-ai-tech-giants/
[...] https://www.scientificamerican.com/article/what-do-googles-ai-answers-cost-the-environment/
[...] https://www.securities.io/de/Ungebremster-Energieverbrauch-mithilfe-von-KI-zur-Verbesserung-der-KI/