Ist die Benutzung von stromfressenden KI-Chatbots zu rechtfertigen?
Erschienen am 06.11.2023 im RP-Energie-Blog (als E-Mail-Newsletter erhältlich!)
Permanente Adresse: https://www.energie-lexikon.info/rp-energie-blog_2023_11_06.html
Autor: Dr. Rüdiger Paschotta, RP-Energie-Lexikon, RP Photonics AG
Inhalt: Die Entwicklung und teils auch die Benutzung von KI-Chatbots verbraucht viel Strom, wobei man aber für sachgerechte Einschätzungen schräge Vergleiche vermeiden muss. Die Analyse zeigt, dass selbst die regelmäßige Benutzung solcher Chatbots den persönlichen ökologischen Fußabdruck nicht nennenswert vergrößert. Trotzdem muss die Entwicklung des Energieverbrauchs von KI kritisch im Auge behalten werden.
Man liest immer mal wieder, dass Systeme für "Künstliche Intelligenz" (KI) einen enormen Energieverbrauch verursachen und damit auch sehr klimaschädlich sind. Für jemanden wie mich, der darauf bedacht ist, seinen ökologischen Fußabdruck im Allgemeinen und die von ihm zu verantwortenden Klimaschäden im Besonderen zu minimieren, ist das natürlich ein sehr wichtiges Thema – zumal Chatbots für mich im beruflichen und teilweise auch privaten Bereich durchaus sehr nützlich sind, etwa bei IT-Fragen. Wenn ich zum Beispiel ein Skript in einer Programmiersprache entwickeln muss, die ich nicht so oft benutze, geht das mit ChatGPT oft viel einfacher und schneller. Aber lässt sich dies noch verantworten?
Energieverbrauch für die Entwicklung
Tatsache ist, dass "künstliche Intelligenz" häufig und insbesondere auch bei den bekannten Chatbots auf künstlichen neuronalen Netzen beruht, die sehr rechenintensiv sind, weil sie riesige Datenmengen verarbeiten müssen. Vor allem müssen diese Netzwerke aufwändig "trainiert" werden, was Großrechner oft für etliche Monate voll beschäftigt. Auch die spätere Anwendung benötigt einen relativ leistungsfähigen Rechner (in der Regel irgendwo "in der Cloud", also in einem Rechenzentrum), ist aber tendenziell weniger ressourcenhungrig.
Wie gravierend das ist, hängt stark von der Größe des jeweiligen neuronalen Netzes ab, aber auch deutlich von der dafür verwendeten Technologie und natürlich davon, ob Ökostrom verwendet wird (was zunehmend der Fall ist, auch wenn teils Greenwashing betrieben wird).
In diesem Artikel möchte ich mich auf die populären KI-Chatbots wie ChatGPT und Bard konzentrieren. Diese sind einerseits technisch sehr aufwendig und werden andererseits sehr häufig eingesetzt. Was genau folgt daraus?
Zunächst einmal war der Energieaufwand für das Training von GPT-4 (die Grundlage des Chatbots ChatGPT-4) erheblich, da über mehrere Monate hinweg hohe Rechenkapazitäten belegt werden mussten. Laut Bard waren das etwa 7200 MWh (Megawattstunden). Das entspricht in etwa dem jährlichen Stromverbrauch von ein paar tausend Einfamilienhäusern (ohne Elektroheizung und Elektroboiler) und klingt daher auf den ersten Blick beeindruckend viel. Allerdings sind gerade solche Vergleiche völlig ungeeignet, um die Schwere des Problems sinnvoll einzuschätzen. Der Grund dafür ist, dass ChatGPT weit über 100 Millionen regelmäßige Nutzer hat, also einen erheblichen Nutzen produziert, der nicht nur ein paar tausend Leuten zugute kommt, sondern viel mehr. Dieser Nutzen hält so lange an, bis diese Version durch die nächste ersetzt wird – grob geschätzt nach einem Jahr – auch wenn die alte Version teilweise noch für einfachere Aufgaben genutzt wird (derzeit z.B. GPT-3.5). Jedenfalls wird deutlich, dass der Energieverbrauch und die Klimabelastung für die Erstellung von ChatGPT pro häufigem Nutzer gar nicht so hoch sind.
Energieverbrauch bei der Nutzung
Der Energieverbrauch bei der Nutzung (dh beim Beantworten der Prompts) sollte ähnlich bewertet werden. Der Verbrauch pro Prompt dürfte in der Gegend von 0,002 kWh liegen. (Zwar muss während der Beantwortung mit einer Leistung von einigen hundert Watt gerechnet werden, also mit wesentlich mehr als für den eigenen PC, aber nur für kurze Zeit). Auch das ist nicht dramatisch – für meine heutige Nutzung z. B. deutlich weniger als mein PC und Bildschirm verbrauchen, was wiederum nur einen sehr kleinen Teil unseres Haushaltsverbrauchs ausmacht. Ich sehe also ein an sich sehr gutes Verhältnis zwischen dem für mich ganz erheblichen Nutzen (eine oft stark erhöhte Arbeitsproduktivität) und dem eher marginalen Energieverbrauch. Übrigens kann eine höhere Arbeitsproduktivität auch zu einer kürzeren Nutzungszeit des PCs führen und damit evtl. sogar Strom sparen.
Günstig ist bei den großen KI-Anbietern außerdem, dass gerade wegen der sehr intensiven Nutzung auch der Energieaufwand für das Training, umgerechnet auf die einzelne Nutzung, hier relativ gering ist. Man investiert zunächst einiges, holt dann aber auch sehr viel heraus.
Fazit
Eine aufschlussreiche Schlussfolgerung aus diesen Betrachtungen kann sein, dass man den Energieverbrauch für irgendeine Aktivität jeweils mit dem erzeugten Nutzen vergleichen muss, um sinnvolle Resultate zu erzielen. Was Millionen von Menschen hilft, ist anders zu bewerten, als was nur wenigen nützt.
Ganz konkret kann man sehen, dass keine Gewissensbisse angezeigt sind, wenn man gelegentlich oder sogar regelmäßig KI-Chatbots (in der Cloud) nutzt. Wer sich z. B. bei der Ausarbeitung eines komplizierten Dokuments mit etlichen KI-Prompts eine Stunde Arbeit am PC sparen kann, spart unter dem Strich wahrscheinlich sogar etwas Energie. Viel wichtiger ist ohnehin, wie man heizt und welche Verkehrsmittel man wie viel nutzt. Die Nutzung von KI-Chatbots ist ebenso wenig "das neue Fliegen" wie das in einem früheren Artikel analysierte Video-Streaming.
Allerdings darf nicht verallgemeinert werden, dass der Energieverbrauch von KI generell kein Problem sei. Die Nutzung solcher Werkzeuge nimmt rasant zu, was trotz gewisser Effizienzfortschritte zu einem stark steigenden Verbrauch führt. Problematisch ist hier insbesondere, dass der Einsatz oft sehr ineffizient erfolgt: schlecht geplant, daher mit an sich unnötigen Wiederholungen und auch für unwichtige Zwecke. Wie bei Warmwasser, Auto und Stromverbrauch im Haushalt sollte man auch bei KI ein Gespür dafür entwickeln, was sinnvoll ist, und seine Nutzungsgewohnheiten entsprechend optimieren. Ich käme z. B. nicht auf die Idee, mir selbst einen leistungsstarken Rechner anzuschaffen, um darauf als Hobbyist KI-Systeme mit hohem Energieaufwand zu entwickeln oder zu testen; solche Aktionen könnten sich leicht deutlich auf den persönlichen CO2-Fußabdruck auswirken, möglicherweise ohne einen nennenswerten Nutzen zu bringen. Ebenso würde ich nicht routinemäßig KI-Chatbots einsetzen, wo z. B. eine einfache Google-Suche genügt (die wesentlich weniger Energie braucht). Wir sollten also bei der weiteren Entwicklung den Energieverbrauch durchaus sorgsam im Auge behalten und insbesondere ineffiziente und wenig nützende Anwendungen meiden. Auf der anderen Seiten gibt es auch ein großes Potenzial für sinnvolle Anwendungen, die womöglich viel mehr Energie einsparen helfen, als sie selbst verbrauchen.
P.S.: Falls es wieder Leute gibt, sich über den hier verwendeten Begriff "Energieverbrauch" aufregen, empfehle ich diesen die Lektüre des Artikels "Energieverbrauch – gibt es so etwas überhaupt?".
Wenn Ihnen diese Website gefällt, teilen Sie das doch auch Ihren Freunden und Kollegen mit – z. B. über Social Media durch einen Klick hier:
Diese Sharing-Buttons sind datenschutzfreundlich eingerichtet!