ChatGPT ist möglicherweise nicht so stromhungrig wie bisher angenommen

ChatGPT, OpenAI's Chatbot-Plattform, ist möglicherweise nicht so stromhungrig wie bisher angenommen. Aber sein Appetit hängt weitgehend davon ab, wie ChatGPT verwendet wird und welche KI-Modelle die Anfragen beantworten, so eine neue Studie.

Epoch AI, ein gemeinnütziges KI-Forschungsinstitut, hat kürzlich versucht zu berechnen, wie viel Energie eine typische ChatGPT-Anfrage verbraucht. Eine häufig zitierte Statistik besagt, dass ChatGPT ungefähr 3 Wattstunden Energie benötigt, um eine einzige Frage zu beantworten, oder etwa zehnmal so viel wie eine Google-Suche.

Epoch glaubt, dass dies eine Überschätzung ist. Unter Verwendung des neuesten Standardmodells von OpenAI für ChatGPT, GPT-4o, als Referenz fand Epoch heraus, dass die durchschnittliche ChatGPT-Anfrage etwa 0,3 Wattstunden verbraucht - weniger als viele Haushaltsgeräte.

„Der Energieverbrauch ist im Vergleich zur Verwendung normaler Geräte, zum Heizen oder Kühlen Ihres Hauses oder zum Autofahren wirklich kein großes Problem“, sagte Joshua You, der Datenanalyst bei Epoch, der die Analyse durchgeführt hat, gegenüber TechCrunch.

Der Energieverbrauch von KI - und ihre Umweltauswirkungen im Allgemeinen - ist Gegenstand kontroverser Debatten, da KI-Unternehmen ihre Infrastruktur schnell ausbauen wollen. Erst letzte Woche veröffentlichte eine Gruppe von über 100 Organisationen einen offenen Brief, in dem die KI-Industrie und Regulierungsbehörden aufgefordert wurden, sicherzustellen, dass neue KI-Datenzentren keine natürlichen Ressourcen aufbrauchen und Versorgungsunternehmen dazu zwingen, auf nicht erneuerbare Energiequellen zurückzugreifen.

You sagte TechCrunch, dass seine Analyse durch veraltete frühere Forschungsergebnisse angeregt wurde. Er wies beispielsweise darauf hin, dass der Autor des Berichts, der zu der Schätzung von 3 Wattstunden gekommen war, davon ausging, dass OpenAI ältere, weniger effiziente Chips zur Ausführung ihrer Modelle verwendete.

...

„Sie könnten versuchen, kleinere KI-Modelle wie [OpenAI's] GPT-4o-mini zu verwenden und sie sparsam auf eine Weise einzusetzen, die die Verarbeitung oder Generierung einer großen Datenmenge erfordert“, sagte You.