Das Training von künstlicher Intelligenz verbraucht eine erhebliche Menge an Energie. Chatbots und viele andere KI-Modelle zählen weltweit Hunderte von Millionen wöchentlichen Nutzern, die sie nutzen, um ihre Aufgaben einfacher zu erledigen, sei es beim Schreiben einer E-Mail oder beim Programmieren. All dies bringt erhebliche Rechnungen für Technologieunternehmen mit sich.
Visual Capitalist berichtete, dass das Training von OpenAIs Chatbot GPT-4 bis zu 62.000 Megawattstunden verbraucht hat, was den Energiebedarf von tausend Haushalten über fünf bis sechs Jahre entspricht. Dies kann bestätigt werden, wenn man sich den Energieverbrauch von Microsoft in Terawattstunden und die damit verbundenen Kohlenstoffemissionen in Millionen Tonnen CO2 in den letzten vier Jahren ansieht, gemäß dem Nachhaltigkeitsbericht des Unternehmens 2024.
In nur vier Jahren hat sich der Stromverbrauch von Microsoft mehr als verdoppelt, von 11 auf 24 Terawattstunden. Zum Vergleich: Das gesamte Land Jordanien mit einer Bevölkerung von 11 Millionen verbraucht in einem Jahr 20 Terawattstunden Strom. Dieser Anstieg des Stromverbrauchs ging mit einem Anstieg der gesamten Kohlenstoffemissionen um 42 Prozent einher, was auf einen relativ wachsenden Anteil erneuerbarer Energiequellen bei Microsoft hinweist.
Beide Trends fallen mit der Nutzung von Microsofts Azure-Plattform zusammen, die es Kunden ermöglicht, Cloud-Computing für das Training und den Betrieb von KI-Modellen durchzuführen, von denen OpenAIs ChatGPT das prominenteste ist. Tatsächlich hat Microsoft ‚Hunderte Millionen Dollar‘ in die Entwicklung von Supercomputern investiert, die ausschließlich für ChatGPT gedacht sind.
