Sam Altman, CEO-ul OpenAI, a postat pe blogul său personal că un prompt mediu trimis către ChatGPT ar consuma în jur de 0,34 watt-oră — cam cât un bec economic lăsat aprins pentru câteva minute. Asta vine într-un context în care el încearcă să arate că AI-ul devine tot mai eficient energetic. Problema? Nu a indicat nicio sursă clară sau metodologie care să confirme aceste calcule.
Tot el susține că o interogare ar consuma doar 0,32 mililitri de apă, echivalentul a mai puțin de o cincisprezecime dintr-o linguriță. Practic, el introduce ideea că, în timp, „prețul inteligenței” va ajunge să fie similar cu cel al electricității, făcând din AI o resursă la fel de accesibilă. Însă, fără un set de date publice, cifrele rămân la stadiul de retorică optimistă.
Declarațiile vin într-un moment în care impactul climatic al AI-ului devine tot mai greu de ignorat. The Washington Post cita anterior cercetători care susțineau că doar redactarea unui e-mail de 100 de cuvinte cu GPT-4 poate consuma mai multă apă decât conține o sticlă întreagă. Iar predicțiile pentru 2025 spun că AI-ul ar putea chiar depăși industria cripto la capitolul consum total de energie, ceea ce nu e o comparație tocmai flatantă.
În realitate, consumul exact variază de la centru de date la centru de date, în funcție de infrastructura locală, de mixul energetic și de tehnologiile de răcire folosite. Fără transparență și audit independent, cifrele aruncate de Altman riscă să devină instrumente de PR și nu repere reale pentru o dezbatere serioasă despre sustenabilitatea tehnologiei.


