Egyre több kutatás próbálja meg számszerűsíteni az energiafelhasználást és a mesterséges intelligenciát, még akkor is, ha a legnépszerűbb modellek mögött álló vállalatok titokban tartják szén-dioxid-kibocsátásukat.
„Az emberek gyakran kíváncsiak arra, hogy mennyi energiát fogyaszt egy ChatGPT lekérdezés” – írta Sam Altman, az OpenAl vezérigazgatója hosszú blogbejegyzésében.
Altman azt írta, hogy egy átlagos lekérdezés 0,34 wattóra energiát használ: „Körülbelül annyit, amennyit egy sütő használ el egy másodperc alatt, vagy egy nagy hatékonyságú villanykörte néhány perc alatt”.
A heti 800 millió aktív felhasználóval rendelkező (és egyre növekvő) vállalat számára egyre sürgetőbb kérdés, hogy mennyi energiát használnak fel ezek a keresések. Szakértők szerint azonban Altman adatai nem sokat jelentenek, ha az OpenAl nem közöl többet arról, hogyan jutott erre a számításra – beleértve az „átlagos” lekérdezés definícióját, azt, hogy ez magában foglalja-e a képgenerálást, és hogy Altman figyelembe veszi-e a további energiafelhasználást, például az Al-modellek képzését és az OpenAl szervereinek hűtését.

Ennek eredményeképpen Sasha Luccioni, az Al cég Hugging Face klímavezetője nem tulajdonít túl nagy jelentőséget Altman számának. „Ezt akár a seggéből is kihúzhatta volna” – mondja. (Az OpenAl nem válaszolt arra a megkeresésre, hogy további információkat kérjen arról, hogyan jutott erre a számra).
Ezt az erőfeszítést megnehezíti az a tény, hogy az olyan nagy szereplők, mint az OpenAl, kevés környezeti információt tesznek közzé. A Luccioni és három másik szerző által a héten szakértői véleményezésre benyújtott elemzés azt vizsgálja, hogy az Al-modellekben nagyobb környezeti átláthatóságra van-e szükség. Luccioni új elemzésében ő és kollégái az OpenRouter, a nagy nyelvi modellek (LLM) forgalmának vezető táblájának adatait használják, és azt találják, hogy 2025 májusában az LLM-használat 84 százaléka olyan modellekre vonatkozott, amelyekben nem volt környezeti közzététel. Ez azt jelenti, hogy a fogyasztók túlnyomórészt olyan modelleket választanak, amelyek környezeti hatásai teljesen ismeretlenek.
„Elképesztő, hogy megvehetünk egy autót, és tudjuk, hogy hány mérföldet fogyaszt gallononként, mégis minden nap használjuk ezeket az Al-eszközöket, és egyáltalán nincsenek hatékonysági mérőszámok, kibocsátási tényezők, semmi” – mondja Luccioni. „Ez nem kötelező, nem szabályozott. Tekintettel arra, hogy hol tartunk az éghajlati válsággal, ennek mindenhol a szabályozó hatóságok napirendjének élére kellene kerülnie.”
Luccioni szerint az átláthatóság hiánya miatt a nyilvánosság olyan becsléseknek van kitéve, amelyeknek semmi értelme, de amelyeket evangéliumként vesznek. Hallhatta például, hogy egy átlagos ChatGPT-kérés 10-szer annyi energiát igényel, mint egy átlagos Google-keresés. Luccioni és kollégái ezt az állítást egy nyilvános megjegyzésig vezetik vissza, amelyet John Hennessy, a Google anyavállalatának, az Alphabetnek az elnöke tett 2023-ban.
Az egyik vállalat (Google) igazgatótanácsi tagja által egy másik vállalat (OpenAI) termékéről tett állítás, amellyel nem áll kapcsolatban, a legjobb esetben is bizonytalan – Luccioni elemzése szerint azonban ez a számadat újra és újra elhangzik a sajtóban és a politikai jelentésekben.
„Az emberek egy spontán megjegyzésből tényleges statisztikát csináltak, amely a politikát és az emberek szemléletét is befolyásolja” – mondja Luccioni.
„Az igazi probléma lényege az, hogy nincsenek számaink. Tehát még a kézzel végzett számításokat is, amelyeket az emberek találnak, hajlamosak arany standardnak tekinteni, de ez nem így van.”
Az egyik módja annak, hogy megpróbáljunk bepillantani a függöny mögé a pontosabb információkért, az, hogy nyílt forráskódú modellekkel dolgozunk. Egyes technológiai óriások, köztük az OpenAl és az Anthropic, saját tulajdonban tartják modelljeiket – ami azt jelenti, hogy külső kutatók nem tudják függetlenül ellenőrizni az energiafelhasználásukat. Más vállalatok azonban modelljeik egyes részeit nyilvánosan elérhetővé teszik, lehetővé téve a kutatók számára, hogy pontosabban felmérjék a kibocsátásaikat.
A Frontiers of Communication című folyóiratban korábban közzétett tanulmány 14 nyílt forráskódú nagy nyelvi modellt értékelt, köztük két Meta Llama és három DeepSeek modellt, és megállapította, hogy egyes modellek akár 50 százalékkal több energiát használtak, mint a kutatók által adott felszólításokra reagáló más modellek az adathalmazban. Az LLM-eknek benyújtott 1000 referenciafeladat olyan témájú kérdéseket tartalmazott, mint a középiskolai történelem és a filozófia; a kérdések fele feleletválasztós formátumú volt, és csak egyszavas válaszok voltak megadhatók, míg a felét nyílt felkérésként küldték be, ami szabadabb formátumot és hosszabb válaszokat tett lehetővé. Az érvelési modellek, sokkal több gondolkodási jelet generáltak a modellben a válasz előállítása során keletkezett belső érvelés mérőszámai, amelyek a nagyobb energiafelhasználás jellemzői, mint a tömörebb modellek, állapították meg a kutatók. Ezek a modellek, talán nem meglepő módon, összetett témák esetében is pontosabbak voltak. (A tömörséggel is gondjaik voltak: A feleletválasztós fázisban például a bonyolultabb modellek gyakran több tokenes választ adtak vissza, annak ellenére, hogy kifejezett utasítás volt, hogy csak a megadott lehetőségek közül válaszoljanak).
Maximilian Dauner, a Müncheni Alkalmazott Tudományok Egyetemének PhD-hallgatója és a tanulmány vezető szerzője azt mondja, reméli, hogy az Al-használat továbbfejlődik, és elgondolkodik azon, hogyan lehetne hatékonyabban használni a különböző kérdésekben kevésbé energiaigényes modelleket. Elképzelése szerint a kisebb, egyszerűbb kérdéseket automatikusan a kevésbé energiaigényes modellekhez irányítják, amelyek még mindig pontos válaszokat adnak. „Még a kisebb modellek is nagyon jó eredményeket érhetnek el egyszerűbb feladatoknál, és nem bocsátanak ki olyan nagy mennyiségű COz-t a folyamat során” – mondja.
Néhány technológiai vállalat már most is ezt teszi. A Google és a Microsoft már korábban elmondta a WIRED-nek, hogy keresési funkcióik lehetőség szerint kisebb modelleket használnak, ami gyorsabb válaszokat is jelenthet a felhasználók számára. De általában véve a modellszolgáltatók keveset tettek azért, hogy a felhasználókat a kevesebb energiafelhasználásra ösztönözzék. Az, hogy egy modell milyen gyorsan válaszol egy kérdésre, például nagy hatással van az energiafelhasználásra – de ezt nem magyarázzák el, amikor az Al termékeket bemutatják a felhasználóknak, mondja Noman Bashir, az MIT Éghajlat és Fenntarthatóság Konzorciumának Computing & Climate Impact Fellow-ja.
„A cél az, hogy mindezt a következtetést a lehető leggyorsabban megadjuk, hogy ne kelljen elhagyni a platformjukat” – mondja. „Ha a ChatGPT hirtelen öt perc múlva kezd el válaszolni, akkor átmegyünk egy másik eszközre, amely azonnali választ ad.”