A mesterséges intelligencia robbanásszerű fejlődése a digitális infrastruktúra minden szintjére óriási terheket ró, különösen az adatközpontokra, amelyek a modern gazdaság informatikai gerincét adják. Az egyre nagyobb MI-modellek és a rájuk épülő szolgáltatások futtatásához hatalmas számítási kapacitásra van szükség, amelynek energiaigénye világszerte gyorsan növekszik.

Az adatközpontok villamosenergia-felhasználása megközelítőleg 415 terawattórára (TWh) tehető évente, ami a globális fogyasztás mintegy 1,5 százalékának felelt meg 2024-ben. Ez nagyjából egy olyan ország éves áramigényével egyenértékű, mint Szaúd-Arábia. Az adatközpontok energiafelhasználása ráadásul az elmúlt években négyszer gyorsabban nőtt, mint a világ átlagos áramfogyasztása, részben az MI térhódítása miatt.

Ez a trend az infrastruktúra-beruházásokban is megmutatkozik: a nagy technológiai cégek és felhőszolgáltatók adatközponti beruházásai 2022 óta csaknem megduplázódtak, elsősorban az MI kapacitások bővítésének következtében.

Mindez időszerűvé teszi a kérdést: milyen kilátásokkal számolhatunk az energiahálózatokra és a fenntarthatósági célokra nézve, ha az MI tovább növeli az adatközpontok étvágyát?

Az AI forradalma és az adatközpontok energiaéhsége

Az adatközpontok energiafogyasztása sokáig stabilan alakult: a 2010-es évek közepéig alig nőtt az összfogyasztás, miközben a digitális szolgáltatások volumene robbanásszerűen bővült. 2017 környékén azonban fordulópont következett be: ekkor jelentek meg tömegesen az MI-feladatokhoz tervezett gyorsító processzorok (GPU-k) a szerverekben, ami jelentősen megnövelte az adatközpontok fajlagos energiaigényét.

Az Egyesült Államokban jól nyomon követhető ez a váltás. Míg 2014 és 2016 között az amerikai adatközpontok éves áramfogyasztása nagyjából 60 TWh szinten stagnált, 2018-ra már elérte a 76 TWh-t, ami az Egyesült Államok akkori áramszükségletének nagyjából 1,9 százalékát tette ki. Azóta az ütem egyre csak gyorsul: 2023-ban az amerikai adatközpontok energiafogyasztása már 176 TWh-ra ugrott, ami a teljes villamosenergia-felhasználás 4,4 százalékával volt egyenlő. Ezt a növekedést szinte kizárólag az MI-szerverek térnyerése okozta. A hagyományos szerverek száma és energiaigénye továbbra is csak mérsékelt (évi nagyjából 9 százalékos) növekedést mutat, ugyanakkor az MI-gyorsítókkal felszerelt szerverek villamosenergia-igénye évente körülbelül 30 százalékkal emelkedik a nemzetközi becslések szerint. Az új adatközponti energiaigény-növekmény közel felét ma már ezek a magas teljesítményű MI-szerverek adják.

Az MI hatása a földrajzi eloszlásban is érződik: az Egyesült Államok, Kína és Európa együtt a világ adatközponti villamosenergia-felhasználásának zömét adják, és várhatóan ez a következő években is így marad. Ugyanakkor bizonyos országok és régiók a globális átlagnál sokkal nagyobb terhet viselnek. Írországban például a kedvező üzleti környezet miatt az elmúlt évtizedben számos nagy adatközpont épült; ennek eredményeként 2024-re az ország villamosenergia-fogyasztásának 22 százalékát már az adatközpontok használták fel, ez az arány 2015-ben még csak 5 százalék volt. Az Európai Unió egészében az adatközpontok részesedése jelenleg átlagosan 2-3 százalék körülire tehető, vagyis az ír érték ennek közel tízszerese. A helyi villamosenergia-hálózat számára ez komoly kihívás: az ír rendszerirányító előrejelzései szerint, ha az MI által generált igény tovább bővül, néhány éven belül az adatközpontok az ország áramszükségletének akár a 30 százalékát is leköthetik.

Hasonló trend látható az Amerikai Egyesült Államok bizonyos államaiban is, az adatközpontok teljesítményigénye ott is erősen koncentrált. Egy elemzés szerint az Egyesült Államok adatközponti kapacitásának mintegy 80 százaléka mindössze 15 államban összpontosul, élükön Virginiával és Texasszal.

Nem véletlen, hogy egy 2024-es felmérésben a tíz legnagyobb amerikai áramszolgáltatóból kilenc a generatív MI térnyerésével összefüggő adatközpontokat nevezte meg a várható elektromosenergia-kereslet növekedés első számú forrásaként.

Jól mutatja az MI hatását a technológiai óriások energia- és klímamérlegére, hogy a Google éves üvegházgáz-kibocsátása 2019 óta 48 százalékkal nőtt, és a vállalat bevallása szerint ennek fő hajtóereje az MI okozta többlet energiaigény volt. A Google 2024-es fenntarthatósági jelentésében kiemelte, hogy „ahogy egyre több MI-t integrálunk termékeinkbe, az energiaigény jelentősen nő, ami megnehezítheti a kibocsátáscsökkentési céljaink elérését”. Ez a példa is rávilágít arra, hogy az MI terjedése komoly kihívás elé állítja a vállalatokat: miközben üzleti szempontból létfontosságú az MI-alapú szolgáltatások fejlesztése, ezek energiaellátását a fenntarthatósági vállalásokkal is össze kellene egyeztetni.

Az MI-modellek tréningjének és futtatásának energiaigénye

A mesterséges intelligencia, különösen a mélytanuló modellek tanítása egy rendkívül energiaintenzív folyamat. Egy-egy több tízmilliárd paraméteres nyelvi modell betanítása hónapokon át speciális hardverek ezreit foglalkoztatja folyamatosan. Ennek eredménye kézzelfoghatóan megmutatkozik az energiafogyasztásban. Az OpenAI GPT-3 nevű, 175 milliárd paraméteres nyelvi modelljének egyszeri betanításához becslések szerint mintegy 1 287 MWh energiára volt szükség. Ez az energiamennyiség megközelítőleg százszorosa egy átlagos amerikai háztartás éves villamosenergia-fogyasztásának. Az ilyen tréningek ráadásul nemcsak áramot, de hűtővizet is nagy mennyiségben igényelnek, közvetett módon akár több százmillió liter vizet is felhasználhat egy nagy adatközpont a hűtőrendszerein keresztül egy-egy MI-tréningciklus során.

Fontos hangsúlyozni azonban, hogy a modell betanítása jellemzően egyszeri energia-befektetés. Ha egy modellt egyszer betanítottak, azt utána sokszor fel lehet használni anélkül, hogy újra végig kellene vinni a teljes számításigényes folyamatot.

Ezzel szemben az inferencia, vagyis a már betanított MI-modell futtatása (amikor kérdéseket teszünk fel egy chatrobotnak vagy képeket/videókat generáltatunk vele), folyamatos és összességében akár a tanításnál is nagyobb energiafogyasztással járhat, ha a modellt széles körben használják.

Mivel egy népszerű MI-szolgáltatás naponta akár több millió vagy milliárd lekérdezést is kiszolgál, az ezekhez felhasznált összes energia idővel összeadódik, és jóval meghaladhatja a kezdeti betanítás költségét.

Bár a pontos adatok üzleti titoknak minősülnek, független elemzők megpróbálták megbecsülni a ChatGPT működtetésének energiaigényét. A SemiAnalysis elemzőcég számításai szerint a ChatGPT szolgáltatásának fenntartásához mintegy 3 617 darab NVIDIA A100 típusú, MI-gyorsításra tervezett szerverre van szükség. Egy-egy ilyen szerver maximális fogyasztása nagyjából 6,5 kW, így teljes kihasználtság mellett a ChatGPT napi szinten nagyjából 564 ezer kWh energiát emésztene fel. A valóságban a szerverek nem mennek a nap 24 órájában csúcsra járatva, és a felhasználói aktivitás is ingadozik. A SemiAnalysis a valós felhasználói minták alapján azt feltételezi, hogy a ChatGPT-nek körülbelül 13 millió napi aktív felhasználója van, akik átlagosan 15 kérdést intéznek a rendszerhez naponta. Ezekkel a számokkal kalkulálva egy ChatGPT lekérdezés energiaigénye körülbelül 0,0029 kWh körül van, azaz nagyjából tízszerese egy hagyományos Google-keresésének (a Google mérnökei szerint egy átlagos kulcsszavas internetes keresés körülbelül 0,0003 kWh energiát fogyaszt).

A fenti különbség hatalmas léptékeket jelenthet, ha a keresések milliárdos nagyságrendjét nézzük. A Google napi forgalma mintegy 9 milliárd keresés körül mozog. Amennyiben ezeket mind egy ChatGPT-szerű MI-modell szolgálná ki, a Google éves energiafogyasztása a jelenlegi nagyjából 1 TWh/év szintről 10 TWh/év nagyságrendre ugrana. Ez hozzávetőleg 4 százalékkal növelné meg az összes amerikai adatközpont együttes energiaigényét.

Érdemes kitérni arra is, hogy a különböző MI-feladatok energiaintenzitása eltérő. Egy szöveges kérdés megválaszolása a ChatGPT-vel jóval kevesebb számítást igényel, mint például egy képgenerálás vagy egy videóelemzés egy hasonló modellel.

Egy vizsgálat szerint a generatív képi MI-modellek esetén egyetlen kép létrehozása annyi energiát fogyaszt, mint egy okostelefon teljes feltöltése. Ez elsőre nem tűnik soknak, de milliós nagyságrendű képgenerálásnál már tetemes mennyiséget jelent.

Ráadásul a modellek mérete és bonyolultsága is nő: egy tanulmány szerint, ha a modell paramétereinek száma tízszeresére nő, az inferencia energiaigénye átlagosan kétszeresére emelkedik. Vagyis a skálázás nem lineáris ugyan, de így is jelentős többletet hoz.

Mindezek alapján az MI terjedésével a felhasználói oldalon jelentkező fogyasztás lesz az igazán kritikus tényező. Egy nagy nyelvi modell betanítása például lefuthat néhány hét vagy hónap alatt, de ha utána évekig szolgáltatásként működik több százmillió felhasználót kiszolgálva, az összesített energiafogyasztása az éles üzemben nagyságrendileg meghaladhatja a tanításét. Ezért a jövőben az MI energiaigényének vizsgálatakor nem elegendő csak a tréning költségekre figyelni, legalább ekkora hangsúlyt kell kapjon az üzemeltetés energiahatékonysága is.

Növekvő energiaigény: ezt mutatják az előrejelzések

A jelenlegi trendek alapján az adatközpontok energiafogyasztásának növekedése az előttünk álló években is folytatódik, sőt gyorsulhat. A Nemzetközi Energiaügynökség (IEA) modelljeinek alapforgatókönyve szerint globálisan az adatközpontok éves villamosenergia-igénye 2030-ra nagyjából 945 TWh körüli értékre nő. Ez a világ összes villamosenergia-felhasználásának akkor körülbelül 3 százalékát jelentené. Az IEA hangsúlyozza, hogy az előrejelzéseket nagy bizonytalanság övezi, ezért több forgatókönyvet is felállítottak.

Egy optimista esetben, ahol az energiahatékonyság terén áttörések történnek (például hardver- és szoftveroldalon is sikerül nagyobb mértékben javítani a hatékonyságot), ugyanekkora digitális kereslet mellett a fogyasztás lényegesen alacsonyabb is lehet. Ebben a szcenárióban 2035-re mindössze 970 TWh-ra nő az adatközpontok igénye, ami 2,6 százalék részesedést jelentene. Ezzel szemben egy Lift-Off elnevezésű, MI által fűtött forgatókönyvben, ahol a mesterséges intelligencia iránti kereslet a vártnál is erősebben nő, és az ellátási lánc rugalmasan képes kielégíteni ezt, 2035-re meghaladná az 1700 TWh-t a globális adatközponti fogyasztás, ami már a világ villamosenergia-igényének 4,4 százalékát tenné ki. Ez a felső becslés gyakorlatilag a jelenlegi szint négy-ötszörösét jelentené bő egy évtized alatt.

Az MIT egyik kutatócsoportja egy konferencián arra figyelmeztetett, hogy ha az MI-t minden lehetséges digitális szolgáltatásba integráljuk, akkor 2030 körül az adatközpontok a globális villamosenergia-fogyasztás akár 20 százalékát is kitehetik. Bár ezt sok szakértő túlzónak tartja, az egyértelmű, hogy a bizonytalanság nagy: a keresletoldali tényezők (mennyi és milyen MI-szolgáltatást használunk) és a kínálati tényezők (milyen hatékony hardwareket és szoftvereket fejlesztünk) egyaránt befolyásolják a jövő alakulását.

Az Amerikai Egyesült Államokban a kormányzati megrendelésre készült 2024-es LBNL-jelentés szintén forgatókönyv-sávokat határozott meg. Eszerint 2028-ra az amerikai adatközpontok éves fogyasztása elérheti a 580 TWh-t is (egy magas keresletű, gyenge hatékonyságjavulás esetben), de egy hatékonyabb technológiai fejlődés mellett 325 TWh körül is maradhat.

A sáv teteje az Egyesült Államok számára 6,7 és 12 százalék közötti nemzeti részesedést jelentene 2028-ban, vagyis a legrosszabb esetben az áramszükséglet nyolcadát vinnék el az adatközpontok.

Az LBNL-jelentés megjegyzi, hogy a 2010-es évek stagnálása után a 2020-as években az MI és más új hardverigényes szolgáltatások miatt az energiafogyasztás újra meredeken emelkedik. A jelentés készítői kiemelik, hogy ha a jelenlegi trend folytatódik, 2027-28-ra az adatközpontok áramigénye újra látványosan, akár évi 8-10 százalékkal is nőhet, ami a villamosenergia-ellátó rendszertől is komoly alkalmazkodást kíván.

Az Electric Power Research Institute (EPRI) 2024 májusában publikált elemzése szerint 2030-ra az amerikai adatközpontok az ország áramtermelésének 9 százalékát is felemészthetik, szemben a mostani 4 százalék körüli aránnyal. Az EPRI négy forgatókönyvet is felvázolt: a legalacsonyabb növekedésű esetben nagyjából 4,6 százalékra nő a részesedés 2030-ig, a legmagasabb esetben pedig 9,1 százalékra. A szcenáriók között a fő különbség az MI-eszközök terjedésében és a hatékonysági nyereségekben van: a pesszimista verzió szerint a generatív MI-eszközök gyors elterjedése párosul szerény hatékonyságjavulással, míg az optimista verzióban korlátozott marad az MI-kereslet és jelentős műszaki előrelépések történnek az adatközponti energiafelhasználás terén. A 9 százalék körüli érték azt jelentené, hogy az MI-központú adatközpontok lesznek az amerikai villamosenergia-igény növekedésének egyik fő mozgatórugói ebben az évtizedben.

Ezt a következtetést több más iparági előrejelzés is alátámasztja. A Goldman Sachs elemzői például 2023-ban azt prognosztizálták, hogy 2030-ra az adatközpontok energiaigénye 160 százalékkal lesz magasabb, mint 2022-ben, és a 2023-2030 közötti globális villamosenergia-kereslet növekményének közel felét ez a szektor adja majd.

Nem csak a mennyiségi növekedés, de az igények koncentrációja is komoly kérdéseket vet fel. Ahogy korábban említettük, bizonyos régiókban, országokban az adatközpontok aránya már most is kiugró (például Virginia vagy Írország). A jövőben ez tovább élesedhet. A Deloitte 2025-ös elemzése rámutat, hogy az MI-specifikus adatközpontok esetében az egységnyi területre jutó energiaigény jóval nagyobb, mint a hagyományosaknál. Egy példában egy körülbelül 2 hektáros adatközpont esetében, ha a hagyományos CPU-alapú szerverparkot kiegészítik MI-gyorsító GPU-kkal, a telephely teljesítményigénye 5 MW-ról 50 MW-ra is nőhet. Ez azt jelenti, hogy ugyanakkora alapterületen a villamos terhelés annyival nő, mintha az ember egy kisváros helyett egy nagyvárosnyi háztartást kötne rá a hálózatra.

Az MI miatti igények ugrásszerű növekedése miatt a legnagyobb felhőszolgáltatók sosem látott méretű projekteket indítanak. A jelenlegi legnagyobb adatközpontjaik egyenként néhány száz megawatt teljesítményt igényelnek, ám a tervezőasztalon már ott vannak az ennél 2-4-szer nagyobb (akár 1–2 gigawattos) létesítmények is.

Az Egyesült Államokban pedig már szó van hatalmas adatközpont-campusokról is: például egy nagyjából 200 négyzetkilométer területű adatközpont-városról, amelynek áramfelvétele elérheti az 5 GW-ot is. Ez azonos nagyságrendű egy nagyobb atomerőmű teljesítményével, és elegendő lenne ötmillió háztartás energiaellátásához.

Az ilyen létesítmények megvalósítása alapjaiban változtatná meg a villamosenergia-rendszer regionális terhelését és az infrastruktúra tervezését.

A villamosenergia-hálózat üzemeltetői már most érzékelik ezeket a változásokat. Egyes területeken hálózati feszültségingadozásokat tapasztaltak, és előfordult, hogy a megnövekedett terhelés miatt rendkívüli intézkedéseket kellett bevezetni (például a szolgáltató kapacitásnövelő beruházásokat indított vagy új fogyasztók csatlakozását átmenetileg korlátozta). Az Egyesült Államokban több helyen adtak ki figyelmeztetést a hatóságok a rácsatlakozási igények drasztikus növekedése miatt, mivel a több száz megawattos új adatközpontok 1-2 éven belüli bekapcsolása komoly feszültséget okoz a regionális ellátásbiztonságban.

A villamosenergia-szektor és az adatközpont-üzemeltetők közti együttműködés így kulcskérdéssé válik: az EPRI-jelentés szerint szoros egyeztetésre van szükség a tervezett létesítmények kapcsán a kapacitásigények, ütemezés és rugalmasság terén. Emellett javasolják új modell- és előrejelző eszközök kifejlesztését, hogy a hálózati tervezők jobban lássák előre az ilyen nagyméretű, koncentrált terhelések hatását.

Mi lehet a megoldás?

Az MI és az adatközpontok energiaéhségének kihívására már most is számos lehetséges megoldás létezik. Az egyik legkézenfekvőbb megoldás, hogy több számítást végezzünk ugyanannyi energiával, azaz javítsuk az energiahatékonyságot. A félvezetőipar folyamatosan fejleszti az MI-feladatokra specializált chipeket, amelyek új generációi típustól függően jelentősen több műveletet képesek elvégezni wattonként, mint elődeik. Emellett kísérleti jelleggel fejlesztés alatt állnak új chip-architektúrák, amelyek hosszabb távon akár nagyságrendi áttörést is hozhatnak a számítási energiahatékonyságban.

A szoftveres oldalon is sok tartalék rejlik: az algoritmusok optimalizálása, a kód hatékonyabbá tétele, valamint a jobb kihasználtság mind csökkentheti az egyes műveletek energiaigényét. Külön kutatási terület foglalkozik a Green AI megközelítéssel, amelynek célja, hogy az MI modelleket és tanítási eljárásokat az energiafogyasztás minimalizálását szem előtt tartva tervezzék meg.

Azt is érdemes szem előtt tartani, hogy az energiafogyasztás jelentős része nem magára a számításra, hanem az ahhoz szükséges háttérinfrastruktúrára megy el, különösen a hűtésre. A szerverek által felvett villamos energia nagy része végül hővé alakul, amit el kell vezetni, különben a berendezések túlmelegednek. A hűtés energiaigényének mérésére vezették be a PUE (Power Usage Effectiveness) mutatót, ami azt fejezi ki, hogy az adatközpont összes felvett energiájának hányszorosát fogyasztják a számítógépek önmagukban. Egy ideális rendszerben a PUE értéke 1,0 lenne, a gyakorlatban azonban ennél mindig nagyobb.

A jó hír, hogy az iparág az elmúlt két évtizedben rengeteget fejlődött ezen a téren: bizonyos adatközpontok ma már akár 1,1–1,2 közötti PUE-értékeket is elérnek, azaz mindössze az energia 10-15 százaléka megy el hűtésre, világításra stb.

A nagy szolgáltatók (Google, Microsoft, Amazon) évente beszámolnak adatközpontjaik átlagos PUE-értékéről, amelyek jellemzően évről évre csökkennek az új technológiák bevezetésével.

Biztató fejlemény az is, hogy az adatközpontok által felvett energia túlnyomó többsége hővé alakul, amit régebben egyszerűen „kidobták” a környezetbe, manapság azonban egyre több helyen tekintenek erre erőforrásként, amit érdemes visszanyerni és felhasználni. Skandináviában több nagy adatközpont távfűtési rendszerbe kapcsolódik be, azaz a szerverfarmok hője lakóházak és irodák fűtését segíti. A hulladékhő hasznosításának látványos példája valósult meg a 2024-es párizsi olimpia kapcsán is: az Equinix adatközpontja a megtermelt hőenergiát átadta egy hőszivattyús rendszeren keresztül a párizsi olimpiai falunak és uszodának, így azok vizének melegen tartásához minimális hagyományos fűtés kellett. Hasonló kezdeményezések indultak máshol is, Hollandiában és Németországban például terveznek olyan új negyedeket, ahol az adatközpontok hője alapból be lesz kötve a fűtési rendszerekbe.

Azt is fontos leszögezni, hogy az energiafogyasztás növekedése önmagában nem feltétlenül jelent környezeti terhelést, ha azt tiszta forrásokból fedezik. A nagy tech cégek ennek szellemében az elmúlt években célul tűzték ki, hogy adatközpontjaikat 100 százalékban megújuló energiával vagy ahhoz egyenértékű karbonsemleges forrással működtetik. Gyakorlati szempontból ez sokszor úgy valósul meg, hogy a cég hosszú távú áramvásárlási megállapodásokat köt napelem- vagy szélerőmű projektekkel, ezzel biztosítva, hogy a hálózatba visszatöltve legalább annyi zöld áram termelődjön, mint amennyit a szerverfarm kivesz. Ez a megoldás nem csökkenti magát az energiaigényt, de csökkenti a karbonlábnyomot, vagyis a kibocsátott szén-dioxid mennyiségét.

A jövőben kulcskérdés lesz, hogy az adatközpontok mennyire tudnak majd folyamatosan zöld energiával menni, hiszen a nap- és szélenergia természete ingadozó, miközben a szerverek a hét minden napján 24 órában üzemelnek. Ennek áthidalására a Google például célul tűzte ki, hogy 2030-ra minden adatközpontja minden órában szén-dioxid-semleges forrásból kapjon áramot, ne csak éves átlagban. Ennek eléréséhez fejlett előrejelzéseket és ütemezési algoritmusokat vetnek be, amelyek bizonyos kevésbé sürgős feladatokat át tudnak csoportosítani olyan időpontokra vagy helyszínekre, ahol éppen van felesleges megújuló kapacitás.

Végezetül az adatok és a transzparencia szerepe is kulcsfontosságú. Jelenleg ugyanis kevés kötelezettség van az adatközpontok energia- és vízfogyasztásának nyilvános nyomon követésére. A nagy felhőszolgáltatók önként közölnek bizonyos mutatókat, azonban például egyetlen nagy nyelvi modell betanításának pontos energia-lábnyoma sem ismert, mivel a cégek üzleti titokként kezelik ezeket az információkat.

Szakértők szerint a tervezés és szabályozás szintjén is gondot okoz ez az adathiány. Nehéz ugyanis megfelelő hálózatfejlesztési döntéseket hozni vagy környezeti szabályokat alkotni, ha a döntéshozók nem látnak tisztán. A Brookings Institution egy elemzésében hangsúlyozta, hogy ahogy az MI rendszerek energiaigénye nő, elengedhetetlen lesz a nagyobb vállalati átláthatóság kikényszerítése ezen a téren.

Az Európai Unió is vizsgálja, hogy az MI-algoritmusokra vonatkozóan legyenek-e jelentési kötelezettségek az energiafelhasználásról és a kibocsátásról. A transzparencia növelése segítene tudatosabb használati módokat kialakítani, valamint lehetővé tenné, hogy a politikai döntéshozók is időben lépjenek, ha bizonyos régiókban túl gyorsan nő a terhelés és veszélybe kerül az ellátás biztosítása.