Choć o rozwoju sztucznej inteligencji mówi się w Polsce całkiem dużo, to o jego energetycznym wymiarze raczej niewiele. Inaczej jest w przypadku debaty publicznej, która toczy się w zachodniej Europie czy w USA, gdzie media niemal codziennie donoszą o kolejnych wydarzeniach związanych z inwestycjami w centra danych.
Budowa centrów w ostatnich latach mocno przyspieszała z uwagi na rozwój usług cyfrowych. Natomiast perspektywy związane ze sztuczną inteligencją, która wymaga bardzo dużych mocy obliczeniowych, sprawia, że sektor data center wrzucił piąty bieg. Jak ten cyfrowo-energetyczny wyścig wygląda z perspektywy zarówno globalnej, jak i polskiej?
Energochłonne centra danych
W styczniu tego roku Międzynarodowa Agencja Energetyczna w raporcie “Electricity 2024. Analysis and forecast to 2026” prognozowała, że zapotrzebowanie na energię elektryczną ze strony centrów danych, sztucznej inteligencji oraz kryptowalut może się podwoić do 2026 r.
– Centra danych są istotnym czynnikiem wzrostu zapotrzebowania na energię w wielu regionach. Po tym, jak w 2022 r. zużyły one na całym świecie około 460 TWh energii, w roku 2026 r. mogą potrzebować już ponad 1000 TWh. Odpowiada to mniej więcej zapotrzebowaniu na energię Japonii. Zaktualizowane przepisy i bardziej wydajne technologie będą miały kluczowe znaczenie dla ograniczenia energochłonności centrów danych – podkreśliła MAE w raporcie.
Z jej wyliczeń wynika, że na całym świecie istnieje ponad 8 tys. centrów, z czego około 33 proc. znajduje się w USA, 16 proc. w Europie i blisko 10 proc. w Chinach. Na rynku amerykańskim zapotrzebowanie centrów na energię zwiększy się w latach 2022-2026 z ok. 200 do 260 TWh, co przekłada się na ogólny udział w zapotrzebowaniu energię na poziomie kolejno 4 i 6 proc.
W USA wzrost sektora sprawia, że ostatnio coraz częściej mówi się o wydłużeniu harmonogramu wyłączania elektrowni węglowych. Centra danych wymagają stabilnych i nieprzerwanych dostaw energii, a te wciąż w największym stopniu zabezpiecza – mimo rozwoju magazynów – energetyka konwencjonalna, węglowa i gazowa. Jej emisyjność to jednak problem dla koncernów technologicznych, które od CO2 chcą być wolne, dlatego Microsoft czy Amazon analizują zasilanie swoich obiektów w przyszłości małymi modułowymi reaktorami jądrowymi (SMR).
Jak na razie do zazieleniania miksów energetycznych są wykorzystywane przed wszystkim umowy PPA na dostawy energii z OZE, których tzw. Big Tech w skali globalnej jest głównym odbiorcą. W maju Microsoft ogłosił największą w historii umowę PPA z firmą Brookfield, dzięki której do 2030 r. ma powstać łącznie 10,5 GW mocy w fotowoltaice i wiatrakach na potrzeby zasilania centrów koncernu na całym świecie.
W tej perspektywie czasowej Microsoft od paru lat planował, że będzie już tak bardzo zdekarbonizowany, że będzie generował ujemne emisje. Jednak z powodu rozwoju m.in. sztucznej inteligencji i budowy nowych centrów danych emisje koncernu w 2023 r. były o ponad 30 proc. wyższe niż w 2020 r. W sumie Microsoft miał być w ubiegłym roku odpowiedzialny za wyemitowanie ponad 15 mln ton CO2, co dla porównania odpowiada łącznym emisjom w tym czasie cementowni i hut stali w Polsce.
Wracając do raportu MAE, to w 2022 r. w Unii Europejskiej zużycie energii przez centra danych wynosiło 100 TWh (ok. 4 proc. ogólnego zapotrzebowania, a do 2026 r. ma się zwiększyć do blisko 150 TWh (ponad 5 proc.). W Europie działało ok. 1240 centrów, z czego większość była położona w takich lokalizacjach jak Frankfurt, Londyn, Amsterdam, Paryż i Dublin.
Przykład tego ostatniego miasta jest szczególnie ciekawy, gdyż relatywnie niewielkie państwo jak Irlandia w ostatnich latach stało się jednym głównych miejsc, w których inwestują w centra największe koncerny technologiczne. W efekcie już w 2022 r. odpowiadały one za ponad 15 proc. irlandzkiego zapotrzebowania na energię, a w 2026 r. ten udział ma wynosić już ponad 30 proc.
Natomiast w Chinach MAE przewiduje, że zapotrzebowanie na energię w tym sektorze wyniesie w 2026 r. ok. 300 TWh wobec 220 TWh w 2022 r., co w obu przypadkach oznacza niespełna 3-procentowy udział w zapotrzebowaniu Chin na energię elektryczną.
Gigawat w dekadę
Z danych, które portalowi WysokieNapiecie.pl udostępniła firma doradcza PMR, wynika, że w 2023 r. moc przydzielona centrom danych w Polsce wyniosła 173 MW i urosła względem 2022 r. o prawie 43 proc. Z kolei prognoza na 2030 r. wynosi co najmniej 500 MW, co przekłada się na skumulowany roczny wskaźnik wzrostu (CAGR) na poziomie 25 proc.
Bardzo ciekawe są także prognozy Polskich Sieci Elektroenergetycznych, zawarte z Planie Rozwoju na lata 2025-2034. Spółka przewiduje w swoim modelu, że na koniec tego okresu centra danych będą mieć 1063 MW mocy, a ich zużycie energii będzie będzie wynosić 9,3 TWh.
Dla porównania jest to delikatnie więcej niż PSE założyły łącznie w scenariusz swobodnej transformacji dla pomp ciepła (5,6 TWh) oraz elektromobilności (3,5 TWh). W scenariuszu dynamicznej transformacji ta dwójka jest już górą, bo przypada na nie kolejno 10,9 TWh oraz 5,1 TWh.
Jaki wobec tego za dekadę może być udział centrów danych w krajowym zużyciu energii? PSE przewiduje, że ogólne zapotrzebowanie kraju w scenariuszu swobodnej transformacji wyniesie 190-225 TWh, a dynamicznym 202-237 TWh. Jeśli w obu opcjach suwak ustawimy mniej więcej w połowie wskazanych zakresów, to centra danych będą odpowiadać za ok. 4,2-4,5 proc. zużycia energii elektrycznej w Polsce.
Jak centra z perspektywy zarządcy sieci postrzega PSE? Maciej Wapiński, rzecznik spółki, informuje, że choć obiekty te wpływają na wzrost zapotrzebowania na moc i energię, to jednocześnie charakteryzują się stosunkowo płaskim i przewidywalnym profilem zapotrzebowania. W efekcie są elementem stabilizującym zapotrzebowanie i nie powodują dodatkowych problemów.
Jednocześnie wpływają na plany inwestycyjne operatora, który musi wybudować infrastrukturę przesyłową, umożliwiającą rozwój sieci dystrybucyjnych niezbędnych do przyłączenia centrów.
– Plan rozwoju zakłada budowę w pobliżu aglomeracji nowych stacji, które umożliwią operatorom systemów dystrybucyjnych przyłączenie dużych odbiorców na terenach miejskich. Stąd m.in. plany budowy nowych stacji w pobliżu Warszawy czy Poznania – mówi naszemu portalowi Maciej Wapiński.
Polska regionalnym liderem
Paweł Olszynka, dyrektor działu analiz rynku ICT w PMR, zaznacza, że dostępność mocy przyłączeniowych jest krytycznym elementem rozwoju rynku centrów danych.
– Problem narasta zwłaszcza w kontekście rosnącej koncentracji kapitału i zapytań o rynek warszawski. Obecnie nierzadko, żeby w ogóle móc myśleć o nowej inwestycji lub poważnej rozbudowie, należy w pierwszej kolejności założyć budowę GPZ, co – obok znacznie wyższych kosztów – wydłuża proces inwestycyjny – wyjaśnia Olszynka portalowi WysokieNapiecie.pl.
Jednocześnie podkreśla, że polski rynek doświadcza zwiększonego popytu na budowę i modernizację pomimo takich czynników jak pandemia czy wojna za wschodnią granicą. Przekłada się to m.in. na zainteresowanie strony profesjonalnych firm, wyspecjalizowanych w obrocie i zarządzaniu nieruchomościami, które poszukują gruntów pod nowe obiekty – szczególnie w regionie warszawskim.
– Wysoka dostępność kapitału i zapotrzebowanie ze strony tzw. hiperskalerów powodują, że inwestorzy w Polsce nierzadko muszą mierzyć się z opóźnieniami w dostawach. Polski rynek mimo dynamicznego rozwoju jest relatywnie niewielki, a w efekcie nie jest tak priorytetowy dla producentów jak kraje azjatyckie, USA czy największe rynki europejskie – tłumaczy Olszynka.
W Polsce – jak dodaje ekspert – są już obecni liderzy światowego rynku data center. Wśród nich są Equinix, EdgeConneX, Data4 i Vantage Data Centers, a także globalni giganci cyfrowi jak Microsoft i Google. Do tego dochodzą inwestorzy finansowi, fundusze i banki, którzy dostrzegają w tym sektorze potencjał do lokowania kapitału.
– Polska jest hubem rozwoju w całym regionie środkowo-europejskim i zdecydowanie największym i najbardziej dynamicznie rosnącym rynkiem – stwierdza Paweł Olszynka.
Ile kosztuje budowa takiego obiektu? Według eksperta PMR obecnie szacunkowy koszt dla przedsięwzięć w Polsce można określić na ok. 10 mln euro za MW. Zatem jeśli centrum ma posiadać przykładowo 8 MW mocy, to przybliżony koszt inwestycji to ok. 80 mln euro. W innych częściach świata koszty mogą być odmienne z uwagi na lokalne uwarunkowania.
Megabajty przekuć w megadżule
Sektor rozwija się w Polsce na tyle dynamicznie, że w połowie 2023 r. powołał swoją organizację branżową – stowarzyszenie Polish Data Center Association (PLDCA), które ma pomóc jeszcze bardziej ten rozwój przyspieszyć.
– Mamy wrażenie, że świadomość zalet i dynamiki polskiego rynku nie jest wystarczająca, szczególnie wśród inwestorów zagranicznych, co może ograniczać napływ inwestycji – szczególnie w kontekście rosnącego globalnego popytu związanego z obiektami wspierającymi sztuczną inteligencję – mówi nam Piotr Kowalski, dyrektor zarządzający PLDCA.
– Tylko wokół Berlina w ostatnich latach realizowane są projekty o łącznej mocy ok. 450 MW. To pokazuje, jak duża jest przestrzeń do rozwoju na polskim rynku. Prognozy PSE, mówiące o ponad 1 GW w 2034 r., uważam za realne, gdyż planów dotyczących dużych inwestycji – nawet o trzycyfrowych mocach – systematycznie przybywa – zaznacza Kowalski i dodaje, że według jego obserwacji koszty budowy wahają się na poziomie 8-12 mln dolarów za MW, w zależności od lokalizacji i wielkości projektu.
Kowalski podkreśla, że miks energetyczny jest kluczową kwestią, która wpływa na pozycję Polski na globalnym rynku data center. W tej branży działają międzynarodowe koncerny, które mają bardzo wyśrubowane zobowiązania dekarbonizacyjne. Dlatego mając do wyboru kilka lokalizacji w danym regionie najczęściej decydują się na kraje posiadające bardziej zdekarbonizowaną energetykę.
– Przykładem są państwa skandynawskie, gdzie rynek data center szybko rośnie dzięki atrakcyjnym cenom energii elektrycznej i niskiemu śladowi węglowemu tamtejszej energetyki – tłumaczy Kowalski.
Jednym z kluczowych priorytetów PLDCA jest współpraca z elektroenergetyką oraz ciepłownictwem. Stowarzyszenie uważa, że tylko w ten sposób może stworzyć atrakcyjny rynek na poziomie międzynarodowym.
– Branża należy do bardzo energochłonnych, więc cena i ślad węglowy energii elektrycznej są kluczowe dla naszej konkurencyjności. Do tego dochodzi również rozwój sieci elektroenergetycznej, potrzebnej do przyłączania nowych obiektów. W przypadku sieci światłowodowych infrastruktura w Polsce jest przygotowana na rozwój sektora – zaznacza Kowalski.
Dodaje przy tym, że Polska ma jeden z największych w Europie systemów ciepłowniczych, co stwarza dużą szansę na spożytkowanie ciepła odpadowego z centrów danych do zasilania sieci ciepłowniczych. Zwłaszcza, że z czasem będzie rosło zapotrzebowanie na centra o dużej mocy, pracujące na potrzeby sztucznej inteligencji.
– Serwery w tego typu obiektach będą chłodzone cieczą, która może nagrzewać się nawet do 50 stopni Celsjusza. Stanowi to atrakcyjną temperaturę dla ciepłownictwa – konkurencyjną nawet w stosunku do niskotemperaturowej geotermii – ponieważ wymaga stosunkowo niewielkiego nakładu energetycznego przed zasileniem sieci grzewczej. Rozwój sieci ciepłowniczych w kierunku rozwiązań niskotemperaturowych tylko wzmocni ten trend i atrakcyjność ciepła odpadowego z centrów przetwarzania danych – uważa Kowalski.
Zobacz także: Energochłonne centra danych mogą pomóc nas ogrzać
Koszty chłodzenia centrów przetwarzania danych to drugi – po samych serwerach – najwyższy koszt w tego typu obiektach. Zdaniem Kowalskiego polski umiarkowany klimat można postrzegać jako jeden z atutów, który będzie działał na korzyść sektora – przede wszystkim w stosunku do państw z południowej Europy, gdzie chłodzenie wymaga znacznie większej ilości energii.
Dodatkowo, w tych krajach nie ma rozwiniętych sieci ciepłowniczych, pozwalających na spożytkowanie ciepła odpadowego i poprawienia w ten sposób śladu węglowego całego “ekosystemu”.
– W dalszej przyszłości odpowiedzią na potrzeby centrów danych, zwłaszcza tych o trzycyfrowych mocach, mogą być małe modułowe reaktory jądrowe. Takie źródło pozwoliłoby zapewnić bezemisyjne i stabilne dostawy energii, a także potencjalnie otworzyć drogę do dalszych optymalizacji śladu węglowego rozwiązań technologicznych będących standardem w branży. Reaktory modułowe, zapewniłyby też niezbędną dla tej branży ciągłość działania – przewiduje dyrektor zarządzający PLDCA.
Unia podkręca efektywność centrów danych
Energetyczny wymiar branży został już dostrzeżony przez unijnych legislatorów. Znowelizowana dyrektywa w sprawie efektywności energetycznej (EED) nałożyła nowe obowiązki dotyczące raportowania na operatorów centrów danych o mocy powyżej 500 kW.
– Dyrektywa EED to obecnie jeden z głównych tematów w branży, bo już od września tego roku wprowadza ona pierwsze obowiązki dotyczące raportowania danych dotyczących energochłonności obiektów. Do tego będziemy podlegać obowiązkom związanym z audytami energetycznymi i systemami zarządzania energią. Świadomość nowych przepisów w branży jest wysoka, a monitorowanie zużycia energii to kluczowy aspekt zarządzania centrami danych – mówi Piotr Kowalski.
– Raportowanie i agregowanie tych danych na poziomie Unii Europejskiej jeszcze bardziej zwiększy presję na optymalizację energetyczną branży i rywalizowanie w tej dziedzinie. Zwłaszcza, że niektóre kraje, np. Niemcy, narzucają jeszcze wyższe wymagania (od 300 kW mocy – red.) dotyczące efektywności energetycznej niż przepisy unijne – dodaje.
Pęd do zwiększania efektywności potwierdzają też przedstawiciele firm, które dostarczają infrastrukturę wykorzystywaną w centrach danych.
– Nakłady związane z chłodzeniem potrafią generować 30-40 proc. rachunków za energię elektryczną. Jedną z kluczowych kwestii jest więc wykorzystanie przez centra alternatywnych metod chłodzenia, które obejmują system wody lodowej w obiegu zamkniętym, aby uniknąć marnowania wody. Wykorzystuje on schłodzoną wodę jako medium do usuwania ciepła z serwerów i innego sprzętu – tłumaczy Paweł Poziemski, inżynier aplikacyjny w spółce Vertiv.
Dodaje, że systemy te są zwykle bardziej energooszczędne w porównaniu z tradycyjnymi, wykorzystującymi chłodzenie powietrzem, ponieważ woda ma lepszą zdolność do przewodzenia ciepła. Jednocześnie operatorzy centrów powinni pamiętać o stosowaniu czynników chłodniczych o niskim GWP, czyli współczynniku ocieplenia globalnego.
Rozwój sztucznej inteligencji jeszcze bardziej zwiększy wyzwania dotyczące chłodzenia, gdyż potrzebuje ona dużych mocy obliczeniowych, a to zwiększa generację ciepła. Centra mogą również wdrażać systemy dynamicznego zarządzania energią.
– Wykorzystując zaawansowane algorytmy i sztuczną inteligencję mogą przewidywać obciążenia i zarządzać nimi bardziej efektywnie, zapewniając optymalne zużycie energii. Zmniejsza to niepotrzebne zużycie energii i pomaga zrównoważyć obciążenie sieci energetycznej, zwłaszcza w przypadku integracji OZE – wyjaśnia Poziemski.
Władysław Szewczuk, menadżer produktu w firmie Eaton, w kontekście rozwoju i optymalizacji centrów przetwarzania danych wskazuje, że inwestorzy wybierają pomiędzy budową nowych a modernizacją istniejących obiektów.
– Jeśli wzrost zapotrzebowania na moc obliczeniową można zapewnić w istniejącej lokalizacji, wtedy operator stawia na modernizację. W tym przypadku potrzebne jest przede wszystkim zmniejszenie wymiarów urządzeń zasilających w celu zapewnienia większej przestrzeni na urządzenia obliczeniowe. Te działania najczęściej koncentrują się na wymianie starych UPS-ów (systemy zasilania awaryjnego – red.) wykonanych w topologii transformatorowej na nowe beztranformatorowe. Pozwala to znacznie zmniejszyć nie tylko wymiary, ale również wagę tych urządzeń – mówi Szewczuk.
– Możemy też spotkać się z wymianą klasycznych baterii ołowiowo-kwasowych dla UPS-ów na baterie litowo-manganowe czy litowo-jonowe. Te drugie pozwalają na prawie trzykrotne zmniejszenie zajmowanej powierzchni w porównaniu z bateriami ołowiowo-kwasowymi oraz na zwiększenie gęstości mocy w UPS – dodaje.
Lokalny łańcuch dostaw jest i może rosnąć
W kontekście branży data center warto zwrócić jeszcze uwagę na local content. W opinii Piotra Kowalskiego udział polskich przedsiębiorstw w łańcuchu dostaw w tej branży jest stosunkowo wysoki.
Krajowi wykonawcy – jak wskazuje Kowalski – z powodzeniem wykonują prace projektowe oraz budowlano-montażowe. Z drugiej strony rośnie udział dostawców urządzeń z polskiego rynku – wśród nich znajdują się m.in. firmy dostarczające agregaty prądotwórcze (FOGO) czy nowoczesne rozwiązania chłodzenia cieczą (DCX).
– W Polsce swoją zakłady mają też globalne koncerny, które są ważnymi dostawcami dla rynku data center, takie jak Dell, Schneider Electric czy Kelvion, a część z tych firm działa już aktywnie w strukturach Stowarzyszenia. Jednym z istotnych celów PLDCA jest również eksponowanie potencjału lokalnego łańcucha dostaw branży oraz wspieranie jego rozwoju – podsumowuje dyrektor.
Read More WysokieNapiecie.pl