Megabajty potrzebują coraz więcej megawatów

Megabajty potrzebują coraz więcej megawatów

Ponad dwukrotnie - do przeszło 180 MW - może do 2026 r. zwiększyć się moc przydzielona centrom danych w Polsce. Rozwój usług cyfrowych napędza budowę kolejnych tego typu obiektów, a jednocześnie stawia coraz większe wyzwania związane z transformacją energetyczną oraz zmianami klimatycznymi.

Z ostatnich danych firmy doradczej PMR wynika, że pandemiczny 2020 r. był najlepszym od czterech lat dla rynku centrów danych w Polsce pod względem podaży nowej powierzchni tego typu obiektów.

Nie dziwi to, w sytuacji, w której na masową skalę upowszechniła się zdalna praca i nauka, w siłę rosną muzyczne i filmowe platformy streamingowe oraz media społecznościowe, a coraz więcej zakupów dokonujemy w sieci. Cyfryzacja wszystkich aspektów życia znacząco przyspieszyła - nawet w skostniałej w wielu miejscach administracji państwowej i samorządowej.

Jednocześnie to dopiero początek kolejnej fali dużych inwestycji, które w perspektywie 2026 r. podwoją moc polskich centrów danych - jak przewiduje PMR - do ponad 180 MW.

Gonimy Zachód

Polskie centra powstają przede wszystkim w Warszawie i jej okolicach, ale też na Górnym Śląsku, Trójmieście, Wrocławiu, Krakowie i Poznaniu. Na początku 2021 r. wśród 40 największych obiektów w stołecznej aglomeracji znajdowało się ich 24.

Piotr Wójcik, dyrektor Działu Sprzedaży ds. Kluczowych Klientów na Polskę i kraje bałtyckie w firmie Vertiv, która jest m.in. dostawcą infrastruktury związanej z zasilaniem i chłodzeniem serwerowni, w rozmowie z portalem WysokieNapiecie.pl potwierdził, że rynek jest rozpędzony.

- Rozwój ten podąża za globalnym wzrostem zapotrzebowania na przestrzeń niezbędną do przechowywania coraz liczniejszych zasobów danych. Jednak fakt dość niskiej bazy, z której startowaliśmy w Polsce w porównaniu z choćby naszymi zachodnimi sąsiadami powoduje, że dynamika tego wzrostu u nas wychodzi dalece ponad średnią europejską - zastrzegł Wójcik.

- Ponadto dostępność w Polsce zasobów niezbędnych do budowy i działania obiektów data center w znacznie atrakcyjniejszych cenach niż na zachodzie Europy przyciąga coraz więcej światowych graczy na nasz rynek, a ci już operujący w Polsce zwiększają swój stan posiadania - dodał.

Rozdrobniony rynek

Z informacji PMR wynika, że zdecydowaną większość centrów przetwarzania danych w Polsce nadal stanowią obiekty małe, o powierzchni poniżej 200 m kw.

Jeśli uwzględniać powierzchnię wyłącznie pod szafy rack, w których są przechowywane serwery, to takich obiektów na początku 2021 r. było 42. Natomiast dodając do tego serwerownie o powierzchni od 200 do 500 m kw. otrzymujemy w sumie 72 centra.

Na początku tego roku istniał w Polsce jeden komercyjny obiekt (Atman), którego metraż pod szafy przekracza 4 tys. m kw. i jeden w przedziale 2,5-4 tys. m kw. (T-Mobile), choć blisko wejścia w ten przedział był Beyond.pl z centrum o powierzchni 2,4 tys. m kw.

Największe data center w Polsce to w praktyce jednak kompleks kilku serwerowni, budowanych sukcesywnie przez Atman w kolejnych latach. W przypadku doliczenia do serwerowni również powierzchni towarzyszących obiektów, to obiektów o powierzchni ponad 4 tys. m kw. jest siedem, a tych w przedziale 2,5-4 tys. m kw. - osiem.

Energetyczny wampir

Centra danych oraz serwerownie pracują w trybie ciągłym, co powoduje, że moc pracujących tam urządzeń ma decydujący wpływ na opłaty za energię elektryczną.

Zobacz też: Europa reaguje na gigantyczne wzrosty cen energii

- Aż 99,9997 proc. energii elektrycznej przeznaczanej na przetwarzanie danych jest zamieniane na ciepło w serwerowniach i centrach danych. Dodatkowym czynnikiem kosztowym są straty energii elektrycznej, generowane przez systemy zasilania gwarantowanego i dystrybucji - podkreślił Paweł Olszynka, dyrektor Działu Analiz Rynku ICT w PMR, w rozmowie z portalem WysokieNapiecie.pl.

Jak wyjaśnił, koszty energii elektrycznej generowane przez systemy zasilania i chłodzenia są głównym elementem składowym całkowitego kosztu utrzymania centrum danych - nawet do 40 proc. Rosnące ceny energii mobilizują więc do podnoszenia efektywności energetycznej.

Globalny ślad węglowy sektora teleinformatycznego. Fot. Carbon Trust

 

- Firmy modernizują centra lub budują nowe, wyposażając je w bardziej nowoczesne rozwiązania. Szczególnie najwięksi dostawcy kładą nacisk na odpowiednio wysoki poziom sprawności zasilaczy UPS (zasilanie awaryjne - red.) i przetwornic zapewniających zmniejszenie poboru energii - wskazał Olszynka.

Węglowy ślad

Internet, a zatem i centra danych, wraz ze swoim rozwojem pochłaniają coraz więcej energii. Ponieważ większość energii zużywanej w światowej gospodarce wciąż bazuje na paliwach kopalnych, więc udział sektora cyfrowego w globalnych emisjach gazów cieplarnianych jest znaczący.

Godzina oglądania filmu online, a zapotrzebowanie na energię elektryczną oraz emisja CO2. Fot. Carbon Trust

 

Według różnych wyliczeń, każdorazowe wykorzystanie internetowej wyszukiwarki oznacza emisję kilku gram CO2. Godzina oglądania filmu online to ponad 50 g. Rocznie cały sektor teleinformatyczny w skali globalnej odpowiada za co najmniej ponad 1 proc. emisji gazów cieplarnianych.

Piotr Wójcik z Vertiv zaznaczył, że jak najmniejszy ślad węglowy pozostawiany przez centra danych jest obecnie celem większości operatorów takich obiektów. Z jednej strony jest to podyktowane względami czysto ekonomicznymi, osiąganymi dzięki zastosowaniu wysokoefektywnych energetycznie urządzeń klimatyzacji precyzyjnej czy zasilania gwarantowanego.

Emisja CO2 związana z oglądaniem filmów online w Europie i wybranych państwach. Fot. Carbon Trust

 

Z drugiej strony powodem jest świadomość klientów, lokujących swoje serwery w centrach przetwarzania danych, na temat zanieczyszczenia środowiska wywołanego przez produkcję olbrzymiej ilości energii niezbędnej do poprawnego działania centrów. Wymusza to poszukiwanie odnawialnych źródeł energii do ich zasilania.

Efektywność priorytetem

Podobne obserwacje ma Paweł Olszynka z PMR, który zwraca też na wpływ zaostrzającej się polityki klimatycznej Unii Europejskiej.

- Polskie ośrodki data center coraz częściej wprost sygnalizują swoim klientom, że energia którą wykorzystują pochodzi z OZE. Potwierdzają to stosowne certyfikaty i gwarancje od dostawców energii, które poświadczają, że pochodzi ona ze źródeł odnawialnych. Najlepszym przykładem są liderzy rynku data center w Polsce: Beyond.pl, Equinix, Netia, Orange i T-Mobile - wskazał Olszynka.

Jak wyjaśnił, najczęściej dążą oni do tego, aby energia w 100 proc. pochodziła ze źródeł odnawialnych. Starają się też optymalizować wykorzystanie energii i ciepła.

Przykładowo oba centra danych innego, dużego dostawcy działającego na polskim rynku, firmy Polcom, wykorzystują alternatywne źródła energii, takie jak fotowoltaika, położenie obiektu umożliwiające pasywne zyski ciepła, czy też wykorzystanie ciepła wytwarzanego przez urządzenia do ogrzewania biur i pomieszczeń poza serwerownią.

Z kolei spółka 3S zapewniła sobie dostęp do giełdy energii, dzięki czemu ma możliwość kupowania energii w sposób bardziej efektywny. Na inwestycję we własną farmę fotowoltaiczną o mocy 0,5 MW na potrzeby nowego centrum danych (Warsaw Data Hub) zdecydował się natomiast Orange.

Zobacz też: Inflacja rzuca cień na budowy farm wiatrowych i fotowoltaicznych

Paweł Olszynka podkreślił, że dostawcy data center szczegółowo analizują ceny energii i starają się być tutaj jak najbardziej konkurencyjni dla swoich klientów, którym najczęściej refakturują prąd zużyty przez urządzenia z odpowiednim narzutem w postaci współczynnika PUE (ang. power usage effectiveness - efektywność zużycia energii).

Współczynnik ten określa proporcje energii zużywanej na zasilanie centrum danych do energii pobieranej przez urządzenia IT. Im bliższy jest on wartości 1, tym mniejsze jest zapotrzebowanie centrum na energię dla klimatyzacji oraz pozostałej infrastruktury obiektu.

Ciepło, coraz cieplej

Zmiany klimatyczne odczuwalne są przez wszystkich, również przez operatorów centrów danych, co potwierdza Piotr Wójcik z Vertiv.

- W dużym stopniu z pomocą przychodzą nowe standardy temperaturowe wprowadzane przez producentów i użytkowników serwerów, pozwalające na ich pracę w temperaturze znaczenie wyższej niż do niedawna obowiązująca. Obecnie standardem jest 25°C i więcej, podczas gdy jeszcze nie tak dawno więcej niż 21-22°C uważane było za awarię - wyjaśnił.

Piotr Olszynka z PMR dodał, że najważniejszymi wyzwaniami są odpowiednio podniesione parametry temperaturowe urządzeń klimatyzacji precyzyjnej i dobór urządzeń wykorzystujących w możliwie największym stopniu funkcję tzw. free coolingu.

Pozwala ona na wykorzystanie w procesie chłodzenia temperatur panujących na zewnątrz serwerowni - schłodzenie „wody lodowej”, czyli czynnika chłodzącego w systemie klimatyzacji, następuje bez angażowania sprężarek chłodniczych.

- Oszczędności w tym przypadku mogą wahać się od 20 proc. do nawet 75 proc. Free cooling włącza się już przy temperaturze kilkunastu stopni powyżej zera, co w zasadzie pozwala na jego wykorzystanie - w mniejszym lub większym zakresie - niemalże w ciągu całego roku. Doświadczenia operatorów pokazują, że w Polsce występuje przeciętnie 5-10 nocy rocznie w porze letniej, kiedy wykorzystanie free coolingu nie jest w ogóle możliwe - stwierdził Olszynka.

Z inspekcji przeprowadzonych przez PMR wśród największych obiektów w kraju wynika, że z klimatyzacji precyzyjnej korzystano w 35 z 40 obiektów, natomiast 80 proc. największych centrów danych w Polsce stosuje free cooling jako element systemu chłodzenia serwerowni.

Olszynka wskazał, że dodatkowym elementem, który wykorzystują operatorzy, są systemy pozwalające na szczegółową analizę termiczną poszczególnych szaf w serwerowni.

Umożliwia to rozmieszczenie urządzeń w taki sposób, aby zapewnić im uzyskanie optymalnych warunków chłodzenia. Standardem jest aranżowanie serwerowni w systemie zimnych i ciepłych korytarzy, by zwiększyć efektywność chłodzenia całego układu.

Katastrofalne dane

Zmiany klimatyczne niosą za sobą również coraz gwałtowniejsze zjawiska pogodowe, które mogą przybrać postać klęski żywiołowej.

- Odpowiedzią na takie sytuacje, zmuszające w ostateczności do wyłączenia z pracy danego centrum danych, jest budowanie w niewielkiej lub większej odległości siatki obiektów pozwalających na szybki transfer danych pomiędzy nimi i tworzenie odpowiednich kopii danych. Stąd również wynika zwiększone zapotrzebowanie na nowe centra danych - podsumował Wójcik.

Rynek energii wspiera

PGE

Technologie dostarcza

Zobacz także...

Komentarze

Patronat honorowy

Partnerzy portalu

PGE PSE