Największe centra danych konsumują w ciągu roku tyle energii elektrycznej, co 80 tys. gospodarstw domowych. Jak wynika z raportu McKinsey, do 2030 roku jej zużycie przez dostawców tego typu usług osiągnie 35 gigawatów rocznie, w porównaniu z 17 gigawatami w 2022 r. Tak ogromne zapotrzebowanie wynika m.in. z tego, że wdrażanych jest coraz więcej rozwiązań bazujących na sztucznej inteligencji.
Umożliwiają one klientom centrów danych świadczenie nowatorskich usług, ale pomagają też w utrzymywaniu tego typu placówek – zapewniają optymalizację i automatyzację zarządzania danymi, zasilaniem, a także pozwalają na stworzenie inteligentnego systemu sterowania klimatyzacją infrastruktury. Jednak w kontekście zrównoważonego rozwoju energetycznego i ochrony środowiska należy korzystać z AI w odpowiedni sposób.
Centra danych stanowią kluczowy element cyfrowej rzeczywistości. Zainstalowana w nich infrastruktura serwerowa umożliwia zarządzanie danymi, w tym wykonywanie takich podstawowych czynności jak wysyłanie e-maili i korzystanie z mediów społecznościowych, przechowywanie zdjęć w chmurze czy robienie zakupów internetowych.
W ostatnich dziesięcioleciach coraz więcej działań przenoszonych jest do świata cyfrowego. W związku z tym centra danych mierzą się z ogromnym obciążeniem i koniecznością przetwarzania coraz większej ilości informacji. Zapotrzebowanie to wręcz eksplodowało w ostatnich latach ze względu na nagły wzrost popularności sztucznej inteligencji. Co prawda, największe usługi generatywnej sztucznej inteligencji, jak ChatGPT, Dall-E, Midjourney czy Gemini, obsługiwane są przez gigantyczne centra danych, ale coraz więcej firm korzysta z mniejszych mechanizmów sztucznej inteligencji na własne potrzeby i wdraża je w lokalnych centrach danych. Dlatego tak dużym wyzwaniem stało się usprawnianie procesów zarządzania infrastrukturą tego typu placówek.
Algorytmy sztucznej inteligencji potrzebują ogromnej mocy obliczeniowej, co przekłada się również na większy popyt na energię. Eksperci prognozują, że do 2030 roku obciążenie energetyczne związane z użyciem AI w centrach danych wzrośnie dwukrotnie. Konieczność przetwarzania większej ilości danych i związana z tym konsumpcja energii oznacza też pozostawianie większego śladu węglowego w atmosferze. Operatorzy centrów danych muszą się z tym liczyć, gdy będą tworzyć własne algorytmy do usprawnienia ich funkcjonowania.
Wdrażanie rozwiązań AI w centrach danych przekłada się na większe zużycie energii, co także przyczynia się do znacznego wzrostu ciepła w tych obiektach. Aby możliwe było poprawne funkcjonowanie serwerów, konieczne jest zapewnienie odpowiedniej temperatury. Coraz częściej stawia się na chłodzenie cieczą oraz hybrydowe. Jest ono niezbędne w kontekście dużego obciążenia i wysokiej gęstości przetwarzania informacji – wyjaśnia Krzysztof Krawczyk, Senior Application Engineer w Vertiv.
Jak sprostać wymaganiom sztucznej inteligencji?
Centra danych coraz częściej stawiają na własne źródła zasilania (bring your own power, BYOP), które wykorzystują rozproszone zasoby mocy, takie jak zasilacze awaryjne UPS, systemy magazynowania energii w akumulatorach (Battery Energy Storage System, BESS) czy ogniwa paliwowe. Dotychczas służyły one jako koła ratunkowe w razie kryzysowych sytuacji, np. przerwy w dostawie prądu bądź awarii sieci. Obecnie rozwiązanie BYOP może być stosowane jako sposób na umożliwienie ciągłości działania infrastruktury. Strategia ta jest też bardziej ekologiczna – magazynowanie energii minimalizuje potrzebę uruchamiania generatorów diesla, jeśli nie jest to konieczne, dzięki czemu ogranicza też emisję dwutlenku węgla do atmosfery. Metodę BYOP można również zastosować do alternatywnych źródeł odnawialnych, np. wiatru i słońca.
Tego typu mechanizm, w którym zasilacze UPS firmy Vertiv są wykorzystywane jako dynamiczne źródło energii i współdziałają z dostawcą energii w celu równoważenia obciążenia sieci oraz gwarantowania jej stabilności, został już uruchomiony w Szwecji. Tamtejszy dostawca usług kolokacyjnych Conapto wdrożył urządzenia Vertiv Liebert EXL S1, które zapewniły mu funkcje szybkiego reagowania na zmiany częstotliwości (fast frequency response, FFR) oraz możliwość korzystania z rezerw mocy w celu stabilizowania częstotliwości (frequency containment reserve demand, FCR-D). Zarządzanie popytem na energię jest możliwe dzięki zautomatyzowanemu procesowi optymalizacji pojemności zasilacza UPS oraz wykorzystania akumulatorów litowo-jonowych podczas szczytowego zapotrzebowania na energię, bez konieczności wprowadzania znaczących zmian w infrastrukturze.
Centra danych dotychczas były w dużej mierze wyłącznie konsumentami energii elektrycznej. Jednak projekt zrealizowany w firmie Conapto udowadnia, że dzięki najnowszym osiągnięciom tego typu obiekty mogą stać się partnerem wspierającym i stabilizującym lokalną sieć, zapewniającym maksymalną efektywność energetyczną UPS-ów oraz przyczyniającym się do zmniejszenia emisji CO2 dzięki wykorzystaniu alternatywnych źródeł energii. Optymalizacja pracy urządzeń i lepsze zarządzanie procesami chłodzenia oraz ponownego użycia ciepła pozwolą centrom danych w znacznym stopniu zoptymalizować zużycie mocy, co jest korzystne z punktu widzenia zrównoważonego rozwoju – wskazuje Krzysztof Krawczyk.
Poza implementacją strategii BYOP, popularne staje się też chłodzenie cieczą, co jest jeszcze bardziej energooszczędnym rozwiązaniem. System wykorzystujący zamkniętą pętlę wodną jest w stanie magazynować ogrzane powietrze i wykorzystywać je do zapewniania ciepła np. w pobliskich gospodarstwach, domach czy też biurach. Ponadto zautomatyzowanie procesu chłodzenia oraz zintegrowane go ze sztuczną inteligencją może ułatwić zaoszczędzenie energii. Algorytmy monitorują temperaturę oraz obciążenia serwerów i na podstawie tych danych są w stanie samodzielnie określić, ile mocy potrzeba do schłodzenia systemu.
Aby wdrożenie tego typu mechanizmów było możliwe, konieczne jest zastosowanie narzędzi bazujących na sztucznej inteligencji. W taki właśnie sposób już w 2018 roku Google – po przekazaniu kontroli nad chłodzeniem algorytmowi AI – zaoszczędził ok. 40% energii. Zastosowanie przez centra danych rozwiązań bazujących na AI może przybierać różne formy: automatyzacji rutynowych zadań, jak przeprowadzanie aktualizacji systemów, tworzenie kopii zapasowych danych czy monitorowanie systemów, ale także analizowanie informacji i monitorowanie infrastruktury pod kątem bezpieczeństwa oraz reagowanie na błędy i zagrożenia.
Wdrożenie praktycznych rozwiązań, takich jak magazynowanie energii i zoptymalizowanie procesów chłodzenia to niezbędny krok w stronę bardziej zrównoważonej przyszłości centrów danych napędzanej przez sztuczną inteligencję. Integracja AI i branży centrów danych pomoże w stworzeniu jeszcze bardziej wydajnych i innowacyjnych procesów zarządzania danymi.