Do niedawna centra danych rozwijano w przewidywalnym rytmie. Liczy?y si? powierzchnia, redundancja, stabilno?? zasilania i ch?odzenie – najlepiej pasywne, by ogranicza? koszty. Dzi? ten model trzeszczy w szwach. Za spraw? gwa?townego wzrostu zapotrzebowania na moc obliczeniow? do przetwarzania modeli sztucznej inteligencji, fizyczna architektura centrów danych musi ulec fundamentalnej zmianie.
W centrum rewolucji stoj? GPU – uk?ady graficzne, które przej??y rol? g?ównego silnika obliczeniowego dla generatywnej AI. Ale wi?ksza moc to te? wi?cej ciep?a, energii, z?o?ono?ci… i problemów, których nie da si? ju? „zredukowa?” lepsz? wentylacj?.
Od CPU do GPU: skok w zapotrzebowaniu
Modele j?zykowe i systemy generatywne dzia?aj? w sposób nieliniowy. W odró?nieniu od klasycznych obci??e? IT, gdzie zu?ycie mocy ros?o proporcjonalnie do liczby u?ytkowników lub transakcji, AI wprowadza gwa?towne skoki zapotrzebowania – i ogromne piki energetyczne. Jeden dobrze wytrenowany model mo?e w ci?gu kilku godzin zu?y? wi?cej mocy ni? ca?a baza danych banku w tydzie?.
Odpowiedzi? bran?y na te potrzeby s? klastry GPU – cz?sto w uk?adach H100 lub Grace Hopper, zintegrowane z magistralami NVLink i rozproszone mi?dzy wyspecjalizowanymi w?z?ami. W tradycyjnym centrum danych trudno jednak efektywnie wykorzysta? takie klastry bez ca?kowitej przebudowy systemu zasilania i ch?odzenia. To w?a?nie dlatego operatorzy przestaj? adaptowa? istniej?c? infrastruktur? i coraz cz??ciej projektuj? obiekty „od zera” – specjalnie pod AI.
Infrastruktura, która musi my?le?
GPU zu?ywaj? znacznie wi?cej energii ni? CPU – i to nie tylko w jednostkach bezwzgl?dnych, ale te? w g?sto?ci na szaf?. To oznacza, ?e dotychczasowe normy zasilania – np. 4–6 kW na szaf? – przestaj? mie? zastosowanie. W projektach opartych na AI planuje si? dzi? moc rz?du 20–30 kW na szaf?, a w niektórych przypadkach nawet wi?cej.
Takie warto?ci nie tylko wymagaj? wi?kszej poda?y mocy z zewn?trz, ale te? zmieniaj? sposób zarz?dzania energi? wewn?trz obiektu. Centra danych staj? si? systemami energetycznymi, w których liczy si? orkiestracja mocy – czyli dynamiczne zarz?dzanie zasilaniem mi?dzy strefami w zale?no?ci od obci??enia.
Równolegle pojawia si? konieczno?? zmiany systemów ch?odzenia. Wentylatory i klimatyzacja przestaj? wystarcza?. Coraz cz??ciej stosuje si? ch?odzenie ciecz? – najpierw w formie ch?odzonych p?yt (cold plate), a w dalszym etapie poprzez pe?ne zanurzenie uk?adów (immersion cooling). To ju? nie s? tylko rozwi?zania niszowe – to warunek funkcjonowania w erze GPU.
Modularno?? zamiast monolitu
Odpowiedzi? na z?o?ono?? technologiczn? sta?a si? modularno??. Nowe centra danych coraz cz??ciej powstaj? w postaci prefabrykowanych modu?ów – gotowych bloków zasilania, ch?odzenia i serwerowni, które mo?na szybko zestawi?, rozbudowa? lub przenie??. Elastyczno?? sta?a si? nowym dogmatem.
Tradycyjny model du?ych serwerowni, gdzie wszystkie funkcje by?y zintegrowane w jednej bryle, ust?puje miejsca rozproszonym konstrukcjom, które mo?na projektowa? z wi?ksz? precyzj? pod konkretne obci??enia – zw?aszcza GPU. To pozwala lepiej zarz?dza? nie tylko wydajno?ci?, ale te? kosztami operacyjnymi i bezpiecze?stwem.
Automatyzacja to nie luksus – to warunek dzia?ania
Im bardziej z?o?one staj? si? systemy AI, tym bardziej nieprzewidywalne staj? si? obci??enia. W odpowiedzi operatorzy centrów danych wdra?aj? coraz bardziej zaawansowane systemy monitoringu i automatyki – od predykcji awarii, przez dynamiczne zarz?dzanie ch?odzeniem, po ci?g?? analiz? stanu zasilania.
W praktyce oznacza to, ?e fizyczna obecno?? technika staje si? rzadko?ci?. Zarz?dzanie odbywa si? zdalnie, cz?sto z wykorzystaniem AI, która sama podejmuje decyzje o balansowaniu obci??enia lub w??czaniu zapasowych systemów. To nie tyle automatyzacja, co ca?kowita redefinicja operacji.
Klienci nie kupuj? ju? powierzchni – kupuj? moc
W tradycyjnym modelu klient data center wynajmowa? okre?lon? powierzchni? lub szaf?. Dzi?, w erze AI, kluczow? walut? staje si? dost?pna moc – i to ona decyduje o cenie, dost?pno?ci oraz atrakcyjno?ci oferty.
Pojawiaj? si? te? nowi klienci – startupy AI, dostawcy modeli j?zykowych, fintechy, ale te? firmy przemys?owe, które wdra?aj? w?asne modele predykcyjne. Ich potrzeby s? dynamiczne, a wymagania wysokie. Oczekuj? elastyczno?ci, skalowalno?ci i wsparcia technicznego w dostosowywaniu infrastruktury do obci??e?, które nie zawsze da si? przewidzie?.
Era GPU nie sko?czy si? na H100 czy MI300. Kolejne generacje uk?adów b?d? jeszcze bardziej energoch?onne, jeszcze bardziej wyspecjalizowane i jeszcze trudniejsze do integracji w istniej?cych ?rodowiskach. Dlatego centra danych b?d? musia?y si? zmienia? – nie tylko pod wzgl?dem technologii, ale te? kultury projektowej i operacyjnej.
Coraz cz??ciej nie chodzi o to, ile masz przestrzeni, ale czy jeste? w stanie dostarczy? moc tam, gdzie b?dzie potrzebna – zanim pojawi si? klient. To ca?kowita zmiana perspektywy.