Ścieżka edukacyjna Zrobotyzowani we współpracy z Uniwerystetem Warszawskim – Za kulisami polskiego superkomputera – wyprawa Zrobotyzowanych do Centrum Technologii ICM 🖥️
16 grudnia 2025 roku mieliśmy niecodzienną okazję odwiedzić Interdyscyplinarne Centrum Modelowania UW – a dokładniej jego najnowocześniejsze Centrum Technologii ICM przy ul. Kupieckiej 32 na warszawskiej Białołęce. Już od progu czuliśmy dreszcz emocji: w końcu to jeden z najbardziej zaawansowanych ośrodków technik obliczeniowych w Polsce i jeden z najnowocześniejszych w Europie. Naszymi przewodnikami po tym niesamowitym miejscu byli inżynierowie ICM, panowie Michał Dzikowski i Bartosz Drogosiewicz. Po kilku słowach wstępu i założeniu identyfikatorów, ruszyliśmy w głąb gmachu pełnego technologicznych ciekawostek, by na własne oczy zobaczyć serce polskiej superkomputerowej potęgi!
Chcesz zobaczyć na własne oczy, jak 6-tonowe wirujące kolosy podtrzymują pracę maszyny wykonującej biliard operacji na sekundę?
Dołącz do naszych kolejnych wydarzeń, a odkryjesz te i inne tajemnice Centrum Technologii ICM! Dołącz do nas, zasubskrybuj newsletter!


Moc, która nigdy nie gaśnie – zasilanie DRUPS
Masywne systemy zasilania DRUPS (Diesel Rotary UPS) stoją na straży nieprzerwanej pracy superkomputera. W każdej z tych czterech metalicznych kolosów nieustannie wiruje ogromne koło zamachowe o wadze około 6 ton, działające jak magazyn energii kinetycznej. Silnik elektryczny stale utrzymuje obrót, a prądnica połączona z wewnętrznym wałem zasila obiekt – taki układ całkowicie izoluje serwerownię od zewnętrznych wahań sieci energetycznej, a przy okazji eliminuje problemy mocy biernej. Gdy nastąpi przerwa w dostawie prądu, rozpędzona masa natychmiast przejmuje obciążenie, dając czas na uruchomienie silnika diesla sprzęgniętego z generatorem. Każda jednostka DRUPS to nieduży 16-cylindrowy diesel o mocy około 1,33 MW – a centrum ma takie cztery, co łącznie daje ponad 5,3 MW zabezpieczonej mocy dla serwerów. Co więcej, w 2024 roku nasi przewodnicy mieli okazję przetestować te systemy w warunkach bojowych. W wyniku pożaru pobliskiego centrum handlowego całe ICM zostało na kilka tygodni odcięte od zasilania z sieci. Przez ten czas maszyny pracowały na pół gwizdka (ale prognozy pogody dla serwisu meteo.pl wciąż musiały być liczone!), a potężne generatory spalały zawartość 1000-litrowego zbiornika oleju napędowego dwa razy na dobę. 😮 Trudno o lepszy test na niezawodność – DRUPS-y spisały się celująco, podtrzymując pracę centrum aż do przywrócenia zasilania zewnętrznego. Przy okazji dowiedzieliśmy się, że niektóre szafy serwerowe ICM mają dodatkowo własne małe UPS-y, choć obecnie branża centrów danych odchodzi od zbyt rozbudowanego awaryjnego zasilania. Przy tak ogromnych mocach bywa to nieopłacalne – czasem rozsądniej jest po prostu bezpiecznie wyłączyć urządzenia i poczekać chwilę na powrót prądu, niż inwestować w olbrzymie baterie. Na szczęście w naszym przypadku nie było to potrzebne – wielkie silniki zagrzmiały i utrzymały przy życiu całą infrastrukturę.
Chłodno, bezpiecznie, nowocześnie – techniczne ciekawostki serwerowni
Następnym punktem programu były systemy bezpieczeństwa i chłodzenia. Niestety, z uwagi na trwające prace instalacyjne (ICM czeka na prezent gwiazdkowy w postaci nowego superkomputera, który dotrze po Nowym Roku), nie było nam dane zajrzeć do głównej maszynowni chłodniczej. Może następnym razem! Za to mieliśmy okazję obejrzeć w akcji nowoczesny system przeciwpożarowy serwerowni. Okazało się, że centrum stosuje unikalne połączenie dwóch technologii gaszenia: ultra-drobnej mgły wodnej oraz kontrolowanego obniżania zawartości tlenu w atmosferze serwerowni. W razie wykrycia ognia w komorze serwerowni, do akcji weszłyby baterie butli z gazem obojętnym, obniżając poziom tlenu w sali do wartości (~12%), przy której ogień nie jest w stanie się tak szybko dalej rozprzestrzeniać. Pozostałe pomieszczenia są chronione systemem mgły wodnej, który sprawi, że w ciągu kilku sekund pomieszczenie wypełniłaby chmura delikatnej, wysokociśnieniowej mgiełki, która tłumi płomienie nie zalewając przy tym urządzeń. Oczywiście wejście do stref serwerowych odbywa się przez podwójne śluzy, które zapobiegają przypadkowemu „wpompowaniu” świeżego powietrza z powrotem do chronionego pomieszczenia. Każde zadziałanie systemu gaszenia jest też automatycznie raportowane do Straży Pożarnej, co znacząco przyśpiesza akcję gaśniczą. Wszystko po to, aby kosztowny sprzęt i bezcenne dane były bezpieczne 24 godziny na dobę.
Sama hala serwerów również skrywa kilka intrygujących rozwiązań konstrukcyjnych. Zauważyliśmy np., że grube przewody zasilające w ogóle nie plączą się pod nogami – poprowadzono je wysoko, tuż pod sufitem, w formie solidnych szynoprzewodów nad rzędami szaf. W razie potrzeby można z nich łatwo zasilić dodatkowe urządzenia dokładnie tam, gdzie trzeba. Z kolei pod podłogą techniczną biegną rurociągi doprowadzające chłodny roztwór glikolu do wszystkich kluczowych podzespołów, a obok nich pozostawiono przestrzeń na dystrybucję zimnego powietrza. Każdy panel podłogi można zamienić na perforowany – dzięki temu chłodne powietrze z klimatyzacji jest tłoczone pod podłogę i dokładnie tam, gdzie potrzeba, przez kratki trafia do frontu szaf, chłodząc rozgrzane procesory i dyski. Naszym oczom ukazała się nawet wydzielona alejka zimna między rzędami urządzeń. Widzieliśmy, jak przednie drzwi szaf zasysają lodowate powietrze, które następnie ucieka przez tył obudów do ciepłej części pomieszczenia – taki układ cold aisle/hot aisle to dziś światowy standard w centrach danych.
Chcesz poczuć chłód „zimnej alejki” i zobaczyć systemy, które w ułamku sekundy zmieniają skład powietrza, by stłumić ogień?
Dołącz do naszych kolejnych wydarzeń, a zabierzemy Cię tam, gdzie bije cyfrowe serce polskiej nauki! Dołącz do nas, zasubskrybuj newsletter!


Spacer wśród szaf: od macierzy do superkomputera
Kiedy przekroczyliśmy próg właściwej sali serwerowej, poczuliśmy się trochę jak dzieci w sklepie z zabawkami – wokół nas piętrzyły się rzędy połyskujących szaf serwerowych, mrugały diody, słychać było przytłumiony szum tysięcy wentylatorów. Nasi przewodnicy skierowali nas najpierw do wydzielonej alejki wypełnionej urządzeniami pomocniczymi. Co chwilę słyszeliśmy z uśmiechem: „to jeszcze nie jest superkomputer” – ale i tak było na co popatrzeć! 😃 Otaczały nas potężne macierze dyskowe o łącznej pojemności ponad 20 petabajtów (system storage Tetyda ICM), migające lampkami serwery pomocnicze oraz stosy przełączników sieciowych o przepustowości 100 Gb/s lub wyższej. Setki światłowodów i kabli miedzianych spinały to wszystko w jedną sieć. Szafy w tej sekcji odpowiadają za przechowywanie i wstępne przetwarzanie danych oraz komunikację – prawdziwe zaplecze superkomputera. Ta część sali ma własny obieg chłodzenia: zimne powietrze tłoczone jest bezpośrednio do zamkniętej alejki frontowej, a po przepłynięciu przez rozgrzane urządzenia uchodzi już nagrzane za ich plecami. Po dłuższej chwili podziwiania tych „zapleczowych” cudów techniki przeszliśmy dalej, do kolejnych rzędów szaf.
Im głębiej w serwerownię, tym więcej zer i jedynek mieliśmy wokół siebie – dosłownie! Terabajty, ba – petabajty – danych, setki procesorów, dziesiątki tysięcy rdzeni… Mrugające diody, szafy pełne dysków i jednostek obliczeniowych – niczym scena z filmu “Spokojnie, to tylko awaria” – wszystko to robiło ogromne wrażenie na naszej wyobraźni. Jednak prawdziwy bohater czaił się dopiero na samym końcu hali. Tam, za niepozorną przegrodą, czekał na nas on.
Rząd czarnych szaf Cray XC40 – oto Okeanos, legendarny superkomputer ICM. Ta niepozorna, lecz potężna konstrukcja to serce obliczeniowe centrum. Okeanos składa się z 6 połączonych ze sobą szaf, z których każda wypełniona jest elektroniką napędzającą obliczenia na niespotykaną skalę. Ten uruchomiony w 2016 roku superkomputer Cray XC40 dostarcza ponad 1 petaflop mocy obliczeniowej (10^15 operacji na sekundę!) i zasłynął m.in. jako maszyna generująca prognozy pogody dla serwisu meteo.pl. Wykorzystuje się go jednak we wszelkich dziedzinach nauki – od astrofizyki po biologię – wszędzie tam, gdzie potrzeba ogromnej liczby równoległych obliczeń. Patrząc na jego niekończący się rząd modułów mieliśmy świadomość, że stoją przed nami setki tysięcy razy większe możliwości obliczeniowe niż domowy PC. Naprawdę czuliśmy respekt!



Superkomputer Okeanos – wybrane parametry:
- Architektura: Cray XC40, uruchomiony w lipcu 2016 roku.
- Liczba węzłów: 1084 węzły obliczeniowe, każdy z 2 procesorami Intel Xeon E5-2690v3 (Haswell, 12 rdzeni na CPU) – łącznie 24 rdzenie i 128 GB RAM na węzeł. Razem daje to imponujące 26016 rdzeni CPU oraz ponad 138 TB pamięci operacyjnej w całym systemie!
- Sieć międzywęzłowa: superszybka sieć Cray Aries o topologii Dragonfly (specjalne routery łączą węzły z ogromną przepustowością).
- Wydajność: >1 PFLOPS (maksymalna moc obliczeniowa przekracza 1 biliard operacji na sekundę).
Niestety, nie mogliśmy zajrzeć do środka Okeanosa – inżynierowie Craya zadbali o to, by ciekawskie ręce trzymać z dala od najważniejszych elementów. 😉 Po otwarciu drzwi szafy naszym oczom ukazały się jedynie szczelnie zabudowane moduły blade, którym brakowało tylko tabliczki „No entry”. Jak wyjaśnili przewodnicy, Okeanos przyjechał do ICM jako gotowa „czarna skrzynka” – a właściwie seria gotowych szaf, które na miejscu wystarczyło podłączyć do prądu, sieci i… wody. Tak – chłodzenie wodne to podstawa działania tego kolosa. W każdym module krążą wodne obiegi, odbierając ciepło od procesorów i pamięci a następnie oddając je w dedykowanych wymiennikach ciepła do głównej instalacji chłodzenia.
Czas nie stoi jednak w miejscu nawet dla superkomputerów. Dziś, po ponad 8 latach nieprzerwanej pracy, Okeanos stał się technologicznym seniorem – wciąż imponującym, ale ustępującym efektywnością energetyczną najnowszym konstrukcjom. Mówiąc wprost, utrzymanie go w ruchu kosztuje coraz więcej prądu, podczas gdy nowe jednostki potrafią zapewnić wyższą moc obliczeniową zużywając znacznie mniej energii. I właśnie dlatego tuż obok trwa już montaż jego następcy. Z podekscytowaniem wypatrywaliśmy oznak tej zmiany: w serwerowni widać było puste miejsce, przygotowane pod nowy sprzęt, a technicy właśnie doprowadzali tam kolejne rury i kable. Nowy superkomputer ICM – który ma zacząć pracę na początku 2026 roku – będzie chłodzony bezpośrednio wodą i wyposażony w najnowsze procesory oraz akceleratory, co pozwoli zaoszczędzić mnóstwo energii. Nie możemy się doczekać, by zobaczyć go w akcji podczas przyszłej wizyty!
Warto wspomnieć, że Okeanos to nie jedyny „mózg” tego centrum. ICM dysponuje też innymi wyspecjalizowanymi maszynami HPC, które mieliśmy okazję zobaczyć po drodze między regałami serwerów:
- Enigma – chmura obliczeniowa oparta na serwerach Huawei (uruchomiony w 2016 r.), wyposażony w ok. 8000 rdzeni CPU i ponad 8 petabajtów przestrzeni dyskowej, służący do zaawansowanych analiz danych. To na nim realizowane są projekty wymagające szybkiego przetwarzania ogromnych zbiorów informacji (Apache Spark i in.).
- Rysy – klaster GPU składający się z kilku węzłów obliczeniowych zawierających najwydajniejsze akceleratory NVIDIA (m.in. karty Tesla V100 32GB). Łącznie w systemie pracuje kilkanaście układów GPU, co czyni go idealnym narzędziem do zadań z zakresu sztucznej inteligencji, uczenia maszynowego i symulacji, wymagających równoległego przetwarzania na GPU.
Dodajmy, że cały kompleks został zaprojektowany z myślą o przyszłości – dowiedzieliśmy się, że tuż obok obecnej serwerowni znajduje się druga, bliźniacza hala o porównywalnej powierzchni ~500 m².. To robi wrażenie – w jednym budynku drzemie potencjał na znaczące zwiększenie mocy obliczeniowej w przyszłości!






Arktyczne powietrze na dachu
Po intensywnym spacerze między szafami przyszła pora dosłownie zaczerpnąć świeżego powietrza. Wspięliśmy się wraz z przewodnikami na dach Centrum Technologii ICM, aby zobaczyć, co dzieje się ponad serwerownią.
Panorama dachu Centrum ICM – widok na potężne agregaty chłodnicze i gęstą sieć przewodów odgromowych. Pod tą pajęczyną miedzianych linek rozpiętych wzdłuż dachu kryje się kompleksowy system chłodzenia serwerowni. To tutaj ciepło z superkomputerów oddawane jest do atmosfery za pomocą szeregu masywnych dry-coolerów (chłodnic powietrznych) oraz wież klimatyzacyjnych. W momencie naszej wizyty część urządzeń była akurat wyłączona – trwała ich modernizacja i dostosowywanie do wymagań nowego HPC, który niebawem zajmie miejsce Okeanosa. Z dachu rozciągał się imponujący widok na okolicę kampusu – w dali mogliśmy dostrzec wypalony szkielet pobliskiego centrum handlowego (źródło niedawnych testów zasilania awaryjnego 😉), a także hale produkcyjne, w których powstawały kiedyś ogromne betonowe tubingi do II linii warszawskiego metra. W tak niecodziennej scenerii dyskutowaliśmy jeszcze o redundancji całej infrastruktury – m.in. o tym, że budynek ma niezależne przyłącza energii z dwóch różnych stacji transformatorowych oraz wielostopniowy system podtrzymania zasilania (co sami już widzieliśmy). Robiło się późno, słońce chyliło się ku horyzontowi, a my mieliśmy przed sobą jeszcze jeden unikalny punkt programu…



Historia, która żyje – Muzeum Komputerów ICM
Ostatnim etapem naszej wyprawy była wizyta w miejscu, gdzie czas się zatrzymał – a przynajmniej tak mogłoby się wydawać na pierwszy rzut oka. W podziemiach nowoczesnego centrum znajduje się bowiem Muzeum Komputerów ICM – najmłodsze muzeum Uniwersytetu Warszawskiego, otwarte we wrześniu 2025 roku. Ta instytucja powstała, by zachować dla potomnych imponującą kolekcję sprzętu, który przez dekady napędzał polską naukę. Dla pasjonatów techniki to miejsce absolutnie magiczne.
Ekspozycja w Muzeum Komputerów ICM pozwala odbyć podróż w czasie po historii superkomputerów. Na sali o powierzchni ponad 300 m² prezentowane są historyczne urządzenia wykorzystywane niegdyś w ICM – od ogromnych szaf pełnych elektroniki z lat 90., przez klastry obliczeniowe z pierwszej dekady XXI wieku, po rozmaite systemy pamięci masowej i terminale dostępu sprzed epoki Internetu. Uczestnicy naszej wycieczki z zaciekawieniem podziwiali te cyfrowe skarby – każdy eksponat to osobna opowieść o tym, jak ogromny postęp dokonał się w informatyce na przestrzeni zaledwie jednej generacji.
Nie zabrakło akcentów rodem z popkultury. Natrafiliśmy choćby na sprzęt, który z wyglądu przypomina elegancki ekspres do kawy – jak się okazało, był to kultowy serwer SGI z lat 90., na których to komputerach tego typu studio Pixar tworzyło pierwsze animacje do filmu Toy Story! 🤩 Tuż obok piętrzyły się stosy modułów pamięci operacyjnej zajmujących całe pół szafy – kiedyś były to setki megabajtów, a dziś mieszczą się w kieszeni pendrive’a. W innym kącie przycupnęły procesory wielkości cegły – niegdyś serce superkomputera Cray, dziś ciekawy eksponat pokazujący, jak miniaturyzacja zmieniła wszystko. Znaleźliśmy też stare przełącznice sieciowe, nośniki danych o pojemności śmiesznie małej z dzisiejszej perspektywy, a nawet fragmenty pierwszych komputerowych terminali, z jakich naukowcy łączyli się kiedyś z ICM przez sieć. Wszystko to wyjątkowe dziedzictwo technologiczne, które ICM postanowił zachować, aby inspirować kolejne pokolenia inżynierów.







Emocje, wnioski i… do zobaczenia!
Po wielu godzinach zwiedzania wracaliśmy do domu pełni wrażeń. Byliśmy tam, zobaczyliśmy na własne oczy superkomputery i infrastrukturę, którą na co dzień znają tylko nieliczni – i czuliśmy ogromny podziw dla ludzi, którzy to wszystko projektują i utrzymują. Centrum Technologii ICM to nie tylko serwerownia – to prawdziwa świątynia nauki i techniki, miejsce, gdzie przemysł spotyka się z nauką, a teraźniejszość z przyszłością. Dzięki naszym przewodnikom dowiedzieliśmy się mnóstwa ciekawostek, dotknęliśmy technologii niedostępnej na co dzień i przekonaliśmy się, jak wygląda zaplecze projektów zmieniających świat nauki.
Jeśli jeszcze zastanawiacie się, czy warto brać udział w kolejnych wyprawach ze Zrobotyzowanymi, nasza relacja mówi sama za siebie. Tak unikalnych przeżyć nie znajdziecie nigdzie indziej! To #turystykaprzemysłowa na najwyższym poziomie – łącząca pasję, wiedzę i emocje. My już nie możemy doczekać się następnej przygody, a tymczasem pozostajemy pod wielkim wrażeniem tego, co skrywało przed nami Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego UW.
Do zobaczenia na kolejnych wyprawach! 👋

Podziękowania
Szczególne podziękowania kierujemy do naszych przewodników – Bartosza Drogosiewicza i Michała Dzikowskiego. Dzięki Waszej wiedzy, zaangażowaniu i cierpliwości nawet najbardziej złożone zagadnienia techniczne stawały się klarowne, a każde pytanie spotykało się z rzeczową i wyczerpującą odpowiedzią.
Ogromne podziękowania kierujemy do całego zespołu Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego za wyjątkową otwartość, możliwość zorganizowania inspirującej wycieczki oraz perfekcyjną koordynację całego wydarzenia. Jesteśmy niezwykle wdzięczni za cierpliwość wobec naszych licznych pytań i niegasnącego fotograficznego entuzjazmu, który towarzyszył nam podczas zwiedzania jednego z najważniejszych ośrodków obliczeniowych w Polsce.
Dziękujemy!
Słowa kluczowe: turystyka przemysłowa, zwiedzanie serwerowni, superkomputer Okeanos, Centrum Technologii ICM, ICM UW, zwiedzanie superkomputera, Cray XC40, systemy DRUPS, zasilanie gwarantowane, Muzeum Komputerów ICM, technika, jednodniowa wycieczka z przewodnikiem, relacja z wydarzenia, Zrobotyzowani, industrialne zdjęcia, technologia od środka, infrastruktura krytyczna, IT od kuchni.
Brzmi jak świetnie spędzony dzień? Zobacz dokąd jeszcze wybieramy się w nadchodzącym czasie:
Chcesz przeżyć podobną przygodę? Turystyka przemysłowa w wydaniu Zrobotyzowanych to dostęp do unikalnych obiektów i miejsc, o których istnieniu wielu nie ma pojęcia.
👉 Dołącz do nas! Śledź nadchodzące wydarzenia na Zrobotyzowani.com.pl i zapisz się na nasz newsletter, żeby nie przegapić kolejnych zapisów. 👉 Wraź swoją pasję: Zajrzyj do naszego sklepu Zrobki.pl po gadżety dla fanów industrialu!
Zrobotyzowani #ICM #Warszawa #Białołęka #TurystykaPrzemysłowa #IndustrialTourism #Supercomputer #Okeanos #CrayXC40 #DataCenter #Serwerownia #Technika #DRUPS #ZasilanieAwaryjne #MeteoPL #MuzeumKomputerów #Photography #IndustrialPhotography #Eksploracja #PolskaNaWeekend #Mazowsze #ZwiedzanieTechniczne #InfrastrukturaKrytyczna #HighPerformanceComputing #ITodKuchni #HistoriaTechniki #SGI #PodróżeMałeIDuże #CyberSecurity #TravelPoland
Zdjęcia wykonali: Andrzej Cabal Kwiatkowski i Karol Lubaczewski
Relację przygotowali: Paulina Kozłowska, Andrzej Cabal Kwiatkowski, Karol Lubaczewski, pod czujnym okiem nieocenionych przewodników Michała Dzikowskiego i Bartosza Drogosiewicza




