Wspieranie zrównoważonego rozwoju IT w centrach danych

cyberfeed.pl 1 tydzień temu


Jeżeli w Twoim lokalnym centrum danych w tym miesiącu panuje nieco większa temperatura niż zwykle, może to być spowodowane tym, iż jego operatorzy przetwarzają dane, które teraz muszą raportować w ramach Dyrektywa Unii Europejskiej (UE) w sprawie efektywności energetycznej.

15 września 2024 r. operatorzy w UE zaczęli przekazywać informacje o wydajności energetycznej i „śladzie wodnym” dla obiektów o mocy powyżej 500 kW. Pomoże to Brukseli ustalić, co „zrównoważone” centrum danych jak powinno to wyglądać, a także przyczynić się do dekarbonizacji sieci i lepszego ponownego wykorzystania ciepła wytwarzanego przez cały ten wirujący sprzęt.

Niezależnie od punktu widzenia, regulacje te nie są ani za wczesne, ani za późne, aby powstrzymać niekontrolowane zapotrzebowanie na energię.

Centra danych – niezależnie od tego, czy są to gigantyczne magazyny danych hiperskalerów, obiekty kolokacji czy regularne operacje przedsiębiorstw – są głównymi konsumentami energii elektrycznej, ale ich udział w ogólnym zużyciu energii pozostawał na dość stałym poziomie przez ostatnie kilka dekad.

Jednakże według najnowszych danych Międzynarodowej Agencji Energetycznej (IEA) światowe zapotrzebowanie na energię elektryczną wzrośnie w tym roku o 4%, co będzie najwyższym rocznym wzrostem od 2007 r.

A centra danych niewątpliwie przyczyniają się do tego wzrostu, twierdzi agencja. Sama UE szacuje, iż odpowiadają one za prawie 3% europejskiego zapotrzebowania na energię elektryczną i iż prawdopodobnie wzrośnie ono „znacznie” zarówno w wartościach bezwzględnych, jak i względnych.

„Wzrost sztuczna inteligencja [AI] skupił się na zużyciu energii elektrycznej w centrach danych, co sprawiło, iż lepsze inwentaryzacje stały się ważniejsze niż kiedykolwiek. W wielu regionach historyczne szacunki zużycia energii elektrycznej w centrach danych są utrudnione przez brak wiarygodnych danych”,IEA stwierdziła,.

Agencja ostrzegła: „Przyszłe prognozy obejmują bardzo szeroki zakres niepewności związanych z tempem wdrażania, różnorodnymi i rozwijającymi się zastosowaniami sztucznej inteligencji oraz potencjalnym zwiększeniem efektywności energetycznej.

John Booth, dyrektor zarządzający firmy konsultingowej Carbon3IT, który przyczynił się do Europejski kodeks postępowania w zakresie efektywności energetycznej centrów danych (EU DC CoC) i przewodniczy Grupa ds. efektywności energetycznej Data Centre Alliancemówi, iż sektor ten ma przed sobą wiele do zrobienia.

A sektor nie poświęcił tej kwestii pełnej uwagi. W końcu, mówi Booth, „Kodeks postępowania obowiązuje od 15 lat, a kierunek podróży został wyraźnie wymieniony i całkowicie zignorowany”.

Jego zdaniem firmy zajmujące się hiperskalowaniem i kolokacją spełnią wymogi UE, przynajmniej w zakresie przekazywania niezbędnych informacji.

Jak mówi Dave Smith, dyrektor ds. zrównoważonego rozwoju i ryzyka operacyjnego w Digital Realty: „Efektywność energetyczna jest już głównym celem operatorów centrów danych, a regulacje pomagają utrzymać ją na pierwszym planie. Napędza ona również innowacje w celu osiągnięcia celów”.

Nie będzie już gaszenia pożarów

Jednak sytuacja może się skomplikować, jeżeli chodzi o firmy obsługujące własne, lokalne centra danych. „To ludzie, którzy nieustannie gaszą pożary. I nie czytają prasy branżowej. Uważam, iż to oni najbardziej potrzebują naszej pomocy i edukacji” — mówi Smith.

Nawet banki i duże firmy przemysłowe mogą być błogo nieświadome nadchodzących regulacji, mówi. „Chyba iż chcą wymienić część swoich zakładów kapitałowych, w takim przypadku będą rozmawiać z łańcuchem dostaw, a łańcuch dostaw będzie w stanie ich dogonić”. Oczywiście zakłada to, iż ich dostawcy sami są na bieżąco.

Ale Booth mówi, iż świat centrów danych stoi przed szerszym wyzwaniem w zakresie zrównoważonego rozwoju, wykraczającym poza proste zużycie energii. „Używamy ogromnych ilości betonu, używamy ogromnych ilości stali na nadbudowę”. Oznacza to oszałamiające wskaźniki ucieleśnionego węgla, mówi, ponad i poza energią wykorzystywaną do zasilania zestawu wewnątrz.

Co więcej, sugeruje, iż wiele z tego jest po prostu zbędne.

„Prawdopodobnie przesadzamy z projektowaniem i projektowaniem naszych centrów danych w oparciu o profil ryzyka z Ameryki z końca lat 70., gdzie sieć energetyczna nie była szczególnie stabilna”. Stąd obsesja na punkcie czasu sprawności, wzmocniona przez generatory diesla i ogromne ilości redundantnej infrastruktury.

Jak wyjaśnia Booth, takie podejście do odporności zostało zaimportowane do Wielkiej Brytanii w latach 80. XX wieku wraz z amerykańskimi bankami, które chciały wykorzystać „wielki wybuch” w mieście.

Menedżerowie IT doszli do „spodziewaj się, iż centra danych będą zimne i mieć zapasowe generatory diesla”.

Ale nie zawsze jest to konieczne, twierdzi Shawn Novak, dyrektor ds. przychodów w TECfusions, amerykańskiej firmie budującej sieć zrównoważonych centrów danych.

Przemawiając na sesji zrównoważonego rozwoju na Datacloud Global Congress w czerwcu, Novak powiedział, iż jego firma w dużym stopniu „adaptuje ponowne wykorzystanie” istniejących obiektów. Uczynienie istniejących obiektów bardziej wydajnymi jest samo w sobie eko-zwycięstwem. Ale ma też tę zaletę, iż te miejsca mają już dostęp do energii elektrycznej – podłączenie do sieci jest jednym z głównych hamulców w budowaniu nowych mocy.

Wielu inwestorów w nowej fali bardziej zrównoważone centra danych mają doświadczenie w kryptografii, dodał Novak. To wpłynie na sposób projektowania i budowy centrów danych w przyszłości, przewidział.

„Wszyscy są kryptomiliarderami. Zarobili mnóstwo pieniędzy i teraz zakładają własne firmy AI. Kiedyś robili swoje rzeczy w tekturowym pudełku z wielkim wentylatorem, który wdmuchiwał powietrze. Jaki to był poziom?”

Prawdopodobnie przesadzamy z projektowaniem i projektowaniem naszych centrów danych, opierając się na profilu ryzyka z końca lat 70. w Ameryce, gdzie sieć energetyczna nie była szczególnie stabilna

John Booth, Carbon3IT

To stoi w jaskrawym kontraście do obecnego, przesadnie rozbudowanego, przesadnie zaprojektowanego standardu branżowego, powiedział. „Świat kryptowalut nauczył nas, iż te rzeczy są dość odporne. Sieć jest w rzeczywistości dość stabilna. Obciążenie, które działa na tym GPU, nie jest krytyczne dla misji. jeżeli to się zepsuje, przejdzie do innego centrum danych i przez cały czas będzie działać”.

Booth uważa, iż ​​w kontekście stosów aplikacji i infrastruktury bazowej należy przede wszystkim zbadać kwestię czasu sprawności.

W przypadku większości firm obsługujących własną infrastrukturę, jedynymi naprawdę krytycznymi systemami są elektroniczny punkt sprzedaży i logistyka, sugeruje. Jednak większość liderów technologicznych wpadła w pułapkę klasyfikowania wszystkiego jako Tier 3, mówi, „gdy w rzeczywistości prawdopodobnie wystarczy wykonać trzy lub cztery aplikacje na Tier 4”.

Jeśli chodzi o resztę, „można na nich wytrzymać niewielką przerwę w dostawie prądu”.

„Ile aplikacji używanych przez użytkowników ma naprawdę krytyczne znaczenie dla misji? Usługi plików i drukowania niedostępne przez osiem godzin? Okej, w porządku. Po prostu korzystaj z laptopa, przechowuj go, ładuj do pamięci masowej, gdy będziesz mógł”, mówi Booth.

To pali

Dodatkowo firmy będą uruchamiać zbędne lub zastąpione aplikacje lub maszyny wirtualne, ponieważ menedżerowie czekają, czy nowy system się nie powiedzie. A gdy zespoły są rozdzielane lub ponownie przydzielane, te systemy nigdy nie są wyłączane.

„Wszyscy zapominają o dwóch ostatnich elementach Książę: wyciągnięte wnioski i wycofanie ze służby”, mówi. „Byłem na jednym spotkaniu projektowym, na którym miałem spotkanie podsumowujące wyciągnięte wnioski. Nigdy nie byłem na spotkaniu decom”.

Wszystkie te czynniki zaczną odgrywać rolę, gdy UE – i inni regulatorzy na całym świecie – zaczną uważniej przyglądać się sektorowi centrów danych.

Ale czy powinniśmy oczekiwać, iż UE i inne organy regulacyjne wycofają się z tej inicjatywy?

Nie od razu. Booth mówi, iż nowe wymogi sprawozdawcze oznaczają, iż UE po raz pierwszy będzie miała kompleksowe i dokładne dane, a ich analiza zajmie jej trochę czasu.

„Myślę, iż to ich zaskoczy” – przewiduje. „Myślę, iż co najmniej będzie to dwa razy więcej, niż myślą. A może być choćby cztery razy więcej. To naprawdę wprawi ich w panikę”.

Jeśli przepisy są zbyt rozdrobnione lub nadmiernie skomplikowane, mogą stanowić znaczne obciążenie dla operatorów, zmuszając nas do zatrudniania większej liczby osób i podnoszenia ich kwalifikacji, aby móc sprostać wymogom zgodności

Dave Smith, Digital Realty

W tym momencie organy regulacyjne zaczną podejmować bardziej drastyczne działania, a operatorzy centrów danych mogą znaleźć się w sytuacji, w której będą musieli stawić czoła lasowi marchewek i kijów.

Jak mówi Smith z Digital Realty, to, jak wdrażane są przepisy, ma naprawdę znaczenie. „Jeśli są zbyt rozdrobnione lub zbyt skomplikowane, mogą stanowić znaczne obciążenie dla operatorów, zmuszając nas do zatrudniania większej liczby osób i podnoszenia kwalifikacji, aby tylko nadążyć za zgodnością”.

Ale to nie tylko regulatorzy będą musieli martwić operatorów centrów danych. UE liczy na publikację danych o wydajności, aby kierować decyzjami użytkowników, niezależnie od tego, czy korzystają z obiektów kolokacji, czy po prostu z usług w chmurze.

Ostatecznie, mówi Booth, użytkownicy „nie chcą być kojarzeni z centrum danych, które zostało zidentyfikowane jako słabo działające”. Tak więc w dłuższej perspektywie operatorzy centrów danych, którzy nie doprowadzą swojego domu do porządku, odczują presję ze strony klientów. A to może boleć.



Source link

Idź do oryginalnego materiału