Centra Danych – Efektywność zużycia energii w IT

PUE czyli efektywność zużycia energii elektrycznej centrum danych

PUE – (ang. Power Usage Effectiveness) jest to współczynnik określający proporcje energii elektrycznej zużywanej na zasilanie centrum danych do energii elektrycznej zużywanej przez urządzenia IT. Im wartość bliższa 1 tym mniej energii marnowanej jest na potrzeby zapewnienia odpowiednich warunków termicznych serwerowni oraz odpowiedniej infrastruktury (zasilanie, chłodzenie itp.).

Współczynnik PUE został opracowany w roku 2007 i opisany przez amerykańską organizację The Green Grid skupiającą użytkowników końcowych, decydentów, producentów rozwiązań technologicznych oraz architektów infrastruktury. Szczegółowo PUE został opisane w dokumencie “PUE: A comprehensive examination of the metric“.

Wzór zaczerpnięty dosłownie z dokumentu wygląda następująco:

PUE = Total Facility Energy – całkowita energia obiektu. / IT Equipment Energy – energia urządzeń IT.

pue

Termin PUE na język polski należy przetłumaczyć dosłownie jako “efektywność zużycia energii”. Jak można wyczytać w ww. dokumencie, wskaźnik ten służy do pomiaru efektywności energetycznej infrastruktury centrum danych i jest on narzędziem dla użytkownika końcowego, umożliwiającym zwiększenie efektywności energetycznej działania centrum danych.

W praktyce niższy współczynnik PUE (bliższy 1) oznacza mniejsze wydatki związane z zasilaniem mocy obliczeniowej. Centra danych o tej samej mocy IT i różnych współczynnikach PUE będą miały różne koszty utrzymania, co przełoży się bezpośrednio na cenę usługi docelowej.

Największy wpływ na docelową wartość współczynnika PUE mamy w fazie projektowania serwerowni, kiedy to możemy odpowiednio zaplanować i dobrać rozwiązanie chłodzenia i zasilania (główne czynniki mające wpływ na wynik). Pozostałe elementy mają mniejsze znaczenie, co nie oznacza, iż nie powinny być odpowiednio przemyślane. Urządzenia bardziej efektywne energetycznie są droższe, jednak oszczędności jakie nam zapewnią w trakcie eksploatacji obiektu zrekompensują większe koszty w niedługim czasie.

Istnieje kilka sposobów na zwiększenie efektywności energetycznej serwerowni już działającej, jednak będą to raczej zmiany symboliczne.

GreenDEF-WP-Image

Green Revolution Cooling  (GRC)  jest firmą produkującą rozwiązania chłodzenia cieczą dedykowane dla dużych Data Center. Prace nad oferowana technologią rozpoczęte zostały w roku 2009 a pierwsza instalacja u końcowego klienta to polowa roku 2010.

Ideą firmy było zbudowanie produktu który znacząco obniży zużycie energii w Data Center oraz obniży koszty jego przygotowania. Efektem prac jest system nazwany CarnotJet™.

thumbs_cgg-june-2013  thumbs_carnotjet-two-quadsCarnotJet™ to system horyzontalnych szaf rack wypełnionych dielektrycznym , nietoksycznym i nieszkodliwym dla środowiska płynem GreenDEF™ .  System  wyposażony jest jedynie w trzy elementy mechaniczne ( oczywiście redundantne ) które definitywnie obniżają możliwość wystąpienia awarii. Są to : pompa wody, pompa oleju oraz wentylator chłodzący obudowę w której znajdują się pompy.  Przygotowanie Data Center do pracy  z rozwiązaniami GRC wymaga dużo mniejszych kosztów w stosunku do klasycznego DC.  Pomieszczenia wyposażone w systemy CarnotJet™ nie wymagają klimatyzacji. Możemy również zupełnie zrezygnować z systemu podniesionych podłóg.

Serwery instalowane w urządzeniach firmy GRC są w całości zatapiane w płynie. Pozbawione są wiec jakichkolwiek elementów mechanicznych kojarzonych z klasycznym chłodzeniem powietrzem.  Redukujemy w ten sposób nie tylko pobór prądu ale także wibracje generowane przez wentylatory.

W jednej szafie możemy zainstalować urządzenia o poborze mocy wyższej niż 100KW. Przy gęstości nieosiągalnej przy klasycznych rozwiązaniach różnica temperatur w obrębie szafy wynosi maksymalnie +/- 1⁰ C.

Oszczędności jakie przynosi zastosowanie CarnotJet™  w Data Center są ogromne. Eliminując duże koszty zakupu i utrzymania centralnych systemów zarządzających obiegiem i temperaturą powietrza znacząco obniżamy koszty pracy serwerów  ( pobór prądu niższy do 25% ) oraz wychłodzenia szafy ( pobór prądu niższy o średnio 45% ) .  Wskaźnik PUE w przypadku rozwiązań Green Revolution Cooling wynosi  1,14.

http://www.youtube.com/embed?listType=user_uploads&list=grcooling

cgg-mediumtsubame-kfc-web

http://www.grcooling.com/

Zapraszamy do kontaktu z działem handlowym.

Iceotope Ltd.  oferuje unikatowe, modularne, systemy pozwalające na obniżenie kosztów działania klasycznego data center. Chłodzone cieczą rozwiązanie obejmuje wszystkie niezbędne komponenty :

– dedykowane szafy RACK

rack

– systemy chłodzenia cieczą

01

 

 

 

 

 

 

 

 

 

 

 

– moduły obliczeniowe zbudowane zarówno w oparciu o technologie Intel jak i AMD + własne systemy IP

isotope_node

Oszczędności płynące z zastosowania pełnej infrastruktury Iceotope pozwalają na obniżenie kosztów chłodzenia sprzętu o 97%, zasilania systemów obliczeniowych o 20% a całość wydatków poniesionych na infrastrukturę ICT spada nawet o 50%.

green_solution

Platforma Iceotope to  szafa rack 19” zawierająca układ chłodzenia cieczą pracujący pod niskim ciśnieniem ( 0,2 bara ). System zawiera pełen zestaw komponentów odpowiedzialnych za dystrybucje ciepła, zasilania oraz chłodzenia.

Jedna szafa może obsłużyć 6 modułów centralnych. W każdym z nich możemy zainstalować do ośmiu modułów obliczeniowych „hot swap” .

Moduł obliczeniowy Intel :

  • jeden lub dwa procesory Intel E5 Romley , sześć lub osiem rdzeni
  • do 256 GB pamięci DDR3 ECC-R
  • jeden lub dwa dyski SSD Intel z rodziny 710
  • układ zarządzający IPMI z dedykowana karta sieciowa
  • porty USB oraz VGA dostępne w przedniej części modułu
  • dwuportowa karta sieciowa 10/100/100 Base-T
  • wsparcie dla kart Mellanox 10GbE/40Gb infiniband
  • złącza PCIe x16 + PCIe x8 służące do połaczenia z Iceotope Expansion Module
Moduł obliczeniowy AMD :

  • jeden lub dwa procesory AMD serii 6200, dwanaście lub szesnaście rdzeni
  • do 256 GB pamięci DDR3 ECC-R
  • jeden lub dwa dyski SSD Intel z rodziny 710
  • układ zarządzający IPMI z dedykowana karta sieciowa
  • porty USB oraz VGA dostępne w przedniej części modułu
  • dwuportowa karta sieciowa 10/100/100 Base-T
  • wsparcie dla kart Mellanox 10GbE/40Gb infiniband
  • złącze PCIe x16 służące do połaczenia z Iceotope Expansion Module

Platforma Iceotope w maksymalnej konfiguracji, wyposażona w 768 rdzeni obliczeniowych Intel lub 1536 rdzeni obliczeniowych AMD , 12 TB RAM oraz 28 TB pamięci dyskowej pobiera mniej niż 20kW mocy.

sustainable-rackliquid-cooling

 

http://www.youtube.com/embed?listType=user_uploads&list=iceotopevideos

http://www.iceotope.com/

Zapraszamy do kontaktu z działem handlowym.

Top