NVIDIA DGX SuperPOD
z systemami DGX GB200
Infrastruktura AI ze stałym czasem pracy.
NVIDIA DGX SuperPOD™ z systemami DGX GB200 została stworzona specjalnie do trenowania i wnioskowania generatywnych modeli AI o bilionach parametrów. Każdy stelaż chłodzony cieczą zawiera 36 superchipów NVIDIA GB200 Grace Blackwell – 36 procesorów NVIDIA Grace i 72 procesory graficzne Blackwell – połączonych w jeden za pomocą NVIDIA NVLink. Wiele szaf łączy się z NVIDIA Quantum InfiniBand, aby skalować do dziesiątek tysięcy superchipów GB200.
Dowiedz się, jak DGX SuperPOD z systemami DGX GB200 przyspiesza innowacje AI.
Przeczytaj arkusz danychPrzeczytaj, jak platforma NVIDIA DGX™ i NVIDIA NeMo™ wspierają wiodące przedsiębiorstwa.
Pobierz e-bookaInteligentna płaszczyzna sterowania śledzi tysiące punktów danych na sprzęcie, oprogramowaniu i infrastrukturze centrum danych, aby zapewnić ciągłość działania i integralność danych, zaplanować konserwację i automatycznie ponownie skonfigurować klaster, aby uniknąć przestojów.
Skalowalny do dziesiątek tysięcy superchipów NVIDIA GB200, DGX SuperPOD z systemami DGX GB200 bez wysiłku przeprowadza szkolenie i wnioskowanie na najnowocześniejszych, generatywnych modelach AI o bilionach parametrów.
Superchipy NVIDIA GB200, każdy z jednym procesorem Grace i dwoma procesorami graficznymi Blackwell, są połączone za pośrednictwem NVLink piątej generacji, aby uzyskać przepustowość między procesorami graficznymi wynoszącą 1,8 terabajta na sekundę (TB/s).
DGX SuperPOD z systemami NVIDIA DGX B200 i DGX H100 to idealny wybór dla dużych zespołów programistycznych pracujących nad obciążeniami AI w przedsiębiorstwie.
Infrastruktura AI do wdrożeń w przedsiębiorstwachUsługi NVIDIA Enterprise Services zapewniają wsparcie, edukację i profesjonalne usługi dla Twojej infrastruktury DGX. Dzięki ekspertom NVIDIA dostępnym na każdym etapie Twojej podróży do AI, usługi dla przedsiębiorstw mogą pomóc Ci szybko i skutecznie uruchomić Twoje projekty.
Dowiedz się więcej o usługach DGX Enterprise