Przełamywanie barier w przyspieszonym przetwarzaniu obliczeniowym i generatywnej sztucznej inteligencji
Poznaj przełomowe osiągnięcia, jakie architektura NVIDIA Blackwell wnosi do generatywnej sztucznej inteligencji i przyspieszonego przetwarzania. Opierając się na generacjach technologii NVIDIA, firma Blackwell definiuje kolejny rozdział w dziedzinie generatywnej sztucznej inteligencji, zapewniając niezrównaną wydajność, efektywność i skalę.
Przyjrzyj się przełomom technologicznym
Nowa klasa superchipów AI
Procesory graficzne oparte na architekturze Blackwell zawierają 208 miliardów tranzystorów i są produkowane w specjalnie opracowanym procesie TSMC 4NP. Wszystkie produkty Blackwell są wyposażone w dwie kości o ograniczonej siatce, połączone łączem chip-chip o przepustowości 10 terabajtów na sekundę (TB/s) w zunifikowanym pojedynczym procesorze graficznym.
Silnik transformatorowy drugiej generacji
Silnik transformatorowy drugiej generacji wykorzystuje niestandardową technologię Blackwell Tensor Core w połączeniu z innowacjami NVIDIA® TensorRT™-LLM i NeMo™ Framework w celu przyspieszenia wnioskowania i uczenia w przypadku dużych modeli językowych (LLM) i modeli Mixture-of-Experts (MoE).
Aby usprawnić wnioskowanie modeli MoE, rdzenie Blackwell Tensor Core dodają nową precyzję, w tym nowe, zdefiniowane przez społeczność formaty mikroskalowania, zapewniając wysoką dokładność i łatwość wymiany na większe precyzje. Silnik transformatorowy Blackwell wykorzystuje techniki skalowania drobnoziarnistego zwane skalowaniem mikrotensorowym, aby zoptymalizować wydajność i dokładność, umożliwiając 4-bitową sztuczną inteligencję zmiennoprzecinkową (FP4). Podwaja to wydajność i rozmiar modeli nowej generacji obsługiwanych przez pamięć, zachowując jednocześnie wysoką dokładność.
Bezpieczna sztuczna inteligencja
Blackwell obejmuje funkcję NVIDIA Confidential Computing, która chroni wrażliwe dane i modele sztucznej inteligencji przed nieautoryzowanym dostępem za pomocą silnych zabezpieczeń sprzętowych. Blackwell to pierwszy w branży procesor graficzny obsługujący TEE-I/O, zapewniający jednocześnie najbardziej wydajne rozwiązanie do poufnych obliczeń z hostami obsługującymi TEE-I/O i ochroną inline za pośrednictwem NVIDIA® NVLink®. Blackwell Confidential Computing zapewnia niemal identyczną przepustowość w porównaniu z trybami nieszyfrowanymi. Przedsiębiorstwa mogą teraz skutecznie zabezpieczać nawet największe modele, a także chronić własność intelektualną AI (IP) i bezpiecznie umożliwiać poufne szkolenia w zakresie sztucznej inteligencji, wnioskowanie i zintegrowane uczenie się.
Dowiedz się więcej o poufnym przetwarzaniu komputerowym NVIDIA >
NVLink i przełącznik NVLink
Uwolnienie pełnego potencjału obliczeń eksaskalowych i modeli sztucznej inteligencji o bilionach parametrów zależy od potrzeby szybkiej i bezproblemowej komunikacji pomiędzy każdym procesorem graficznym w klastrze serwerów. Piąta generacja łącza NVIDIA® NVLink® może skalować do 576 procesorów graficznych, aby uwolnić zwiększoną wydajność w modelach AI o bilionach i wielu bilionach parametrów.
Układ przełączający NVIDIA NVLink umożliwia przepustowość procesora graficznego na poziomie 130 TB/s w jednej domenie NVLink zawierającej 72 procesory graficzne (NVL72) i zapewnia 4-krotnie większą wydajność przepustowości dzięki obsłudze protokołu NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ FP8. Układ przełączający NVIDIA NVLink obsługuje klastry wykraczające poza pojedynczy serwer przy tej samej imponującej szybkości połączenia 1,8 TB/s. Klastry składające się z wielu serwerów z komunikacją GPU w skali NVLink równoważącą zwiększoną moc obliczeniową, dzięki czemu NVL72 może obsługiwać 9-krotnie większą przepustowość procesora graficznego niż pojedynczy system z ośmioma procesorami graficznymi.
Silnik dekompresyjny
Analityka danych i przepływy pracy w bazach danych tradycyjnie opierały się na procesorach obliczeniowych. Przyspieszona analiza danych może radykalnie zwiększyć wydajność kompleksowych analiz, przyspieszając generowanie wartości przy jednoczesnej redukcji kosztów. Bazy danych, w tym Apache Spark, odgrywają kluczową rolę w obsłudze, przetwarzaniu i analizowaniu dużych ilości danych na potrzeby analityki danych.
Silnik dekompresyjny firmy Blackwell i możliwość dostępu do ogromnych ilości pamięci w procesorze NVIDIA Grace™ poprzez szybkie łącze — przepustowość dwukierunkowa 900 gigabajtów na sekundę (GB/s) — przyspieszają pełny potok zapytań do baz danych, zapewniając najwyższą wydajność danych analityka i nauka o danych z obsługą najnowszych formatów kompresji, takich jak LZ4, Snappy i Deflate.
Silnik niezawodności, dostępności i serwisowalności (RAS).
Blackwell dodaje inteligentną odporność dzięki dedykowanemu silnikowi niezawodności, dostępności i serwisowalności (RAS), aby identyfikować potencjalne usterki, które mogą wystąpić na wczesnym etapie, aby zminimalizować przestoje. Oparte na sztucznej inteligencji funkcje zarządzania predykcyjnego firmy NVIDIA stale monitorują tysiące punktów danych na sprzęcie i oprogramowaniu pod kątem ogólnego stanu, aby przewidywać i przechwytywać źródła przestojów i nieefektywności. Tworzy to inteligentną odporność, która oszczędza czas, energię i koszty obliczeniowe.
Silnik RAS firmy NVIDIA zapewnia szczegółowe informacje diagnostyczne, które pozwalają zidentyfikować obszary budzące wątpliwości i zaplanować konserwację. Silnik RAS skraca czas realizacji, szybko lokalizując źródło problemów i minimalizuje przestoje, ułatwiając skuteczne usuwanie usterek.