![](https://format.com.pl/wp-content/uploads/2024/06/nvidia-a2-kv-web-banner-bb460_420-d.jpg)
![](https://format.com.pl/wp-content/uploads/2024/06/nvidia-a2-kv-web-banner-bb460_420-d.jpg)
GPU NVIDIA A2 Tensor Core
Podstawowy procesor graficzny, który przenosi sztuczną inteligencję NVIDIA na dowolny serwer.
Procesor graficzny NVIDIA A2 Tensor Core zapewnia wnioskowanie na poziomie podstawowym przy niskim poborze mocy, niewielkich rozmiarach i wysokiej wydajności dla NVIDIA AI na krawędzi. Wyposażony w niskoprofilową kartę PCIe Gen4 i niską konfigurowalną moc obliczeniową (TDP) wynoszącą 40–60 W, A2 zapewnia wszechstronne przyspieszenie wnioskowania na dowolnym serwerze w celu wdrożenia na dużą skalę.
Wnioskowanie oparte na sztucznej inteligencji ma na celu poprawę jakości życia konsumentów dzięki inteligentnym doświadczeniom działającym w czasie rzeczywistym oraz uzyskiwanie informacji z bilionów czujników i kamer w punktach końcowych. W porównaniu z serwerami wyposażonymi wyłącznie w procesor, serwery brzegowe i podstawowe z procesorami graficznymi NVIDIA A2 Tensor Core oferują do 20 razy większą wydajność wnioskowania, umożliwiając natychmiastową modernizację dowolnego serwera pod kątem obsługi nowoczesnej sztucznej inteligencji.
Porównanie jednego procesora graficznego NVIDIA A2 Tensor Core z dwugniazdowym procesorem Xeon Gold 6330N
Konfiguracja systemu: [Procesor: HPE DL380 Gen10 Plus, 2S Xeon Gold 6330N @ 2,2 GHz, 512 GB DDR4]
NLP: BERT-Large (Długość sekwencji: 384, SQuAD: v1.1) | TensorRT 8.2, Precyzja: INT8, BS:1 (GPU) | OpenVINO 2021.4, Precyzja: INT8, BS:1 (CPU)
Zamiana tekstu na mowę: kompleksowy potok Tacotron2 + Waveglow (długość wejściowa: 128) | PyTorch 1.9, Precyzja: FP16, BS:1 (GPU) | PyTorch 1.9, precyzja: FP32, BS:1 (procesor)
Wizja komputerowa: EfficientDet-D0 (COCO, 512×512) | TensorRT 8.2, Precyzja: INT8, BS:8 (GPU) | OpenVINO 2021.4, Precyzja: INT8, BS:8 (CPU)
Serwery wyposażone w procesory graficzne NVIDIA A2 oferują do 1,3 razy większą wydajność w inteligentnych zastosowaniach brzegowych, w tym w inteligentnych miastach, produkcji i handlu detalicznym. Procesory graficzne NVIDIA A2 obsługujące obciążenia IVA zapewniają bardziej wydajne wdrożenia, oferując nawet 1,6 razy lepszą wydajność w stosunku do ceny i o 10 procent lepszą efektywność energetyczną w porównaniu z poprzednimi generacjami procesorów graficznych.
Konfiguracja systemu: [Supermicro SYS-1029GQ-TRT, 2S Xeon Gold 6240 @ 2,6 GHz, 512 GB DDR4, 1x NVIDIA A2 LUB 1x NVIDIA T4] | Zmierzona wydajność z Deepstream 5.1. Sieci: ShuffleNet-v2 (224×224), MobileNet-v2 (224×224). | Pipeline reprezentuje kompleksową wydajność obejmującą przechwytywanie i dekodowanie wideo, przetwarzanie wstępne, przetwarzanie wsadowe, wnioskowanie i przetwarzanie końcowe.
NVIDIA A2 jest zoptymalizowana pod kątem obciążeń wnioskowania i wdrożeń na serwerach klasy podstawowej ograniczonych wymaganiami przestrzennymi i termicznymi, takimi jak środowiska brzegowe 5G i środowiska przemysłowe. A2 zapewnia niskoprofilową obudowę działającą w obudowie o niskim poborze mocy, od TDP od 60 W do 40 W, co czyni go idealnym rozwiązaniem dla każdego serwera.
Wnioskowanie oparte na sztucznej inteligencji w dalszym ciągu napędza przełomowe innowacje w różnych branżach, w tym w Internecie konsumenckim, opiece zdrowotnej i naukach przyrodniczych, usługach finansowych, handlu detalicznym, produkcji i obliczeniach superkomputerowych. Niewielka obudowa A2 i niski pobór mocy w połączeniu z procesorami graficznymi NVIDIA A100 i A30 Tensor Core zapewniają kompletne portfolio wnioskowania AI w chmurze, centrum danych i na krawędzi. A2 i portfolio wnioskowania AI NVIDIA zapewniają wdrażanie aplikacji AI przy mniejszej liczbie serwerów i mniejszym zużyciu energii, co skutkuje szybszymi wnioskami i znacznie niższymi kosztami.
NVIDIA AI Enterprise, kompleksowy, natywny w chmurze pakiet oprogramowania AI i analizy danych, posiada certyfikat do działania na platformie A2 w infrastrukturze wirtualnej opartej na hypervisorze z VMware vSphere. Umożliwia to zarządzanie i skalowanie obciążeń AI i wnioskowania w środowisku chmury hybrydowej.
Dowiedz się więcej o NVIDIA AI EnterpriseSystemy z certyfikatem NVIDIA™ z NVIDIA A2 łączą przyspieszenie obliczeń i szybką, bezpieczną sieć NVIDIA w serwerach centrów danych dla przedsiębiorstw, budowanych i sprzedawanych przez partnerów OEM firmy NVIDIA. Program ten pozwala klientom identyfikować, nabywać i wdrażać systemy dla tradycyjnych i różnorodnych nowoczesnych aplikacji AI z katalogu NVIDIA NGC™ w ramach jednej, wydajnej, ekonomicznej i skalowalnej infrastruktury.
Dowiedz się więcej o systemach z certyfikatem NVIDIAArchitektura NVIDIA Ampere została zaprojektowana z myślą o epoce elastycznego przetwarzania danych, zapewniając wydajność i przyspieszenie potrzebne do obsługi nowoczesnych aplikacji dla przedsiębiorstw. Poznaj serce najbardziej wydajnych i elastycznych centrów danych na świecie.
Peak FP32 | 4.5 TF | |
TF32 Tensor Core | 9 TF | 18 TF¹ | |
BFLOAT16 Tensor Core | 18 TF | 36 TF¹ | |
Peak FP16 Tensor Core | 18 TF | 36 TF¹ | |
Peak INT8 Tensor Core | 36 TOPS | 72 TOPS¹ | |
Peak INT4 Tensor Core | 72 TOPS | 144 TOPS¹ | |
RT Cores | 10 | |
Media engines | 1 video encoder 2 video decoders (includes AV1 decode) |
|
GPU memory | 16GB GDDR6 | |
GPU memory bandwidth | 200GB/s | |
Interconnect | PCIe Gen4 x8 | |
Form factor | 1-slot, low-profile PCIe | |
Max thermal design power (TDP) | 40–60W (configurable) | |
Virtual GPU (vGPU) software support² | NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS) |
Poznaj najnowocześniejsze technologie architektury NVIDIA Ampere.