Nvidia DGX SuperPod to nowy superkomputer z procesorami graficznymi 96 × 16 Volta

Nvidia DGX SuperPod to nowy superkomputer z procesorami graficznymi 96 × 16 Volta 1
Nvidia DGX SuperPod to nowy superkomputer z procesorami graficznymi 96 × 16 Volta 1

Nvidia zaprezentowała swój własny superkomputer na głównym wydarzeniu ISC High Performance we Frankfurcie, które natychmiast zajęło 22 miejsce na światowej liście rankingowej. Jednak jeszcze bardziej interesujące niż wydajność jest podejście DGX SuperPOD: łączy 96 DGX-2 już zaprezentowane rok temu.

Podobnie jak 96 poszczególnych komponentów, każdy ustawiony na 16 procesorów graficznych Volta (Tesla V100 32 GB), więc DGX SuperPOD jest przeznaczony przede wszystkim do obliczeń AI, wyjaśnia Nvidia.

W ramach DGX-2 81 920 shaderów 16 GPU jest połączonych za pomocą przełącznika NVSwitch, który sam zawiera 2 miliardy tranzystorów. Każdy DGX-2 wykorzystuje procesor Intel Xeon Platinum 8174 z 24 rdzeniami. Do prezentacji systemu kostek Nvidia zadzwoniła jako cena zakupu około 400 000 USD przed opodatkowaniem. DGX SuperPOD stanowi prawie 40 milionów dolarów.

Zwracając się do architektury ARM dla przyszłych eksaskalowych superkomputerów, grupa Nvidia demonstruje elastyczność swoich rozwiązań przyspieszania GPU dla sztucznej inteligencji, ogłaszając pojawienie się potężnego superkomputera DGX SuperPOD.

Dzięki mocy obliczeniowej 9,4 petaflops, jest pozycjonowany jako 22. najpotężniejszy superkomputer na świecie, ale wymagał tylko trzech tygodni wdrożenia, w porównaniu do 6 do 9 miesięcy w przypadku superkomputerów o standardowej architekturze. baza serwera.

Opiera się na 96 systemach Nvidia DGX-2H, z których każdy integruje 16 akceleratorów Nvidia Tesla V100 (tj. 1536 Tesla V100 dla całego systemu) i jest połączony technologiami Mellanox, z przewagą modułowej konstrukcji.

Głównym celem DGX SuperPOD będzie szkolenie głębokich sieci neuronowych sztucznej inteligencji przyszłych autonomicznych samochodów na rynku. Przy 1 TB danych generowanych każdego dnia przez każdy pojazd i śledzeniu przez kilka lat, są to gigantyczne ilości danych, które muszą być przetwarzane i analizowane w celu zmniejszenia potencjalnych słabości sztucznej inteligencji w niektórych scenariuszach i ponownego szkolenia sieci. neurony, aby były bardziej wydajne.

Nvidia przedstawia swoje możliwości przetwarzania na przykładzie szkolenia sieci neuronowej ResNet-50 w mniej niż 2 minuty, kiedy w 2015 r. Zajęło 25 dni, kiedy została uruchomiona z procesorem graficznym Nvidia K80.