Nvidia DGX SuperPod to nowy superkomputer z procesorami graficznymi 96 ├Ś 16 Volta

Nvidia DGX SuperPod to nowy superkomputer z procesorami graficznymi 96 ├Ś 16 Volta 1
Nvidia DGX SuperPod to nowy superkomputer z procesorami graficznymi 96 ├Ś 16 Volta 1

Nvidia zaprezentowa┼éa sw├│j w┼éasny superkomputer na g┼é├│wnym wydarzeniu ISC High Performance we Frankfurcie, kt├│re natychmiast zaj─Ö┼éo 22 miejsce na ┼Ťwiatowej li┼Ťcie rankingowej. Jednak jeszcze bardziej interesuj─ůce ni┼╝ wydajno┼Ť─ç jest podej┼Ťcie DGX SuperPOD: ┼é─ůczy 96 DGX-2 ju┼╝ zaprezentowane rok temu.

Podobnie jak 96 poszczeg├│lnych komponent├│w, ka┼╝dy ustawiony na 16 procesor├│w graficznych Volta (Tesla V100 32 GB), wi─Öc DGX SuperPOD jest przeznaczony przede wszystkim do oblicze┼ä AI, wyja┼Ťnia Nvidia.

W ramach DGX-2 81 920 shader├│w 16 GPU jest po┼é─ůczonych za pomoc─ů prze┼é─ůcznika NVSwitch, kt├│ry sam zawiera 2 miliardy tranzystor├│w. Ka┼╝dy DGX-2 wykorzystuje procesor Intel Xeon Platinum 8174 z 24 rdzeniami. Do prezentacji systemu kostek Nvidia zadzwoni┼éa jako cena zakupu oko┼éo 400 000 USD przed opodatkowaniem. DGX SuperPOD stanowi prawie 40 milion├│w dolar├│w.

Zwracaj─ůc si─Ö do architektury ARM dla przysz┼éych eksaskalowych superkomputer├│w, grupa Nvidia demonstruje elastyczno┼Ť─ç swoich rozwi─ůza┼ä przyspieszania GPU dla sztucznej inteligencji, og┼éaszaj─ůc pojawienie si─Ö pot─Ö┼╝nego superkomputera DGX SuperPOD.

Dzi─Öki mocy obliczeniowej 9,4 petaflops, jest pozycjonowany jako 22. najpot─Ö┼╝niejszy superkomputer na ┼Ťwiecie, ale wymaga┼é tylko trzech tygodni wdro┼╝enia, w por├│wnaniu do 6 do 9 miesi─Öcy w przypadku superkomputer├│w o standardowej architekturze. baza serwera.

Opiera si─Ö na 96 systemach Nvidia DGX-2H, z kt├│rych ka┼╝dy integruje 16 akcelerator├│w Nvidia Tesla V100 (tj. 1536 Tesla V100 dla ca┼éego systemu) i jest po┼é─ůczony technologiami Mellanox, z przewag─ů modu┼éowej konstrukcji.

G┼é├│wnym celem DGX SuperPOD b─Ödzie szkolenie g┼é─Öbokich sieci neuronowych sztucznej inteligencji przysz┼éych autonomicznych samochod├│w na rynku. Przy 1 TB danych generowanych ka┼╝dego dnia przez ka┼╝dy pojazd i ┼Ťledzeniu przez kilka lat, s─ů to gigantyczne ilo┼Ťci danych, kt├│re musz─ů by─ç przetwarzane i analizowane w celu zmniejszenia potencjalnych s┼éabo┼Ťci sztucznej inteligencji w niekt├│rych scenariuszach i ponownego szkolenia sieci. neurony, aby by┼éy bardziej wydajne.

Nvidia przedstawia swoje mo┼╝liwo┼Ťci przetwarzania na przyk┼éadzie szkolenia sieci neuronowej ResNet-50 w mniej ni┼╝ 2 minuty, kiedy w 2015 r. Zaj─Ö┼éo 25 dni, kiedy zosta┼éa uruchomiona z procesorem graficznym Nvidia K80.