Intel Cascade Lake z DL Boost idzie łeb w łeb z Titan RTX Nvidii w testach AI

Ta strona może zarabiać prowizje partnerskie z linków na tej stronie. Warunki korzystania. Intel Cascade Lake z DL Boost idzie łeb w łeb z Titan RTX Nvidii w testach AI 1

Przez kilka ostatnich lat Intel rozmawiał z serwerami Cascade Lake o DL Boost (znanym również jako VNNI, Vector Neural Net Instructions). Te nowe możliwości są podzbiorem AVX-512 i mają na celu szczególnie przyspieszenie wydajności procesora w aplikacjach AI. Historycznie wiele aplikacji AI preferowało procesory graficzne zamiast procesorów. Architektura procesorów graficznych – masywnie równoległych procesorów o niskiej wydajności jednowątkowej – znacznie lepiej pasowała do procesorów graficznych niż do procesorów. Procesory oferują znacznie więcej zasobów do wykonania na wątek, ale nawet dzisiejsze wielordzeniowe procesory są przyćmione równoległością dostępną w wysokiej klasy rdzeniu GPU.

Anandtech porównał wydajność Cascade Lake, Epyc 7601 (wkrótce zostaną wyprzedzone przez procesory AMD 7 nm Rome, ale nadal wiodący rdzeń serwera AMD) i RTX Titan. Artykuł autorstwa doskonałego Johana De Gelasa omawia różne typy sieci neuronowych poza CNN (Convolutional Neural Networks), które są zazwyczaj testowane i jak kluczową częścią strategii Intela jest konkurowanie z Nvidią w obciążeniach, w których GPU nie są tak silne lub nie może jeszcze zaspokoić pojawiających się potrzeb rynku z powodu ograniczeń pojemności pamięci (procesory graficzne wciąż nie mogą dopasować procesorów tutaj), zastosowania „lekkich” modeli AI, które nie wymagają długiego czasu szkolenia, lub modeli AI zależnych od modele statystyczne sieci nieneuronalnych.

Rosnące przychody z centrów danych są kluczowym elementem ogólnego nacisku Intela na sztuczną inteligencję i uczenie maszynowe. Tymczasem Nvidia chce chronić rynek, na którym obecnie praktycznie konkuruje. Strategia AI AI jest szeroka i obejmuje wiele produktów, od Movidius i Nervana, przez DL Boost na Xeon, aż po nadchodzącą linię procesorów graficznych Xe. Nvidia stara się pokazać, że procesory graficzne mogą być używane do obsługi obliczeń AI w szerszym zakresie obciążeń. Intel wprowadza nowe możliwości sztucznej inteligencji do istniejących produktów, wystawiając nowy sprzęt, który, jak ma nadzieję, wpłynie na rynek, i próbuje zbudować swój pierwszy poważny procesor graficzny, aby rzucić wyzwanie pracy AMD i Nvidii w przestrzeni konsumenckiej.

Łącznie wyniki testów Anandtech pokazują, że przepaść między Intelem a Nvidią pozostaje szeroka – nawet przy DL Boost. Na tym wykresie testu nawrotowej sieci neuronowej wykorzystano sieć „Long Short-Term Memory (LSTM) jako sieć neuronową. Rodzaj RNN, LSTM wybiórczo „zapamiętuje” wzorce w określonym czasie. ”Anandtech wykorzystał także trzy różne konfiguracje do przetestowania – gotowy Tensorflow z condą, zoptymalizowany pod kątem Intela Tensorflow z PyPi oraz wersja Tensorflow zoptymalizowana ze źródła przy użyciu Bazel, przy użyciu najnowszej wersji Tensorflow.

Intel Cascade Lake z DL Boost idzie łeb w łeb z Titan RTX Nvidii w testach AI 2

Zdjęcie Anandtech

Intel Cascade Lake z DL Boost idzie łeb w łeb z Titan RTX Nvidii w testach AI 3

Zdjęcie Anandtech

Ta para obrazów rejestruje względne skalowanie między procesorami, a także porównanie z RTX Titan. Wydajność po wyjęciu z pudełka była dość niska na AMD, choć poprawiła się dzięki zoptymalizowanemu kodowi. Wydajność Intela wystrzeliła jak rakieta podczas testowania wersji zoptymalizowanej pod kątem źródła, ale nawet wersja zoptymalizowana pod kątem źródła nie pasowała do wydajności Titan RTX. De Gelas zauważa: „Po drugie, byliśmy bardzo zaskoczeni, że nasz Titan RTX był mniej niż 3 razy szybszy niż nasz podwójny zestaw Xeon”, co mówi ci coś o tym, jak te porównania przebiegają w większym artykule.

DL Boost to za mało, by zlikwidować przepaść między Intelem a Nvidią, ale uczciwie, prawdopodobnie nigdy tak nie było. Celem Intela jest poprawa wydajności AI dość na Xeon, aby umożliwić wykonywanie tych obciążeń na serwerach, które będą używane głównie do innych celów, lub podczas budowania modeli sztucznej inteligencji, które nie mieszczą się w ograniczeniach nowoczesnej karty graficznej. Długofalowym celem firmy jest konkurowanie na rynku sztucznej inteligencji za pomocą szeregu urządzeń, a nie tylko Xeonów. Ponieważ Xe nie jest jeszcze całkiem gotowy, konkurowanie w przestrzeni HPC oznacza teraz konkurowanie z Xeon.

Dla tych, którzy zastanawiają się nad AMD, AMD tak naprawdę nie mówi o uruchamianiu obciążeń AI na procesorach Epyc, ale skupiła się na swojej inicjatywie RocM dotyczącej uruchamiania kodu CUDA w OpenCL. AMD nie mówi zbyt wiele o tej stronie swojej działalności, ale Nvidia dominuje na rynku układów GPU AI i HPC. Zarówno AMD, jak i Intel chcą trochę miejsca. W tej chwili wydaje się, że oba walczą pod górę, aby zdobyć jedno.

Teraz przeczytaj: