Ta strona może zarabiać prowizje partnerskie z linków na tej stronie. Warunki korzystania. Jednym z tematów, do którego powracaliśmy wielokrotnie w ExtremeTech, jest trudność skalowania wydajności zarówno procesorów, jak i procesorów graficznych. Producenci półprzewodników na całym świecie zmagają się z tym problemem, podobnie jak projektanci CPU i GPU. Do tej pory nie było cudownych lekarstw ani łatwych rozwiązań tego problemu, ale firmy zwróciły się do szerokiej gamy alternatywnych podejść, aby pomóc im w zwiększeniu podstawowej wydajności półprzewodników, w tym nowych rodzajów technologii pakowania. HBM, chiplety, a nawet technologie, takie jak nowy interkonekt 3D Intela, Foveros, są częścią szeroko zakrojonych wysiłków branżowych zmierzających do znalezienia nowych sposobów łączenia układów, a nie skupiają się wyłącznie na zmniejszaniu układów.
Teraz para badaczy twierdzi, że nadszedł czas, aby pójść o krok dalej i całkowicie zrzucić płytkę drukowaną. W artykule dla IEEE Spectrum Puneet Gupta i Subramanian S. Iyer piszą, że nadszedł czas, aby zastąpić PCB samym krzemem i wyprodukować całe systemy na jednym waflu. Jeśli ten argument brzmi znajomo, to dlatego, że ta para jest dwoma autorami artykułu, który omówiliśmy na początku tego roku na temat zalet przetwarzania waflowego dla procesorów graficznych przy użyciu technologii połączeń, którą opracowali jako Si-IF – Silicon Interconnect Fabric.
Przetwarzanie w skali waflowej polega na wykorzystaniu całego krzemowego wafla do zbudowania jednej ogromnej części – w tym przypadku GPU. Praca zespołu badawczego wykazała, że jest to dziś potencjalnie opłacalne podejście pod względem wydajności, wydajności i zużycia energii, przy lepszych wynikach niż można by oczekiwać po zbudowaniu równoważnej liczby oddzielnych układów GPU przy użyciu konwencjonalnych technik produkcji. W artykule para zwraca uwagę na wiele problemów związanych z utrzymywaniem płyt głównych w pierwszej kolejności, zaczynając od potrzeby zamontowania faktycznego fizycznego układu w pakiecie do 20x większym niż procesor. W końcu matryca procesora jest zwykle znacznie mniejsza niż fizyczne podłoże, na którym jest zamontowana.
Schemat: Brandon Palacio dla IEEE Spectrum
Autorzy twierdzą, że użycie fizycznych pakietów dla układów scalonych (tak jak robimy to, gdy montujemy je na płytce drukowanej) zwiększa odległość, którą sygnały między układami muszą pokonać 10-krotnie, tworząc gigantyczną prędkość i wąskie gardło pamięci. Jest to część problemu z tak zwaną „ścianą pamięci” – zegary i wydajność pamięci RAM wzrosły znacznie wolniej niż wydajność procesora, częściowo z powodu konieczności połączenia pamięci w pewnej fizycznej odległości od pakietu procesora. Jest to również część tego, dlaczego HBM jest w stanie zapewnić tak ogromną przepustowość pamięci – przeniesienie pamięci bliżej procesora pozwala na znacznie szersze ścieżki sygnału. Pakowane żetony są również trudniejsze do utrzymania w chłodzie. Dlaczego to wszystko robimy? Ponieważ wymagają tego PCB.
Ale według dwóch badaczy krzemowe pośredniczące i podobne technologie są zasadniczo niewłaściwymi ścieżkami. Zamiast tego proponują procesory łączące, pamięć, analog, RF i wszystkie inne chiplety bezpośrednio na waflu. Zamiast uderzeń lutowia chipy używałyby miedzianych słupków w skali mikrometra umieszczonych bezpośrednio na krzemowym podłożu. Chipowe porty I / O byłyby bezpośrednio związane z podłożem za pomocą kompresji termicznej w wiązaniu miedzi z miedzią. Radiatory mogą być umieszczone po obu stronach Si-IF w celu łatwiejszego chłodzenia produktów, a krzem jest lepszym przewodnikiem ciepła niż PCB.
Sama trudność obecnego skalowania stanowi własny argument za badaniem takich pomysłów. Stara mantra Prawa / Skalowania Dennarda „Moore, szybciej, taniej” już nie działa. Jest całkiem możliwe, że zastąpienie płytek PCB lepszym podłożem może pozwolić na znacznie lepsze skalowanie wydajności, przynajmniej w niektórych scenariuszach. Systemy na skalę waflową byłyby o wiele za drogie, aby instalować je w dowolnym domu, ale mogłyby zasilać serwery przyszłości. Firmy takie jak Microsoft, Amazon, a Google obstawia miliardy na pomysł, że następna fala wysokowydajnych komputerów będzie oparta na chmurze, a gigantyczne komputery oparte na waflach mogą znaleźć szczęśliwy dom w przemysłowych bazach danych. W oparciu o wyniki testów GPU, które omówiliśmy na początku tego roku, wydaje się, że pomysł jest uzasadniony. Powyższy wykres z pracy z kartą graficzną pokazuje opóźnienie, szerokość pasma i zapotrzebowanie na energię do integracji w skali opłatkowej w porównaniu do konwencjonalnych metod.
Wydajność to nie jedyny powód, dla którego istnieje komputer
Ważne jest również, aby uznać, że ekosystem komputera nie właśnie istnieją, aby poprawić wydajność. Komputery zostały zaprojektowane tak, aby były elastyczne i modułowe, aby ułatwić korzystanie z nich w różnych okolicznościach. Mam starszą maszynę z procesorem X79 z ograniczoną liczbą portów USB 3.0. Wiele lat temu postanowiłem uzupełnić ten skromny numer czteroportową kartą USB 3.0. Jeśli mój procesor GPU wymaga aktualizacji, aktualizuję ją – nie kupuję całkowicie nowego systemu. Jeśli moja płyta główna ulegnie awarii, teoretycznie mogę zamienić się na inną płytę. Awaria pamięci RAM oznacza wyrzucenie pamięci DDR3 i wrzucenie nowej, a nie wymianę części hurtowych. Ta elastyczność podejścia jest jednym z powodów, dla których komputery PC spadły i dlaczego platforma może być używana do tak wielu różnych zadań.
Autorzy wykonują godną pochwały pracę, przedstawiając zarówno zalety, jak i wady przyjęcia rozwiązania Si-IF do produkcji półprzewodników, a artykuł, choć długi, jest absolutnie wart przeczytania. Zauważają, że firmy musiałyby projektować nadmiarowe systemy na poziomie płytek, aby zapewnić, że wszelkie awarie in situ zostały ograniczone do absolutnego minimum. Ale w tej chwili cała branża półprzewodników jest mniej lub bardziej ukierunkowana w przeciwnym kierunku niż ten pomysł. Na przykład nadal można kupić system z procesorami AMD i procesorami graficznymi Nvidia, ale zależy to od bezprecedensowej współpracy między odlewnią klientów (TSMC, Samsung lub GlobalFoundries) a dwoma różnymi klientami.
Podejrzewam, że moglibyśmy zobaczyć firmy rozważające tego typu rozbudowę w perspektywie długoterminowej, ale nie spodziewałbym się, że kiedykolwiek zastąpię bardziej konwencjonalny ekosystem komputerów. Korzyści z możliwości rozbudowy i elastyczności są ogromne, podobnie jak ekonomia skali, którą te możliwości wspólnie tworzą. Ale dostawcy dużych centrów danych mogą wybrać to podejście w długim okresie, jeśli przyniesie ono rezultaty. Samo prawo Moore'a nie dostarczy odpowiedzi, których szukają firmy. Pozbycie się płyt głównych to radykalny pomysł – ale jeśli zadziała i da się to zrobić w przystępnej cenie, ktoś prawdopodobnie spróbuje.
Teraz przeczytaj: