Hlavní stránka Multimédia Hry a zábava Nvidia a ARM: Jaký to dává smysl?
Nvidia a ARM: Jaký to dává smysl?
autor: Michal Rybka , publikováno 26.9.2020
Nvidia a ARM: Jaký to dává smysl?

ARM je designérská společnost, která navrhuje architektury procesorů. Nvidia dělá své procesory a GPU. Jaké dává jejich spojená smysl? Proč je Nvidia ochotná za ARM zaplatit 40 miliard amerických dolarů? Znamená to konec ARMu tak, jak jej známe? O co se hraje a na čem ještě může celý obchod ztroskotat?


V minulosti jsme viděli už několik pozoruhodných pokusů o překročení hranice mezi GPU a CPU. Za asi nejzajímavější považuji projekt Larabee od Intelu z roku 2009, kde se Intel pokusil vytvořit grafickou kartu, založenou na architektuře x86. Konkrétně – na masivním poli 32 procesorů založených na jádře P54C. Teorie vypadala tak, že pomocí softwaru budete moci simulovat hardware přesně tak, jak chcete – a vlastně si tak můžete udělat grafiku softwarově na míru.

Larabee vznik v několika iteracích, ta novější se dostala do rukou Linuse – a přestože pro ni nesehnal ovladače a nic to nedělalo, je stejně zajímavé podívat se na tento projekt. Podle Linuse se projektu Larabee stalo osudným to, že si management Intelu chtěl vybrat mezi klasickými IGP a Larabee, i když je víceméně jasné, že jde o velmi odlišné koncepty.

Zatímco dřív se experimentovalo s nahrazením specializovaného GPU polem klasických procesorů, dnes pozorujeme u GPGPU technologií opak. Moderní GPU obsahuje velké množství poměrně volně programovatelných jader a lze je využít pro řešení obecných úloh, i když podle studií, které jsem četl, se ani zdaleka nehodí na všechno. GPGPU výpočty těží z rychlejších pamětí, ale úlohy se pro ně musí vhodně nastrukturovat, což s sebou nese penále. Jednotlivé elementy jsou navíc jednoduché, nemají rafinovanou architekturu s predikcí podmíněných skoků a poměrně špatně se jim pracuje s úlohami, které vyžadují hodně náhodných přístupů do paměti.

Pro úlohy, které jsou blízké zpracování obrazu, se ale hodí skvěle. Patří mezi ně i úlohy práce s obrazem a videem jako takovým a také úlohy rozeznávání, protože u nich jde o to také obraz opakovaně přechroupat. A zde máme jeden z možných motivů, o kterých se v souvislosti s fúzí mluví, totiž návrh specializovaných čipů pro AI, které shodou okolností jako mikrokontroléry využívají architektury ARM anebo RISC V.

Nvidia zřejmě sází na rozvoj umělé inteligence – a ta bude vyžadovat masivně paralelní procesory ve výkonné, ale i v úsporné verzi. Odpovídá to modelu jejich technologie DLSS: Na výkonných serverech se systém učí, na lokálních grafikách se výsledky učení aplikují. Jedna věc je umělou inteligenci trénovat – a věc jiná je ji rutinně spouštět. Kombinace zkušeností Nvidie s možností implementovat AI technologie do mobilních procesorů je zajímavá. Ostatně Nvidia experimentuje nejenom s DLSS, ale i s herním streamingem.



 
Komentáře naleznete na konci poslední kapitoly.
76 čtenářů navrhlo autorovi prémii: 34.8Kč Prémie tohoto článku jsou již uzavřené, děkujeme za váš zájem.
Tento web používá k poskytování služeb soubory cookie.