Hlavní stránka Hardware Grafické karty Nvidia Fermi - Analýza nové generace GPU
Nvidia Fermi - Analýza nové generace GPU
autor: Z. Obermaier , publikováno 1.10.2009
Nvidia Fermi - Analýza nové generace GPU

Nové Radeony už mají své uvedení za námi, na Nvidii jsme si museli chvíli počkat. Rok jsme hovořili o GT300, jež vzalo za své a místo toho se objevilo kódové označení Fermi. I když vám dnes ještě kartu fyzicky neukážeme, dozvíte se o jádru téměř vše. Prohlédneme si změny vůči architektuře G200 a zaspekulujeme o parametrech karty.


Nvidia Fermi - Analýza nové generace GPU

Je jisté, že mnozí z vás jsou zklamaní. Nevíme v podstatě ani herní výkon, spotřebu a ani datum vydání. Obecně jsme značně překvapen jakým způsobem a jak rychle změnila NVIDIA svou strategii a přístup ke GPU obecně. Že by to bylo z ješitnosti vůči Intelu, kterému chtějí ukázat, že porazit Larrabee je pro ně "hračka"? Bude opravdu herní grafika založená na Fermi taková bomba, že se na ni vyplatí ještě několik měsíců čekat?

Možná se nakonec stane to, že výpočetní výkon bude dvakrát takový co má Radeon HD5800, ale fps v Crysis budou podobná. Nezdá se totiž, že by NVIDII nějak na desktopovém herním trhu záleželo, což soudím z prezentace ředitele na GPU konferenci včera v noci. Dokonce se nese kuloáry, že uvedení bude skutečně až příští rok. Aby se neohrozily prodeje současných Tesla karet. No brzy nebo později se pravdu dozvíme, vypadá to ale na vánoční nákup Radeonů HD5800 jako jediného vhodného kandidáta na vánoční "pařbu".

Nezbývá než čekat co se stane v následujících týdnech. Podle neověřených zpráv by se měly recenze herní karty objevit 27.11. O dostupnosti karet na trhu ale pochybuji, jelikož ani informované zdroje o samplech a specifikacích mlčí jako hrob. Zdali je to taktika nebo opravdu nic nevědí si netroufám odhadnout. Ohledně výkonu si také netroufám nijak zásadně odhadovat, dle výpočetního výkonu to zatím tipuji 50-60 procent nad jádro G200, ovšem neznáme zatím frekvence a další parametry. Donesla se mi sice zpráva, že bude výkon mnohem vyšší, ale nic ji zatím nepotvrzuje. Nezbývá než kontrolovat drby na webu, jestli někde něco prosákne ...



Tagy: Nvidia  GeForce  Fermi  architektura  


 
Komentáře k článku
RSS
Pouze registrovaní uživatelé mohou přidat komentář!
1.10.2009 11:42:54   89.102.171.xxx 6134
připadá mi to jak ta reklama na jogurty : "Ale Zdeňku, vždyť jen stačilo říct, že nVidia nemá procáky".
1.10.2009 16:59:27   95.102.89.xxx 2334
každý tu trepe o tom že nová karta nVIDIE bude výkoná v klasických výpočtoch a preto sa nehodí na hry. ale to je nezmysel pozrite si parametre tejto karty, veď toto ja na hry ako stvorené, to že sa dá karta využiť aj na iné ako na hry je skôr plus. AMD sa bude musieť veľmi snažiť aby sa vyrovnalo konkurencii veď vpodstate AMD teraz neponúka ani polovicu z toho čo nVIDIA.
1.10.2009 20:19:00   85.248.47.xxx 52
potichucky nejak nvidia vydala 40n grafiky a uz su aj skladom, cumim jak puk.. bude testik? http://www.agem.sk/?flag=kategorie&cat=000100032901702
1.10.2009 07:15:11   89.176.31.xxx 606
Tak to je teda bída...

Už jenom chybí, aby Huang řekl, že Fermi umí taky nabootovat

Sice to vypadá jako technologicky obrovský skok... ale pro hry z toho zatím nic moc neplyne...

Představa, že řadu běžných věcí, které dneska dělá CPU bude moct jednoduše převzít GPU a provést třeba 100x rychleji je super.... NV v podstatě udělala to, co INTEL nemůže, opustila X86, a přitom ho neopustila...

Základní CPU od Intelu nebo AMD jí zajistí X86 kompatibilitu, aniž by sama musela mít licenci a přitom poskytne v řadě aplikací díky své architektuře mnohem mnohem vyšší výkon...

Podle mne je to zlomový okamžik a láme se chleba... jistá americká organizace na oné předváděčce oznámila stavbu superpočítače 10x výkonnějšího než momentální nejvýkonnější počítač na bázi FERMI.

Ale pro hráče teda zatím nic moc (((((
1.10.2009 08:02:44   79.170.253.xxx 1420
To třeba mě nevadí, hry moc nehraji a když už sem tam si zahraji wowko a na to posledni generaci GK nepotŘebuji :-). Kdežto jestli je pravda to o nexus, že můžu napsat program pro CPU a pojede to i na GPU, je pro mĚ daleko lepší. Navíc přeci jenom institutů, co potřebují výkon je dost a jsou ochotni zaplatit peníze za drahá řešení, což vidím u nás na škole jak se vyhazuji prachy za nesmyslně drahé zařízení, tak je to asik pro Nvidii lepší neŽ spoléhat, že hráči co jenom paří den co den hry usmolí o 1000 kč víc a koupí něco co se dá koupit u konkurence levněji za stejný výkon.
1.10.2009 09:26:43   147.251.53.xxx 103
No trochu si to překroutil... To nebude jako že napíšeš pro CPU a pojede to i na GPU. Pojede to na tom, pro co to zkompiluješ a od toho se nutně bude odvíjet způsob, jakým tu aplikaci budeš psát. I když bude kompilátor hodně chytrý nijak rychleji než na CPU ti to nepojede, pokud to napíšeš, jako bys psal pro CPU... Výhoda Nexusu spočívá v známém prostředí Visual studia a znalosti práce s ním... Ale jinak s máš pravdu s tím, že pokud se jim povede rozjet GPGPU tak, jak si představují. nudou z toho větší zisky, než z prodeje mainstreamových grafik hráčům...
1.10.2009 13:13:54   90.178.47.xxx 102
Tak on je současný vývoj pochopitelný. Intel i AMD se snaží integrovat GPU s CPU. Do budoucna tedy nebude potřeba grafická karta jako taková aby akcelerovala procesy, kde se využije masivní paralelizace, protože o to se bude moci starat procesor s integrovaným grafickým jádrem. Bude to efektivnější, protože bude moci z velké části odpadnout vykreslovací grafická část(ROPs,TMU atd) a bude moci zůstat hlavně matematická čast(shadery). Prostě bude to součást procesoru a tam Nvidia nemá co nabídnout.
Jedinou cestou jsou tak profi grafiky, protože pouze desktopovými grafikami se neuživí. A v profi grafice je herní výkon podružný.
1.10.2009 13:46:36   85.71.63.xxx 53
jo ale kdy to bude? dnšní grafiky se do procáku rozhodně přidat nemůžou. to jde sotva u integrovaný grafiky, ale rozhodně to nejde ani u něčeho jako 4770. tahle integrace podle mýho je ještě hodně, hodně daleko (pro grafiky co maj opravdu nějaký výkon)
2.10.2009 08:37:31   62.209.192.xxx 30
taky souhlasim, intergovany grafiky jsou prinosem hlavne pro notebooky (bo officePC) ci nejaky netbooky ale pro hrace to je minimalni prinos. Jinak ale integraci fandim pac potom ve 2D pojedu jen pres procak a kdyz zapnu nejakou gamesu tak se zapne zrava grafika a vykon pak bude taky vybornej
1.10.2009 08:05:23   89.173.72.xxx 216
NVidia zatlacila aby sa dnesny clanok o novom Enermax Pro 82+ stiahol a nahradil prezentaciou novej technologie?
1.10.2009 12:23:00   212.158.130.xxx 51
Spis bych rekl, ze ho schovali pro clankove "sussi" obdobi.
1.10.2009 08:10:21   84.16.32.xxx 182
Ani sa nVidii nedivim ze sa mozno presunie do ineho segmentu.Vecny boj teraz uz iba s Ati ale v dobach davnejsich aj s 3dfx,matroxom a zopar dalsimi vycerpava.A hlavne teraz ked uz to asi neni o nejakej zurivej marzi a pri niektorych modeloch asi aj obcas prerabaju. V technickej oblasti narocnych vypoctov a simulacii si mozu zapytat podstatne viac a herny trh si aj tak neodpilia lebo na aktualne tituly to aj tak postacovat bude.
A dalsia vec je Intel ktora je stale velka neznama ale s obrovsokou silou a kapacitou ktora sa neda podcenovat.
1.10.2009 08:34:28   87.244.197.xxx 2234
Tak nVIDIA sa vykašlala na PC hráčov...dobre ak je to pravda, u mna skončila! Tak ako skonči každý kto sa na PC hráčov vykašle.
1.10.2009 08:36:51   62.77.84.xxx 175
V první řadě bych řekl, že úplně překopaná architektura a "fičurinky" budou znamenat zejména to, aby si na ně programátoři her zvykli a naučili se je. Byť jsou ta vylepšení sebeužitečnější, tak rozjetej vlak herního byznysu těžko bude odbočovat na kolej, o které se neví, zda nebude vedlejší. Pro programátory, kteří dnes dělají programy na výpočty pro CPU možná bomba. Ale pro ostatní je to spíš hudba budoucnosti. Krom toho, architektura je věc první, ale kde jsou (a kdy budou)karty, he? 5870 už tu je. Že nemá "fičurinky" jako Fermi je sice pravda, ale prodejte si "fičurinky" když nemáte grafické karty! ;-)
1.10.2009 08:46:02   89.176.31.xxx 133
modrymysak napsal:
V první řadě bych řekl, že úplně překopaná architektura a "fičurinky" budou znamenat zejména to, aby si na ně programátoři her zvykli a naučili se je. Byť jsou ta vylepšení sebeužitečnější, tak rozjetej vlak herního byznysu těžko bude odbočovat na kolej, o které se neví, zda nebude vedlejší.


nejspíš proto je Fermi DX11 kompatibilní a OpenCL kompatibilní A dokonce i OpenGL umí. Je slušná šance, že aspoň jedno z toho bude programátor při psaní hry nebo programu umět... C++ umí kdekdo... a když neumí nic z toho, tak má zřejmě dělat něco jiného než programovat
1.10.2009 09:00:40   90.179.164.xxx 130
tohle je pro me trochu prekvapeni (i kdyz signaly uz tady byly). Pripada mi to, jakoby NV zacala couvat z trhu desktopu a zacala se specializovat na profi vypocetni segment a na (ultra)mobilni multimedialni, UMPC ci MID zarizeni. Je fakt, ze modri a rudi pilne pracuji na fuzi CPU+GPU a jejich graficke casti jsou stale lepsi a vykonnejsi, takze tady se misto pro IGP zelenych k manevrovani pekne zuzuje. Takze NV zbyva Tegra pro miniaturni pristroje, tam ma docela pekne zasekle drapky, a profi segment. V tom se sice pekne toci penize, ale aby nedopadli jako Matrox - spickove, ale drahe komponenty, ktere vedly k tomu, ze je Matrox nyni rad za par procent trhu (a pritom jeste vzpominam na jejich super karty Millenium, pro CAD parada). Takze pro desktop a hry ted NV nic moc a podle me to nejakou chvili lepsi nebude (a bohuzel ani cenove, jsem ted zvedavy, jak bude AMD tlacit ceny dolu ). Otazkou ale je, az Intel vyda Larrabee. Potom budou programatori her postaveni pred volbu psat hry pro vykonne grafiky AMD nebo programovat pro GPGPU Intel a NV. Nebo take mozna zacnou poradne optimalizovat a hry pojedou i na IGP od Intelu a AMD (ale u IGP jde zase hlavne o spotrebu a zvysovani vykonu/snizovani spotreby spolu zrovna ruku v ruce nejdou). No, jeste bude sranda a bude co cist. Zatim bych se ale, jako pesimista, v desktopu pripravil na obdobi temna (vlastne ruda ).
1.10.2009 13:18:03   212.111.4.xxx 112
Myslím, že nVidia nikam necouvá, jen se připravuje na situaci, kdy místo rasterizace a shaderů se ve hrách začne používat raytracing. Podle dema Intelu na plynulý raytracing v rozlišení 1280x1024 stačí 8 CPU jader, které už nyní mainstreamové GPU výkonově překonají. Když k tomu přidáme HD rozlišení a výkon potřebný pro fyzikální výpočty, dostaneme se k 24 jádrům. Ty jen tak brzy mít v počítačích nebudeme a pokud ano netroufám si spekulovat o jejich ceně, zatím co výkon na úrovni GTX295 nebo 4870X2 bude za dva roky lowend a masovému nasazení raytracingu a vyspělejších efektů na bázi fyziky počítané pomocí GPU nebude nic bránit.
1.10.2009 15:03:58   90.179.164.xxx 15
Jo, take mozne, jak jsem psal, az prijde Intel s Larrabee, tak to zacne byt na hernim trhu zajimave. Ale kdy to bude? Kdy na to vyvojari zareaguji? Optimisticky bych videl konec pristiho roku, do te doby nejspise bude kralovat AMD a NV mozna jen prinese upgradovane G200 na DX11 (ne ze by to vadilo, vykon je pro vetsinu lidi stejne vice nez dostacujici a kdo nehraje hry, tomu stejne nejspise bude DX11 na nic, v ucetnictvi nebo kancelarskych programech ho jiste postradat nebude).
1.10.2009 17:39:17   212.111.4.xxx 62
V Larrabee bych moc nevěřil. Poslední informace, které jsem o něm četl byly poměrně katastrofické - Grafický výkon srovnatelný s GTX285, 300W spotřeba a 2TFlops v single precision. Když si k tomu připočítám neodladěné ovladače a další dětské nemoci "nováčka" na poli GPU, tak bych mu moc šancí na prosazení mezi grafikami nedával ani letos, natož příští rok, kdy snad konečně přijde. ATI je už nyní s 5870 o 20% výkonnější, Fermi má být podle Obra dokonce o 60% rychlejší a to nemluvím o 5970 (aka 5870X2), která bude předpokládám cca dvojnásobně výkonná než GTX285 a tedy i Larrabee. Poslední naděje Intelu je v profesionálním segmentu proti Tesle a FireStream s jejich mnohem komplexnějším návrhem jednotlivých jader.
1.10.2009 20:34:58   195.22.55.xxx 22
Jsem rád že tohle sem už někdo napsal, měl jsem přesně to samé na jazyku od přečtení prvního příspěvku v diskuzi. Raytracing vypadá báječně a myslím si, že nebude tomu až tak dlouho a začne se používat i ve hrách.
Dle mého názoru to dopadne s Nvidií tak, že starou architekturu ještě vyšperkuje za "malý prachy" a bude to pro hry a za "velký prachy" od společností bude mít výpočetní GPU které časem zlevní a uchytí se i pro hry.
2.10.2009 02:58:12   205.158.58.xxx 34
Raytracing sice vypada náramne dobre podle prezentaci, ale s vykonem dnesnich akceleratoru je to uplne zbytecny luxus. Ve hre neni potreba mit obraz s dokonalymi odlesky, stiny, odrazy a odrazy odrazu stovky svetelnych zdroju. To vyuziji architekti nebo navrhari, ale bezny clovek tohle nepotrebuje. Alespon do te doby, nez budou akceleratory s dostatecnym vykonem (minimalne jeste tak dve generace do budoucna).
2.10.2009 09:45:02   195.22.55.xxx 10
No však, jestli se zaměří na výpočetní výkon který je potřeba k RayTracingu ...
Vemte si takový Crysis, který v době uvedení GeForce 8800 byl i na tuto kartu velmi náročný a dnes (po 2 letech) je tato karta pro stolní počítače nižší mainstream

I když, celkem by mne zajímalo jak by se jim zdařilo optimalizovat RT pro velké mapy ve hrách které nejsou jedna až 2 budovy jako v architektonických prezentacích.
2.10.2009 12:29:10   212.111.4.xxx 11
Zbytečný luxus? Asi ano. Vždyť s trochou nadsázky se dá říct, že od dob Doomu se na poli FPS nic moc převratného nestalo. Když nemáte originální nápady a děj hry je postaven na zaběhnutém klišé, nezbývá než sázet aspoň na realističnost a efekty. Já bych řekl, že je to nutné zlo, protože veškeré snahy zrealističtit rasterizaci prostě doženou vývojáře k raytracingu a podle některých prognóz to má být už na přelomu 2010-2011.
1.10.2009 09:47:50   88.102.210.xxx 164
A je tady to, o čem se diskutovalo při akvizici Ati AMD. Nvidia bude mít krušné období. Přeci jen neni tak silná aby mohla stát sama proti AMD/ATi a Intelu. Nvidia pomalu přichazí o segmenty trhu a snaží se uchytit jinde, kde zatím hraje hudba budoucnosti a k tomu nejisté...Nemyslím si , že by herní průmysl byl zanedbatelným, ale je k tomuto kroku donucena.
2.10.2009 11:50:07   62.209.192.xxx 30
no ja to spis vidim ze na herni PC jejich vykon karet je dostacujici a nez aby vyvijeli dve rozdilne grafiky tak se rozhodli pro jednu, kde pro profesionalni segment budou davat ECC pameti a nejaky "ficurky" navic a pro herni trh bude ta karta trochu orezana. A prave ze trh pro vypocty je daleko vic vynosnejsi, prece jenom jestli prodaj institucim nekolik tisic grafik za 30-40k tak se jim to vyplati vic nez desktopovej trh. Pro kterej budou mit taky variantu. No ale vsechno ukaze az cas!
1.10.2009 09:42:38   147.230.150.xxx 212
Rychlost v double precision je 8x vyšší než u G200 ne 4x jak se tvrdí na jedné stránce (přestože na předchozí je správně 8x), spolu s dalšímy změnami ke zvýšení využitelnosti hrubého výkonu na nové generaci je to hlavní klad, protože upřímně, u G200 byl poměr 1:8 mezi double precision a single precision hodně tragickej a s 78GFlop/s mohla těžko oslnit, 1:2 je krok vpřed k využití i jinde než jako grafické karty.
Na druhou stranu 750 a 1500 GFlop/s není nijak závratný výkon a proti 544 a 2700 GFlop/s (DP a SP) u Radeonu 5870 nevypadá vůbec dominantně.
Článek až na pár nepřesností výborný, jako každý článek a recenze pana Obermaiera, ale uniká mi důvod proč se v diskuzích a bleskovkách projevuje s prominutím jako zaujatý buran, ten už je jak dr. Jekyll a pan Hyde
1.10.2009 09:47:41   89.103.182.xxx 1450
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
1.10.2009 10:00:46   65.89.12.xxx 315
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
1.10.2009 10:14:45   194.202.236.xxx 143
Tady jde asi spis o to, jak s tim vykonem kdo chce nalozit. nVidia evidentne nema dost prostredku na to, aby utahla vyvoj vykonne profi vypocetni architektury a vedle toho herni architektury zvlast. Pokud to naposledy byl kompromis ve prospech herniho pouziti, ted to bude kompromis ve prospech profi pouziti. Asi to maji spocitane dobre, ale uvolnuji tim vic trh pro Ati. Tezko si nekdo koupi drazsi a mene vykonnou kartu kvuli nekolika specialnim hram (viz. Batman). Jak jsem rikal minule, to at uz rovnou udelaji herni konzoli.
1.10.2009 10:09:29   194.149.122.xxx 366
tak místo hraní her začneme programovat složité výpočty. (-; Anebo si koupíme Radeon?
1.10.2009 10:19:43   212.71.186.xxx 207
Hmm, snaha o clanek dobra, ale pane autore, trochu by si to chtelo prohloubit znalosti, pripadne vygooglovat veci, se kterymi si nejste jisty. Je tam spousta hrubych nepresnosti a nesmyslu (atomicke operace nejsou zadne zakladni operace, ale operace spojujici cteni a zapis + ten narust vykonu, IEEE-754 neni nic o GPGPU, ale jen o FP, problematika FMA a MAD atd...). Nerad rypu a kazim usili, ale tohle uz bylo trosku moc .
1.10.2009 10:52:20   80.95.105.xxx 612
NVidia zkousi bojovat na 2 frontach zaroven, jsem moc zvedavej jak to bude zvladat.
Proti AMD se asi docela citi, pokud nekdo vidite trosku do marketingu nvidie/amd, neni se co divit. NVidia je schopna si 'predplatit' prodej svych hernich karet vzdy a technologicky amd nema moc sanci byt o moc vic vpredu, i kdyz momentalni stav zacina byt na hrane.
Problem je, ze Intel ma techto 'marketing' prostredku nesrovnatelne vic, NVidia je proti nemu rodinna firmicka.
nvidia si veri, uvidime jak si povede. zatracovat nvidii v hernim prumyslu je dost predcasne a snad i naivni.
1.10.2009 11:17:26   65.89.12.xxx 35
pochybujem,ze by sa nvidia vzdala herneho trhu.to je blbost.len sa trochu viac venuje vypocetnej architekture.nvidia bola vzdy extra a vzdy nieco vymyslaju,patkorunaci.
1.10.2009 11:36:53   216.131.67.xxx 29
1.10.2009 11:36:35   216.131.67.xxx 972
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
1.10.2009 12:10:33   212.71.186.xxx 503
To vysvetleni je proste uplne spatne a matete tim lidi. Je zajimave, ze v jinych clancich na jinych serverech je to spravne... Klidne me smazte, mne je to sumafuk, ja jsem vam spis chtel pomoct poopravit nepresnosti... Ja se programovani GPU zabyvam na profesionalni urovni a docela me pak mrzi, ze nekdo prekrucuje fakta a krmi lidi nemsysly .
1.10.2009 14:43:34   213.160.183.xxx 192
dalsie "děcko" v opozícii , zvykaj si, my z PCT vieme vsetko najlepsie. VIVA LA HULAN!
1.10.2009 12:18:04   212.71.186.xxx 192
Treba konkretne u tech atomickych operaci uvadite zrychleni 7-20 %, ale primo na tom originalnim slidu je "20x faster" a "14x faster". Neni v tom trosku rozpor ? ...
1.10.2009 17:44:06   86.49.64.xxx 133
Achjo, mam rad tvoje clanky (par chybek a nepresnosti se obcas najde, to je ale normal), tenhle tvuj prispevek ale ukazuje tvou jesitnost. 0xR byl slusny a vecny, mluvil k tematu. Neunasis kritiku a utocis uplne zbytecne; posledni dobou cim dal casteji...
1.10.2009 11:49:31   212.111.4.xxx 64
Po herní stránce asi nebude nová "Fermi" trhač asfaltu, nVidia ale spoléhá na to, že DirectX 11 se ještě chvíli nebude masově používat a pomocí namlouvaných titulů s PhysX může majitelům výkonnějších Atin srážet FPS a kazit radost z investovaných peněz i tak. Spíš se asi bojí chabého výkonu jejích grafik v GPU výpočtech. Až se začne masověji používat DirectCompute nebo OpenCL bude šance benchmarkovat současné akcelerátory co do výpočetního výkonu, GTX285 a možná i Teslu v double precision má teoreticky šanci porazit i 3870 a pokud by nová generace pokračovala ve stejném trendu byla by z toho za pár měsíců pěkná ostuda.
1.10.2009 12:15:24   90.178.124.xxx 286
Je to hezký článek, ale nechápu ten obruv optimizmus. Jako super GPU a CPU karta, ale k čemu nám vlastně bude ?

Jinak samozřejmně si nezapoměl rýpnout do ATI cituju " jen mírně upravili stávající architekturu jádra, kde jen navýšili počty jednotlivých jednotek a clusterů" jen navýšili 2x výkon na stejných Watech, ale samozřejmně je to jen to tvoje jen.
Přijde mi, že tvoje jinak výborný články klesaj na úrovní těmahle kecama. Je to škoda..zkus se nad tím zamyslet.
1.10.2009 12:21:06   80.95.105.xxx 457
Z. Obermaier napsal:
Právě že naopak, vše je vysvětleno korektně a polopaticky ... o podobné hloupé komenty nestojíme, příště bude ihned smazán, zde jen vyarování


Tuhle reakci nemyslite uplne vazne, ze? Skoro se nechce verit, ze autor povedeneho clanku se muze snizit na takovou uroven, to je skoro na uvahu o leceni.
1.10.2009 12:22:22   78.41.23.xxx 64
Tak by mě zajímalo jestli tato změna není přípravou na případný přechod k raytracingu. Výpočetní síla i větší univerzálnost prováděných operací by tomu mohly pomoct.
Takový překlenovací mechanizmezeček mezi současným renderingem a RT, by mohl být celkem impozantní...
1.10.2009 12:36:05   80.95.105.xxx 42
presne to me napadlo. myslim, ze RT neni ale primarnim cilem nove architektury (nvidia je v mainstreamu proti RT), ale spise vedlejsim produktem - proste RT na takto programovatelnem hardwaru bude daleko snazsi implementovat a bude take mnohem rychlejsi.
Strasne rad bych videl, jak si Fermi poradi s nedavno vydanym OptiX realtime raytracem na GPU, na Quadro5800 za 3000$ me to zatim moc nepresvedcilo.
1.10.2009 12:25:01   85.248.47.xxx 52
Zaujimave, nvidia sa snazi..., no Ist proti Intelu, AMD, ATI, standardom ake mame, zavadzat novoty...., ak nebude software, nanic je nam taky hardware... Mozno to bude dobry kus hardware, no nevyuzije sa, predaje nebudu podla ocakavani, predsa to bude drahy cip......Ked porovnavam teoreticky vykon s HD5870.... ziadna revolucia...
1.10.2009 12:59:39   90.178.47.xxx 91
Mno nové jádro je rozhodně zajímavý kus křemíku. Otázkou je tak trochu, jak moc se bude hodit do desktopu na herní grafiku.
Karty Nvidie měly v posledních letech obrovský hrubý výkon v oblasti vykreslování a brzděny byly hlavně výkonem shaderů, čili matematickým výkonem. Jelikož výkon v single precision vyrostl prakticky jen o 50%, dá se čekat, že výkon bude zhruba 50% nad GT200 a to není zase tolik.
Celkově matematický výkon je hodně zaměřen na double precision, kde překonává současný RV870 na HD5870 zhruba o 200 Gflops. V single precision ale pouze dorovnává výkon RV790 na HD4890.
Otázkou je kolik místa zbylo kromě implementace DirectX 11 na vykreslovací jednotky.
Ono mohlo by se tak vcelku s klidem stát, že náskok nové grafiky Nvidie na HD5870 nebude zrovna velký. Samotný HD5870 je zhruba o třetinu až polovinu rychlejší proti GTX 285. Po doladění ovladačů se jeho výkon dá čekat na stejné úrovni 50% nad GTX 285 tedy jako u nové Nvidie ...
Při tvorbě dvoučipovky pak bude mít Ati samozřejmě výhodu, protože její čip je menší, spotřeba Fermi bude rozhodně vysoká a tak dvoučipovka bude možná pouze s ořezaným jádrem a to by na RV870 už nemuselo stačit. Navíc ve chvíli kdy Nvidia nemá ani hotové jednočipovky, má problémy s výtěžností a ukazuje je jen na podobných prezentacích, tak Ati už pomalu demostruje výkon dvoučipové verze. Nvidia je tedy ve skluzu.
1.10.2009 15:51:11   89.235.54.xxx 160
Nema cenu hadat cokoliv a prit se dokavad nebudou realny testy protoze konference hezka ale kdyz karta nebyla v provozu tak nikdo nevi zda nemachroval jen s novou revizi chladice a nebo je to fakt new funkcni GPU . proste to chci videt v provozu mavat kusem bakelitu s tišťákem umim taky
1.10.2009 20:37:17   62.24.92.xxx 72
Taky bych řek,že to teď nemá cenu spekulovat o výkonu což bych bez testů přirovnal k věštění z křišťálové koule počkám na testy a pak se uvidí...
1.10.2009 20:44:08   89.235.54.xxx 54
Tak ted uz se o tom spekuluje ze ta karta je nefunkcni a zbastlena jen tak, dokonce ani NV neumi udelat poradnou maketu viz napajeci konektory "urizle pcb" jestli timhle mysleli mnozi ze si z toho sedneme na pr... tak to fakt sedim , hlavne at uz s necim NV neco prijde protoze konkurence = nizsi cena
2.10.2009 03:02:57   205.158.58.xxx 20
At uz je ten sampl co byl ukazany funkcni nebo ne, neni to stejne uplne jedno? Konkretni parametry jeste nvidia stejne nezverejni, kartu do ruky nikomu neda. Potvrzene je, ze maji z lisovny funkcni silikony, ktere se testuji a bezely na nich nektere ukazky na prezentaci. Spekulovat o tom, jak vykona karta to bude muzeme az tehdy, kdyz se ukazi prvni kousky na testy. Do te doby muzeme jenom teoretizovat o architekture.
1.10.2009 21:31:38   82.100.43.xxx 23
Nelíbí se mi politika firmy NVIDIA už dlouho, ale nová architektura pro lepší GPGPU je myslím krok správným směrem. Ale i ATI nabízí solidní možnost GPGPU přes DX compute nebo OpenCL. Myslím si, že pro běžného uživatele při výběru nového GPU rozhodne cena a pokud bude NVIDIA Fermi předražená jako karty Tesla, bude o nové karty zájem spíše v profesionální oblasti. Důležitá bude také podpora výrobců softwaru, doufám, že už konečně v příštím roce bude možné použít enkodování H.264,x264,VC1 kodeku přes GPU v detailních nastaveních jako např. v projektu x264. Já osobně si počkám, jak se vyvine situace s podporou DXcompute nebo OpenCL u videoeditorů. Doufám, že příští Mainconcept Mpeg Pro HD5 plugin už bude s podporou GPGPU výpočtů
2.10.2009 03:04:51   205.158.58.xxx 01
Docela slusna implementace GPGPU enkodovani do H.264 je uz v mediacoderu, ktery je free. Kvalita videa byla vyborna, jediny problem je v tom, ze build co jsem pouzival minuly mesic neumel dualpass enkodovani...
2.10.2009 06:59:06   82.100.43.xxx 00
Mediaencoder je zatím jen pro Cuda rozhraní a já používám Ati 4890. Doufám tedy, že DX Compute vše změní a že bude konečně GPGPU podpora i pro ATI karty. Zatím je ATI stream jen u Cyberlink Director 8,mediashow exspresso a tam se toho mnoho nastavit nedá, navíc kvalita výstupu videa je mizerná.
2.10.2009 09:44:32   195.22.55.xxx 21
2.10.2009 17:03:36   195.122.213.xxx 11
Omlouvám se,že je to malinko OT,ale včera dopoledne jsem se díval na titulní stranu Pctuningu,a byl tam test zdroje Enermax Pro82+ 525W s nějakým názvem "zdroj který pár let vydrží" nebo tak nějak podobně,ale odpoledne už tam ten článek nebyl a byl tam místo toho tenhle článek,tak by mě zajímalo,kde teďka najdu ten článek o tom zdroji ?
Předem díky za odpověď.
2.10.2009 22:12:43   79.127.160.xxx 00
ty řečičky s čísly se pěkně čtou, ale bez základních informací je to naprd. a vypadá to, že nvidia jde jiným směrem než amd. zatím bych tedy šel do HD5870. ale možná nás taky nvidia překvapí, zatím ale musíme čekat.
2.10.2009 22:59:38   77.48.12.xxx 00
Panove opravte me, jestli se pletu, ale mam pocit, ze ve svem odhadu vykonu nove architektury ve hrach a zaveru z toho vyvozenych autor clanku hodne prestrelil. Jiste, vykon v soucasnych hrach nebude nijak zazracny, na druhou stranu pokud bude treba jen o 5% vyssi nez u soucasnych high-end nvidii, bude stejne na vsechny soucasne tituly bohate stacit. Nicmene do budoucna podle me naopak nvidia nakrocila spravnym smerem a vytvorila takovou architekturu, jakou si spousta vyvojaru zada. Vzpominate treba na (casto s oblibou naprosto spatne interpretovany) znamy rozhovor s Johnem Carmackem z nedavneho QuakeConu (http://www.youtube.com/watch?v=aQSnXhgJ4GM + related videos)? Vsimnete si, na co se do budoucna pripravuje a ocividne i docela tesi. Jeden citat za vsechny: "Multiple CPU cores will be much more useful in general, said Carmack, but when GPUs finally get reasonably fine grained context switching and scheduling, some tasks will work well there." A neni presne tohle to, co nova architektura prinasi? Vyvojari vidi budoucnost v GPU zpracovani nejen fyziky, ale i dalsich casti engine a nvidia jim jde na ruku. Zamyslete se poradne nad tim, co se da z nove architektury vymamit a hlavne zapomente na to, ze engine novych her = kompilace DX11 instrukci. Az se pod tohle nauci geniove typu zmineneho Carmacka programovat (pokud to uz neumi, je dost pravdepodobne, ze elity z oboru nvidia informuje se znacnym prestihem pred zbytkem sveta), tak Fermi podle me predvede takovy vykon, jaky si ted vetsina z nas nedovede ani poradne predstavit.
6.10.2009 05:36:17   90.176.102.xxx 21
Nové Radeony už mají své uvedení za námi,

Za mnou nic není, neměly by to mít Radeony spíše za sebou?

Jinak pěkný článek co by bylo, kdyby bylo….

Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz

116 čtenářů navrhlo autorovi prémii: 39.6Kč Prémie tohoto článku jsou již uzavřené, děkujeme za váš zájem.
Tento web používá k poskytování služeb soubory cookie.