GeForce 8800Ultra - high-end nVidie v testu |
autor: Štefek Petr , publikováno 21.5.2007 |
Seznam kapitol |
---|
1. GeForce 8800Ultra - Ferrari mezi grafikama |
2. GeForce 8800Ultra - bližší pohled |
3. Testy |
4. Závěr |
Dneska se nebudeme bavit o cenách a rovněž nepřijde na přetřes poměr ceny ku výkonu. Většina z nás si ji nikdy nekoupí, ale co? Vždyť o to u téhle karty ani nejde. Je to jako test Ferrari v motoristickém magazínu, každému chlapovi se rozbuší srdce, ale pak si vzpomene na rodinu a praktické využití a už si maže pro "Koktávku" k místnímu dealerovi Škody. A tak je to i s GeForce 8800Ultra.
GeForce 8800Ultra je ukázkově drahým a výkonným kouskem hardware, který si pořídí jen opravdový nadšenec, který navíc nemá hluboko do kapsy. U karty toho typu se nemá smysl zaměřovat na poměr cena výkon, kde by určitě neobstála ve srovnání s GeForce 8800GTS či nově s Radeonem HD2900XT. Chlazení je řešeno velmi dobře, takže se nemusíte bát, že k tomuto monstru budete potřebovat "hluchátka" neboli špunty do uší či jiné prostředky.Teploty jsou vysoké stejně jako spotřeba, ale ruku na srdce, koho tohle zajímá? Tady jde o výkon.
Při testu jsem si ověřil, že můj 500W Chieftec zdroj není dostatečným partnerem pro tento tento "parní válec". Po výměně za Seasonic 700W se maximální takty zvedly o rovných 50MHz na jádru (700MHz)! a to se skutečně počítá. Pokud si hodláte pořídit GeForce 8800Ultra a nemáte ten nejlepší dostupný zdroj (pro SLI to platí dvojnásob), tak si ho nechte za příplatek par tisíc korun ke kartě "přibundlovat". Cena se u nás pohybuje okolo 18-20 tisíc korun s DPH.
Za zapůjčení karty děkuji společnosti nVidia.
Za testovací hry děkuji
Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz
skoda len ze nema tu akceleraciu videa vp2 ako 8600 - purevideo 2, inak by to bola konecne prva vista ready karta vykonmi aj technologiou
8600-vp2 + PIP
http://www.hardwarezone.com.au/reviews/view.php?cid=18&id=2112&pg=5
Na ATI ma stve ze ma technologicky super karty DX 10.1 dobre pre 1280x1024 ale ani oblivion si proste pri 1920x1200 nezahrate
skoda len ze nema tu akceleraciu videa vp2 ako 8600 - purevideo 2, inak by to bola konecne prva vista ready karta vykonmi aj technologiou
8600-vp2 + PIP
http://www.hardwarezone.com.au/reviews/view.php?cid=18&id=2112&pg=5
Na ATI ma stve ze ma technologicky super karty DX 10.1 dobre pre 1280x1024 ale ani oblivion si proste pri 1920x1200 nezahrate
schema cpu az full hw video
http://www.hardwaresecrets.com/fullimage.php?image=6975
cielom HD nosicov je 1920x1080p 60FPS 40MBs h.264 a to uz ziaden procesor nedokaze+ myslom vylepsenia obrazu a odstranenie chyb v obraze - CPU dokaze prehravat ale nedokaze vylepsovat obraz
to je ako 3dmark 2003 cpu test - mas 40 fps bezi to iba na cpu cela hra, ale je skareda lebo je bez bez postprocesingu- dodatocneho vylepsenia a to hlavne je dovod hw akceracie videa
Scaling těžko, sharpening těžko, blur těžko, deinterlacing těžko, brightness/contrast/hue/saturation je zadarmo ...
Nějak mi to není jasný.
a tiez kvalita Hardware videa versus video cez CPU je neporovnatelna.
tu najdete porovnanie ovladacov ATI 2900 + vykon 8800 a ultra
8.37.4
8.37.4.2 , vykon AA, AAA = 3x
ATI 2900 HD
TJ oblivion 1280x1024 16xAF + 4xAAA - 13FPS, 8.37.4
a potom ovladace
8.37.4.2
4xAAA - 41,6 FPS a je lepsia ako GTX 38,1 a tesne za ultra 43 FPS
rozdiel je obrovsky a konecne vidno ATI 2900 v spravnom svetle.
AAA - adaptive antialiasing - vykon je tu 50 percent oproti normalnemu AA, preto to davaju do testov
http://www.computerbase.de/news/treib er/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
ATI 2900 opet v hre ako super karta
Kdy bude takovy test?
-Není ta propustnost 105GB/s náhodou pro HD2900XTX GDDR4?
-Je to tak...
...nevím na co tím narážíš...
Timto stylem si nVidia zajistuje optimalizaci. Temito praktikami o mne nVidia prichazi. ATi vzdy posunuje technologicky standard. nVidia se snazi zdimat FPS. Jakkoli. Protoze FPS u mas rozhoduje.
At je to jak chce, v tomto mi ATi prijde sympatictejsi a pro toto ji fandim, i pres to, ze mam Go 7600, se kterou jsem relativne spokojen.
Ono totiz specifikace DirectX dodrzuji ATI i NVIDIA uplne stejne (tohle je proste povinnost).
Ty optimalizace o kterych se vzdy mluvi se dnes z 90% toci kolem optimalizaci shaderu. Bud tak, ze napsany shader putuje primo do NVIDIA kde jej optimalizuji anebo tak, ze sama NVIDIA doda pro vyvojare sady shaderu podle pozadavku. Vtip je v tom, ze programatori v NVIDIA maji maximalni zkusenost se svymi cipy takze casto dokazi perfektne shader optimalizovat primo v assembleru. Ono precijen kdyz vis, ze na tve karte je napr. instrukce MADD efektivnejsi v urcitem kontextu instrukci, tak pak dokazes shader prepsat tak, aby bezel maximalne efektivne na danem HW. Pritom na konkurencnim HW pobezi taky, ale efektivnost intrukci tam proste bude jina a nebude to optimalni.
Zbylych cca 10% optimalizaci pak vychazi spise na rady ohledne vykonu funkci API, kdy NVIDIA poskytne informace jak napr. tridit sceny efektivneji tak, aby to jejim kartam a ovladacum vyhovovalo apod. Toto si sice vvojari peclivym profilingem zjisti taky, ale precijen i tak je to narocne tak proc nevyuzit pomoc ze strany TWIMTBP teamu.
Samozřejmě, že dodržují specifikace a co ten čip má umět, tak umí. Ale otázka je, jak rychle. GeForce FX odpovídala specifikacím SM2.0, ale když na něj došlo, šel výkon do kytek. Podobné je to (v menší míře) se SM3.0 na GF6/7 ve srovnání s Radeony X1000.
Ty optimalizace o kterych se vzdy mluvi se dnes z 90% toci kolem optimalizaci shaderu...
Přesně to jsem chtěl napsat - každému čipu vyhovují trochu jiné postupy. Ale podle čeho vývojáři napíšou ty shadery, než je zkoukne a upraví nVidia? Nejsou k DirectXovým SDK nějaké doporučené postupy nebo tak něco? Při těch optimalizacích by se totiž taky mohlo stát, že tam použijí nějaký krajně nestandardní postup, což by pak zpomalovalo konkurenční akcelerátory. To se mi právě na těhlech iniciativách nelíbí.
Co se tyka optimalizaci tak konkretne u shaderu neexistuje v DXSDK zadna informace o vykonnosti jednotlivych instrukci apod. Toto je proste specificke pro kazdy cip. Napr. GF7 mela hodne posilenou instrukci MADD, protoze v TWIMTBP teamu se pri spolupraci s vyvojari zjistilo, ze se vyplati do teto instrukce "investovat". Takze treba i v tomto ma vyhodu TWIMTBP - je to takova dokonala zpetna vazba, ktera rika, co se vlastne od cipu vyzaduje.
Jinak jedine, co je uz docela dlouho v SDK zminene vzhledem k optimalizaci, je typicky profiling DX funkci a doporuceni pro management sceny, ale pokud vim tak ten je provaden prumerovanim na vsech moznych HW kartach, takze to pro nikoho nemuze vyznit nejak priznive. Navic toto uz ma snad kazdy zkuseny programator doslova zaryte v hlave, takze uz o tom ani nejak nepremysli. Maximalne teda pri prechodu na novou verzi DX, jako treba ted u DX10 kdy byla spousta volani funkci zefektivnena takze nektere predsudky zdedene z DX9 uz neplati.
Jistě jsou látky, kde 4,5l může táhnout flotilu autobsů kolem světa
Nicméně ja fakt, že na to nV a ATI docela serou ... jde to vidět na spotřebě různých kategorií gk, kdy třeba mainstream má 1/3 spotřebu a přitom výkon mnohem vyšší než 1/3 high-endu.
Dilithium a antihmota?
bylo by zajimavy kdyby nejakej vyrobce uvedl mobilni X19xx ve verzi pro standartni PCIe x16... ale ta karta by byla drazsi a mene vykonna... vyplatilo by se to vyrobci vubec uvest na trh?
Ono by to jistě šlo (řekl bych, že jsou skoro stejný), ale ty notebookový jsou míň výkoný za vyšší cenu, takže to si zrovna stačí koupit o třídu nižší kartu a budeš mít výkon stejnej a spotřebu taky nižší, hlavně mnohem levněji.
Tím jste si u mě, věčného querulanta, získali pár bodíků. Gratuluji.
tesim sa na tuto hru, bude jedinym realnym ukazovatelom ci r600, 8800 vobec za nieco stoja.
mozno to 40 palcove TV bude stacit aj iba 1366x768 aby GPU utiahla farcry 2 -(
Mne benchmarky nezajímají, podstatná je realita. C2D by podle benchmarků měla při kódování videa zadupat A64X2 hluboko do země, ale v reálu je ten rozdíl trochu menší. U spousty her je jedno jestli je v PC C2D nebo Athlon X2....
Cena 2900 stale best
tu najdete porovnanie ovladacov ATI 2900 + vykon 8800 a ultra
8.37.4
8.37.4.2 , vykon AA, AAA = 3x
ATI 2900 HD
TJ oblivion 1280x1024 16xAF + 4xAAA - 13FPS, 8.37.4
a potom ovladace
8.37.4.2
4xAAA - 41,6 FPS a je lepsia ako GTX 38,1 a tesne za ultra 43 FPS
rozdiel je obrovsky a konecne vidno ATI 2900 v spravnom svetle.
AAA - adaptive antialiasing - vykon je tu 50 percent oproti normalnemu AA, preto to davaju do testov
http://www.computerbase.de/news/treib er/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
hura ATI 2900 opet v hre ako super karta