Hlavní stránka Hardware Grafické karty GeForce 8800Ultra - high-end nVidie v testu
GeForce 8800Ultra - high-end nVidie v testu
autor: Štefek Petr , publikováno 21.5.2007
GeForce 8800Ultra - high-end nVidie v testu

Dneska se nebudeme bavit o cenách a rovněž nepřijde na přetřes poměr ceny ku výkonu. Většina z nás si ji nikdy nekoupí, ale co? Vždyť o to u téhle karty ani nejde. Je to jako test Ferrari v motoristickém magazínu, každému chlapovi se rozbuší srdce, ale pak si vzpomene na rodinu a praktické využití a už si maže pro "Koktávku" k místnímu dealerovi Škody. A tak je to i s GeForce 8800Ultra.


GeForce 8800Ultra je ukázkově drahým a výkonným kouskem hardware, který si pořídí jen opravdový nadšenec, který navíc nemá hluboko do kapsy. U karty toho typu se nemá smysl zaměřovat na poměr cena výkon, kde by určitě neobstála ve srovnání s GeForce 8800GTS či nově s Radeonem HD2900XT. Chlazení je řešeno velmi dobře, takže se nemusíte bát, že k tomuto monstru budete potřebovat "hluchátka" neboli špunty do uší či jiné prostředky.Teploty jsou vysoké stejně jako spotřeba, ale ruku na srdce, koho tohle zajímá? Tady jde o výkon.

GeForce 8800Ultra - high-end nVidie v testu

Při testu jsem si ověřil, že můj 500W Chieftec zdroj není dostatečným partnerem pro tento tento "parní válec". Po výměně za Seasonic 700W se maximální takty zvedly o rovných 50MHz na jádru (700MHz)! a to se skutečně počítá. Pokud si hodláte pořídit GeForce 8800Ultra a nemáte ten nejlepší dostupný zdroj (pro SLI to platí dvojnásob), tak si ho nechte za příplatek par tisíc korun ke kartě "přibundlovat". Cena se u nás pohybuje okolo 18-20 tisíc korun s DPH.

Za zapůjčení karty děkuji společnosti nVidia.

Za testovací hry děkuji

GeForce 8800Ultra - high-end nVidie v testu



 
Komentáře k článku
RSS
Pouze registrovaní uživatelé mohou přidat komentář!
21.5.2007 00:43:34   85.70.182.xxx 6055
Já si myslim, že jestli ATI nevidá nějakou dělovku tak je docela v háji. Je to škoda. Ale zase na drohou stranu nikdo enví jak to bude v DX10 aplikacích
21.5.2007 06:16:51   85.135.135.xxx 43109
8800 GTX a ultra konecne karta pre 1920x1200, 1080p, idealny doplnok k 40 palcovej plazme, lcd

skoda len ze nema tu akceleraciu videa vp2 ako 8600 - purevideo 2, inak by to bola konecne prva vista ready karta vykonmi aj technologiou

8600-vp2 + PIP
http://www.hardwarezone.com.au/reviews/view.php?cid=18&id=2112&pg=5

Na ATI ma stve ze ma technologicky super karty DX 10.1 dobre pre 1280x1024 ale ani oblivion si proste pri 1920x1200 nezahrate
21.5.2007 12:52:47   81.19.4.xxx 125158
No nezahráme, a na rozlišení 5450x4970 ani s e čtyřma 8800XTXXT .... to sou fakt argumenty jako prase :-( Mě z toho jednou jebne :-( Hraje snad každej doma v obyváku na PLAZME ...?
22.5.2007 10:30:28   195.47.111.xxx 3326
Souhlas, asi jsem taky nějak "pozadu" 1280x1024 považuju za luxusní rozlišení a 1920x1200 mě teda absolutně netrápí
22.5.2007 10:23:41   85.13.69.xxx 3226
Ještě by ta plazma musela mít takový rozlišení :-)
21.5.2007 06:19:36   85.135.135.xxx 3245
8800 GTX a ultra konecne karta pre 1920x1200, 1080p, idealny doplnok k 40 palcovej plazme, lcd

skoda len ze nema tu akceleraciu videa vp2 ako 8600 - purevideo 2, inak by to bola konecne prva vista ready karta vykonmi aj technologiou

8600-vp2 + PIP
http://www.hardwarezone.com.au/reviews/view.php?cid=18&id=2112&pg=5

Na ATI ma stve ze ma technologicky super karty DX 10.1 dobre pre 1280x1024 ale ani oblivion si proste pri 1920x1200 nezahrate
21.5.2007 11:39:24   195.47.34.xxx 3530
Zdarec, mám jen jeden dotaz, k čemu je vám na grafárně hardwarová akcelerace videa?! Každej dnešní procesor bez problému zvládne softwarově 1080i video, mám T7200 a toto video zatížilo procesoru jedno jádro na 50%, tj 25% celkovýho výkonu. Stejně, když sledujete film nebo cokoliv jinýho, tak na tom stroji nic jinýho neděláte.
21.5.2007 11:52:02   147.228.209.xxx 2932
No myslim, ze to zalezi na druhu videa, me treba na slabsim 1.4GHz notebooku digitalni televize sporu s filtry a prepocitanim na vyssi dozliseni(monitor 1680x1050) zabere i pres 75 procent vykonu procaku... takze HW akcelerace se hodi.. je to sice priklad na notebooku v duchodu, ale nasly by se i jiny pripady.. treba kdyz mas na jednom monitoru spustenou hru a na druhym nejaky to video.. tam se taky hodi mensi zatez porocesoru..
21.5.2007 12:03:33   195.47.34.xxx 3229
No jo, ale když hraješ hru, tak se nedíváš na film :-)
21.5.2007 12:06:42   80.188.88.xxx 2932
tady jde spíš o to, že na HD film (1080p) je potřeba hodně silnej procesor (K8 dual-core @ 2,4GHz a vyšší tak bajvoko)
21.5.2007 12:12:48   195.47.34.xxx 2929
1080i mi zabralo 25% T7200, což je mobilní, 2Ghz dualcore, i tak myslím, že 1080p si víc jak jedno jádro nevezme
21.5.2007 12:22:34   195.47.34.xxx 2829
Změřeno, 1080p, 46% celkovýho výkonu na 2Ghz dualcore CPU, docela drsný, 11s video 87Mb :-)
21.5.2007 17:36:18   81.201.54.xxx 2929
Takže jedno jádro jede skoro na max :-)
21.5.2007 18:45:33   81.92.159.xxx 2829
Naschvál jsem si stáhl HD WMV 1080p a zkusil to na P4 530 (3GHz), které Visty vytíží při nicnedělání na 2-4%, pos spuštění videa to vylítlo na 100%, 5 vteřin se to sekalo, pak di to "zvyklo" a jelo to na 65-90%...
21.5.2007 21:21:13   195.47.34.xxx 2928
No jo, ale P4 není Core 2 :-)
22.5.2007 07:45:52   81.92.159.xxx 3027
No nepovídejte
23.5.2007 20:26:47   83.240.13.xxx 2525
to dost zalezi na tom jak je to kodovany, mam taky P4 3GHz, s nekterymi filmy mam celkem problem, ale nektery jedou naprosto plynule a ani to nijak nezatizi CPU, mozna je to i neoptimalizovanymi kodeky, ale stejne je to spis urovni a typem komprese
21.5.2007 14:27:59   85.216.170.xxx 3130

schema cpu az full hw video

http://www.hardwaresecrets.com/fullimage.php?image=6975

cielom HD nosicov je 1920x1080p 60FPS 40MBs h.264 a to uz ziaden procesor nedokaze+ myslom vylepsenia obrazu a odstranenie chyb v obraze - CPU dokaze prehravat ale nedokaze vylepsovat obraz

to je ako 3dmark 2003 cpu test - mas 40 fps bezi to iba na cpu cela hra, ale je skareda lebo je bez bez postprocesingu- dodatocneho vylepsenia a to hlavne je dovod hw akceracie videa
21.5.2007 14:45:53   83.240.11.xxx 3129
A mohl bys mi prozradit, pokud budeš mít video 1920x1080p a FullHD TV, jakej postprocesing bys tam chtěl asi tak provozovat?
Scaling těžko, sharpening těžko, blur těžko, deinterlacing těžko, brightness/contrast/hue/saturation je zadarmo ...
Nějak mi to není jasný.
21.5.2007 16:01:11   194.213.42.xxx 3129
No tak hlavně je to krásný marketingový lákadlo. Čím víc krásných názvů technologií s příponama a předponama super, hyper, full + libovolné pořadí písmenek X, tím líp pro výrobce...
21.5.2007 14:14:11   85.216.170.xxx 2929
zapoj si monitor a tv spolu a potom budes potrebovat procesor na hry a budes rad ked ti na TV ako na druhom monitore pobezi plynule bez sekania film, alebo ked prerabas DVD9 na DVD5 a chcest tie dve hodiny kym to robi pozerat iny film.....................

a tiez kvalita Hardware videa versus video cez CPU je neporovnatelna.
21.5.2007 16:22:32   147.228.209.xxx 2929
divil by ses ale nekdy se da delat oboji... zvlast u CS...
22.5.2007 10:18:18   88.100.28.xxx 2827
Kdyby jsi to CS umel, tak nebudes porat mrtvej a nebudes mit cas cumet behem hrani na film :-D
26.5.2007 10:50:05   85.216.170.xxx 2525
Ani to netrvalo tak dlho

tu najdete porovnanie ovladacov ATI 2900 + vykon 8800 a ultra
8.37.4
8.37.4.2 , vykon AA, AAA = 3x

ATI 2900 HD
TJ oblivion 1280x1024 16xAF + 4xAAA - 13FPS, 8.37.4
a potom ovladace
8.37.4.2
4xAAA - 41,6 FPS a je lepsia ako GTX 38,1 a tesne za ultra 43 FPS
rozdiel je obrovsky a konecne vidno ATI 2900 v spravnom svetle.

AAA - adaptive antialiasing - vykon je tu 50 percent oproti normalnemu AA, preto to davaju do testov

http://www.computerbase.de/news/treib er/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

ATI 2900 opet v hre ako super karta
21.5.2007 14:52:19   212.149.48.xxx 3563
neni potreba. vysly nove drivery pro Ati a 2900XT s nimi postupuje o dost vyse. v nejakych testech predci i 8800Ultru a to je co rict. vetsinou je rychlejsoi nez640MB verze od nvidie. kdyz k tomu pripoctu akceleraci videa, VIVO, ... tak mam osobne favorita. byly totiz u ati stejne problemy jako u nvidie s uvodnimi ovladaci, takze predpokladam jeste dalsi narust vykonu v dalsi verzi. kazdy Ati odsoudil s prvnimi drivery :-/ jinak prosim zadny flame, jen hledam optimum cena/vykon
21.5.2007 21:16:06   89.24.64.xxx 2929
To je sice pekny, ale jaky je rozdil mezi 8800gtx ultra a 8800gtx oc (wc)? Jinak si tuhle kartu určitě koupim.
21.5.2007 00:46:28   86.49.32.xxx 181194
Jsem rád, že je NVIDIA zatím lepší, protože kupuji podle poměru cena/výkon (který má NVIDIA lepší nyní v hiendu) a jsem radši, že budu nejspíš kupovat NVIDII, protože má mnohem lepší ovladače.. Na druhou stranu zase ty hulánovský kecy, to bude něco
21.5.2007 13:01:35   81.19.4.xxx 33157
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
10.6.2007 00:25:40   80.78.146.xxx 2324
S tím můžu jen souhlasit, karty od ATI vydrží vždy poněkud déle, díky ovladačům, které se neustále zlepšují. A poměr výkon/cena je už teď na straně ATI/AMD......
21.5.2007 00:49:57   147.228.209.xxx 4029
hmm, to se mi libi takovehle testy na ceskem PCT ve velmi dobrem case po uvedeni...
21.5.2007 00:55:48   147.228.209.xxx 3830
Bude taky test hardwarove akcelerace ruznych typu videa (h.264, mpeg 2...) grafickymi kartami? Uz jsme o nem diskutovali, ale 3 idealni karty pro takovouhle recenzi tu jsou (8800, 8600, HD2900XT) a test porat nikde..Pro srovnani by se hodila i nejaka starsi karta
Kdy bude takovy test?
21.5.2007 09:37:32   195.39.34.xxx 2929
Odpoved je jednoducha...AVIVO HD jeste neni plne funkcni..bude az s oficilanimi ovladaci.
21.5.2007 01:01:16   88.101.242.xxx 3935
no velmi pekny test :o) ale ako tak pozeram tak na hranie mi zatial absolutne staci moja 1950xtx. uvidim ako si karty budu viest v dx10 a potom sa rozhodnem pre vitaza. vidim to tak ze nova karta bude az pod stromcek aj s vistou :oD
21.5.2007 01:16:41   84.47.17.xxx 4830
Nema byt nahodou na zaciatku v tabulke priepustnost tej ati cez 100GB/s?
21.5.2007 06:38:18   194.228.23.xxx 2929
Taky bych rekl... Anebo jsem v minulosti spatne cetl... Buh vi
21.5.2007 07:40:25   81.201.54.xxx 2930
Není ta propustnost 105GB/s náhodou pro HD2900XTX GDDR4? Že to to už podruhé vzpomínáte.
21.5.2007 09:36:46   195.39.34.xxx 2929
Je to tak...
21.5.2007 11:48:36   80.188.88.xxx 2929
1650MHz * 512 / 8 = 105600 ;)
21.5.2007 12:37:09   195.39.34.xxx 2930
Uz ses to naucil pocitat..gratuluju
21.5.2007 13:40:05   80.188.88.xxx 2929
chtěl jsem tím poukázat na to, že to je propustnost GDDR3 verze, ne GDDR4 jak to vypadalo z vašeho dialogu

-Není ta propustnost 105GB/s náhodou pro HD2900XTX GDDR4?
-Je to tak...

...nevím na co tím narážíš...
21.5.2007 13:59:15   195.39.34.xxx 2930
Beru zpet...
10.6.2007 00:29:53   80.78.146.xxx 2323
Na propustnost verze s GDDR4 nebude mít nVidia žádnou odpvěď, otázkou zůstává cena, když taková karta bude mít 1 GB o dost dražší paměti. Navíc je otázka jak bude taktovaný GPU, ale když tak se nechá přataktovat a pak se může jít celá předražená 8800 Ultra zahrabat dva metry pod zem....
21.5.2007 06:36:12   80.188.88.xxx 3230
Škoda, že v testu nejsou i GF8800GTS ve SLI. To by cenové kategorii Ultry docela odpovídalo.
21.5.2007 06:38:48   194.228.23.xxx 2930
21.5.2007 11:44:43   80.188.88.xxx 2929
Co je na tom srandovního? Já bych opravdu rád viděl, jak si Ultra vede oproti dvěma GTS 640MB. Ultra stojí cca 20k, GTS každá po 10k, takže jsou to vlastně soupeřící řešení.
21.5.2007 13:27:20   194.228.23.xxx 2930
K smichu je prave ten fakt, ze ultra stoji 20k. U high-endu nVidie si vzdy vzpomenu na Hulana a pri pohledu na ceny si vzdycky udelam radost, kolik ze to vyhodi z okna kvuli sve kontroverzni povaze (U high-endu ATi mi jakakoli cena smesna neprijde, ATi fandim... I kdyz mam 7600 ... )
21.5.2007 12:22:57   88.100.200.xxx 3029
to by mě také zajímalo...
21.5.2007 08:01:32   213.210.191.xxx 3030
v grafoch je vsade uvedena karta gf 8000gts. nemala by to byt 8800gts?
21.5.2007 08:42:39   195.39.34.xxx 2930
jo mela...opravim az se k tomu dostanu.
21.5.2007 08:28:06   194.212.95.xxx 3035
ale test přeci jen o ničem.kdyby jste aspon počkali na lepší ovladače od ati.a jak zmínil Lukfi dali tam 8800 GTS (320/640) do SLI tak by to bylo určitě zajimavější.
21.5.2007 08:35:37   195.39.34.xxx 3429
mno jasny .... budeme cekat. Podivej az vyjdou ovladace finalni pro ati, tak hned udelam test, jestli je to lepsi.
21.5.2007 09:37:36   193.165.149.xxx 3229
ty výkony... klobouk dolů ale pořád je to k ničemu dokud nám to neukáže výkon v DX 10ce třeba na takovým CRYSISu páč na co budu teď kupovat grafárnu když na stávající rozjedu takřka všechno... :-/ a hry na DX 10 ještě "dlouho" nebudou...
21.5.2007 09:47:44   193.165.149.xxx 2931
Btw: třeba to ozkoušet na demu Lost Planet... ?
21.5.2007 10:17:00   85.207.174.xxx 2929
Lost Planet? The Way It Is Mean To Be Played! S nejvyšší pravděpodobností by vyhrála nV.
21.5.2007 11:28:21   195.47.34.xxx 4167
Sponzorovala, myslim že by bylo vhodnější pomáhá vyvíjet, tímpádem je samozřejně hra navržená, aby naplno využila potenciál jádra, což je dobře, ne jak Ati, která si tam někde vyvine cosi, co by mohlo teoreticky fungovat výborně, ale praxe je děs a bída
21.5.2007 11:43:15   80.188.88.xxx 4740
Kdyby se hardware i software vyvíjelo přesně podle specifikací DirectX, takovéhle sponzoringy by nebyly potřeba. Pokud výrobce hardware nedodržuje přesné specifikace a pak podplácí vývojáře, aby optimalizovali pro jeho čipy, pak to asi není úplně ideální situace pro zákazníky.
21.5.2007 12:09:09   195.47.34.xxx 3031
otázka je, jestli to je podplácení, tohle je prostě zdravá konkurence, když vyvíjí sofrware na kartách od nVidie, tak to těžko budou optimalizovat pro Ati
21.5.2007 13:46:08   194.228.23.xxx 4134
Asi jsi to nepochopil... Lukas mluvi o situaci pred vyvojem, kdy se vyvojova studia rozhoduji, na jakem HW budou vyvijet. nVidia ma takove praktiky, ze kdyz se vyvojove studio rozhodne pro jejich reseni, bude mit v prubehu vyvoje hry/enginu radu (opravdu velkou radu) vyhod. Tohle ja beru minimalne jako neprime podplaceni, o kterem Lukas psal.

Timto stylem si nVidia zajistuje optimalizaci. Temito praktikami o mne nVidia prichazi. ATi vzdy posunuje technologicky standard. nVidia se snazi zdimat FPS. Jakkoli. Protoze FPS u mas rozhoduje.

At je to jak chce, v tomto mi ATi prijde sympatictejsi a pro toto ji fandim, i pres to, ze mam Go 7600, se kterou jsem relativne spokojen.
10.6.2007 00:38:28   80.78.146.xxx 2423
I když nám z cenových a jiných důvodů P D805 a GF 7600GS, tak bych si dnes pořídil spíš tak A64 X2 něco kolem 5000+, a k tomu nějakou R1950. Holt PC už mám skoro rok a tehdy byla malinko jiná situace. Už se těším na HD 2600XT, za tu cenu to bude mazec. Asi budu šetřit na upgrade, zároveň si vyměním chladič a popoženu CPU ze současných 3 GHz kousek výš a přidám 1 GB RAM, to bude ranec.....
21.5.2007 15:26:56   147.229.193.xxx 3229
No myslim, ze kdybys videl vic do hloubky dane problematiky tak bys neco takoveho napsat nemohl.
Ono totiz specifikace DirectX dodrzuji ATI i NVIDIA uplne stejne (tohle je proste povinnost).

Ty optimalizace o kterych se vzdy mluvi se dnes z 90% toci kolem optimalizaci shaderu. Bud tak, ze napsany shader putuje primo do NVIDIA kde jej optimalizuji anebo tak, ze sama NVIDIA doda pro vyvojare sady shaderu podle pozadavku. Vtip je v tom, ze programatori v NVIDIA maji maximalni zkusenost se svymi cipy takze casto dokazi perfektne shader optimalizovat primo v assembleru. Ono precijen kdyz vis, ze na tve karte je napr. instrukce MADD efektivnejsi v urcitem kontextu instrukci, tak pak dokazes shader prepsat tak, aby bezel maximalne efektivne na danem HW. Pritom na konkurencnim HW pobezi taky, ale efektivnost intrukci tam proste bude jina a nebude to optimalni.

Zbylych cca 10% optimalizaci pak vychazi spise na rady ohledne vykonu funkci API, kdy NVIDIA poskytne informace jak napr. tridit sceny efektivneji tak, aby to jejim kartam a ovladacum vyhovovalo apod. Toto si sice vvojari peclivym profilingem zjisti taky, ale precijen i tak je to narocne tak proc nevyuzit pomoc ze strany TWIMTBP teamu.
23.5.2007 19:12:58   80.188.88.xxx 2525
No myslim, ze kdybys videl vic do hloubky dane problematiky tak bys neco takoveho napsat nemohl. Ono totiz specifikace DirectX dodrzuji ATI i NVIDIA uplne stejne (tohle je proste povinnost).
Samozřejmě, že dodržují specifikace a co ten čip má umět, tak umí. Ale otázka je, jak rychle. GeForce FX odpovídala specifikacím SM2.0, ale když na něj došlo, šel výkon do kytek. Podobné je to (v menší míře) se SM3.0 na GF6/7 ve srovnání s Radeony X1000.

Ty optimalizace o kterych se vzdy mluvi se dnes z 90% toci kolem optimalizaci shaderu...
Přesně to jsem chtěl napsat - každému čipu vyhovují trochu jiné postupy. Ale podle čeho vývojáři napíšou ty shadery, než je zkoukne a upraví nVidia? Nejsou k DirectXovým SDK nějaké doporučené postupy nebo tak něco? Při těch optimalizacích by se totiž taky mohlo stát, že tam použijí nějaký krajně nestandardní postup, což by pak zpomalovalo konkurenční akcelerátory. To se mi právě na těhlech iniciativách nelíbí.
23.5.2007 22:01:20   147.229.193.xxx 2525
To ze prvni implementace SM 2.0 byla na FX slaba je fakt, ale jak si sam napsal tak specifikace byly dodrzeny a to je hlavni. Ono casto ani neni nutny nejlepsi vykon (pro hrace teda vzdy ), protoze ty prvni specifikace jsou tu hlavne kvuli vyvojarum, kteri to potrebuji aby mohli testovat hry na necem rychlejsim nez je SW resterizer. Typicky se tento problem projevil ted v DX10 kdyz spefikace tu je uz nekdy od prelomu 2005/2006 a prvni DX10 karta vysla teprve na podzim. Celou tu dobu se dalo testovat pouze na SW rasterizeru a to je opravdu otresne, takze kazdy vyvojar pracujici s DX10 byl rad za cokoliv co prijde co nejdrive a vykon ho zas tak nezajimal, hlavne ze to bude rychlejsi nez v SW.

Co se tyka optimalizaci tak konkretne u shaderu neexistuje v DXSDK zadna informace o vykonnosti jednotlivych instrukci apod. Toto je proste specificke pro kazdy cip. Napr. GF7 mela hodne posilenou instrukci MADD, protoze v TWIMTBP teamu se pri spolupraci s vyvojari zjistilo, ze se vyplati do teto instrukce "investovat". Takze treba i v tomto ma vyhodu TWIMTBP - je to takova dokonala zpetna vazba, ktera rika, co se vlastne od cipu vyzaduje.
Jinak jedine, co je uz docela dlouho v SDK zminene vzhledem k optimalizaci, je typicky profiling DX funkci a doporuceni pro management sceny, ale pokud vim tak ten je provaden prumerovanim na vsech moznych HW kartach, takze to pro nikoho nemuze vyznit nejak priznive. Navic toto uz ma snad kazdy zkuseny programator doslova zaryte v hlave, takze uz o tom ani nejak nepremysli. Maximalne teda pri prechodu na novou verzi DX, jako treba ted u DX10 kdy byla spousta volani funkci zefektivnena takze nektere predsudky zdedene z DX9 uz neplati.
10.6.2007 00:44:55   80.78.146.xxx 2423
V tom je trošku potíž, třeba Doom III, nebo Quake byly optimalizované pro nVidii a t má slabé vertex shadery a dnes i geometry, ta hra podle toho taky vypadala. Moc mě nebaví dívat se dnes na hranaté hlavy..... HD 2900 má v sobě jistý procesor, který umí dopočítat geometrii, a hlava pak vypadá jak hlava a né jakýsi kostrbatý válec, či co.... Jen se na to musí optimalizovat ovladače, proto to ATI/AMD trvá trochu déle, ale výsledek za to stojí.
21.5.2007 20:49:31   85.207.174.xxx 2829
Pravidla jsou od toho aby se porušovala. Skutečně by bylo lepší, gdyby se vývojáři drželi specifikací, jenže během vývoje hry se hodí každý dolar. No a sponzoring IS THE WAY. ATi se svou zdrženlivostí rozhodně znevýhodňuje. Gdyby třeba procpala do některé herní pecky podporu pro svý vychytávky jako tesselator apod., alespoň by ty obvody využila lépe než jen v technologickém demu. Mluvíme o trhu, na kterém se udrží jen ti s nejostřejšími lokty. Ti, kteří využívají všech dostupných prostředků ke zdolání konkurence. Šikovné obejití pravidel znamená náskok před tím, kdo pravidla neobchází. Pro moralizování tu není místo.
23.5.2007 19:17:44   80.188.88.xxx 2626
Ano, ATi by určitě pomohlo, kdyby měla na své straně vývojáře. Ale i přestože dnešní trh her je jaksi do zelena (viděli jste někdy někdo nějaký titul označený ATi Get in the Game?), karty ATi dokáží porazit GeForce i ve hrách s TWIMTBP logem. Bez uplácení a optimalizací. Věřím, že pro loajální příznivce ATi je tohle "dušínovství" taky důvodem, proč nVidia sux.
21.5.2007 11:47:06   212.47.18.xxx 2929
nj, na cem jinem by to taky meli vyvijet, kdyz Nv byla do minuleho tydne jedina, kdo ma fungujici DX10 chip. Celkem mi schazi v grafu porovnani vykonu s moji mirne obstarozni, ale stale skvele fungujici Nv7900GTX.
21.5.2007 12:05:32   80.188.88.xxx 2929
odečti si 20-30% od Radeonu X1950XTX and that's about it...
21.5.2007 12:16:57   212.47.18.xxx 2829
... a sakra... zrejme prichazi cas upgradu me grafarny.
21.5.2007 10:22:15   83.208.181.xxx 2930
které sponzorovala Nvidia?
21.5.2007 10:17:10   87.197.185.xxx 2930
TU test s novsimi ovladacmi. vyzera to dobre
21.5.2007 11:14:39   213.220.198.xxx 2929
Tu ti to tu nejako neslape :-P
21.5.2007 11:15:23   213.220.198.xxx 3029
aaa uz chapu : )
21.5.2007 11:57:24   147.228.209.xxx 3029
cenzura :-)
21.5.2007 11:34:10   195.47.34.xxx 3730
Možná to bude mimo mísu, to psát tady, ale už bych se chtěl konešně dočkat karty, která bude podávat výkon jako GTXka nebo pro fanATIky 2900XT, při spotřebě kolem 30W, Ati a nVidia jdou v tomhle úplně opačnou cestou jako Intel a AMD, ti se tahají o každej wat a za chvílu tady bude dvoujádro se spotřebou 45W, když nepočítám mobilní procesory, sám mám C2D T7200, TDP 34W, a uvažuju o tom že do stolního stroje koupím něco podobnýho s deskou se soc479, aby se na to dal dát pasiv a celou bednu chladil jeden 12cm větrák na 200W zdroji
21.5.2007 12:19:42   212.47.18.xxx 2930
jj taky bych bral auto s vykonem Porsche a se spotrebou kolem 4.5L/100 Km. :-)
21.5.2007 12:24:04   195.47.34.xxx 2829
To asi budem muset pár let ještě počkat :-)
21.5.2007 14:53:50   83.240.11.xxx 3030
Ono záleží ČEHO spotřeba 4,5l.

Jistě jsou látky, kde 4,5l může táhnout flotilu autobsů kolem světa

Nicméně ja fakt, že na to nV a ATI docela serou ... jde to vidět na spotřebě různých kategorií gk, kdy třeba mainstream má 1/3 spotřebu a přitom výkon mnohem vyšší než 1/3 high-endu.
23.5.2007 21:11:26   80.188.88.xxx 2525
Jistě jsou látky, kde 4,5l může táhnout flotilu autobsů kolem světa
Dilithium a antihmota?
10.6.2007 00:51:25   80.78.146.xxx 2323
Netvrdil bych, že na to serou, ony totiž grafické chipy jsou už dávno o dost složitější než CPU..... Taky tomu odpovídá výpočetní výkon, přepočtěte si výpočentí výkon v plovoucí řádové čárce na watt u různých CPU s SSE optimalizací a bez ní a porovnejte to s GPU, asi se budete divit.
21.5.2007 16:39:41   147.228.209.xxx 2929
vzdycky jsou i min topici grafarny, myslim ze stale na trhu sem tam objevuji grafiky s mobilnimi cipy..ja kdyz jsem stavel tiche PC, tak jsem tam dal zdroj thermaltake s 12cm ventilatorem na 800ot/min a u vetraku na CPU jsem snizil otacky na minimum... grafiku pasivne chlazenou, krasne tichouckej komp, kdyz nejedou disky... "normalni" prumerne vykonne komponenty uchladis tise, problem je kde sehnat tak tichy disk.... High-end GPU uz proste nebude mit 30W. to tvoje CPU taky neni uz high-end...

bylo by zajimavy kdyby nejakej vyrobce uvedl mobilni X19xx ve verzi pro standartni PCIe x16... ale ta karta by byla drazsi a mene vykonna... vyplatilo by se to vyrobci vubec uvest na trh?
21.5.2007 19:48:56   83.240.11.xxx 2930
Nechci ti to vyvracet, ale nikdy jsem neviděl, že by se prodával notebookovej grafickej čip pro desktopy.
Ono by to jistě šlo (řekl bych, že jsou skoro stejný), ale ty notebookový jsou míň výkoný za vyšší cenu, takže to si zrovna stačí koupit o třídu nižší kartu a budeš mít výkon stejnej a spotřebu taky nižší, hlavně mnohem levněji.
21.5.2007 21:33:35   195.47.34.xxx 2830
No zatím je to 3. nejlepší procesor pro notesy, první je 7600, to samý, ale 2,33Ghz a druhej 7400, 2,16Ghz, a pak je ten můj mazlik :-) T7200 2,0Ghz, 4Mb L2, no prostě mazel
21.5.2007 13:03:10   83.208.189.xxx 2831
Opravdu překvapivě pojatá recenze. Nečekal jsem, že se na PCT někdo dokáže podívat na ultra-highend(a k tomu od nv) bez ohledů na cenu(která stejně hraje roli už spíše lákadla jako "to nejdražší a nejlepší").
Tím jste si u mě, věčného querulanta, získali pár bodíků. Gratuluji.
21.5.2007 13:16:06   213.215.86.xxx 3029
"pro budoucí hry jako Crisis a Unreal.." [b]Crysis[b/]
21.5.2007 14:33:15   85.216.170.xxx 3029
FARCRY 2=CRYSIS a potom zistime ze nam mozno ani 8800 ultra nebude stacit

tesim sa na tuto hru, bude jedinym realnym ukazovatelom ci r600, 8800 vobec za nieco stoja.

mozno to 40 palcove TV bude stacit aj iba 1366x768 aby GPU utiahla farcry 2 -(
21.5.2007 13:22:02   85.70.80.xxx 2929
No ta se mi v novem compu bude libit. Akorat jsem tu nevidel cenu
21.5.2007 13:53:17   194.228.23.xxx 3529
Asi se ti libit prestane.
21.5.2007 16:39:43   81.201.54.xxx 3030
To nepochybně :-) za 22kkč mám skoro 2 PC (MB+CPU+GK+RAM)
21.5.2007 17:05:10   85.70.124.xxx 4646
Sakra, já myslel, že GeForce 8800 Ultra je high-end mezi grafikama a ona je to pouze mainstream grafika Usuzuju podle autorova přirovnání k tuctovému, lehce nadprůměrně výkonnému Ferrari, kterých po světě jezdí desetitisíce. Pokud je Ultra skutečně high-end, tak potom je na místě přirovnání k Lamborghini nebo Bugatti A co se týká Jeni Mazucha, tak za prvé standart je 42 palcová plazma (čtyřicítka je dobrá tak na záchod) a za druhé pochybuju, že má plazmu Full HD (1920x1080). Věřil bych, že má LCD televizi s Full HD, ale LCD se hodí do kravína nebo vepřína a ne do bytu Toť vše
21.5.2007 17:35:19   81.201.54.xxx 2932
Nevím, co máš proti LCDTV. Když se krmí dobrým signálem, tak obraz nevypadá špatně. Je fakt že plasma má lepší kontrast a jas a buhví co ještě, ale LCD je pro moje oči příjemnější. Asi mam přecitlivělí oči :-) Stejně až se začně s OLED tak to bude jinačí pastva pro oči.
10.6.2007 00:59:03   80.78.146.xxx 2323
Záleží, co srovnáváte, určitě není stejný obyčejný TN panel, nebo kvalitní S-IPS, S-PVA, nové LCD už mají solidní kontrast, krom toho mají nižší spotřebu a o kapku delší životnost. Navíc až bude pod každou trojicí subpixelů jedna LED dioda na podsvícení, tak bude kontrast naprosto srovnatelný. Jen to chce vybírat, proto mám na stole Samsung 215TW....., ten obraz nemá chybu, jen k tomu připojím DVD rekordér s duálním tunerem a televize poletí z okna....
21.5.2007 18:39:40   91.127.80.xxx 5460
nvidia znovu ukazala kto je kralem vsech benchmarku
10.6.2007 01:04:58   80.78.146.xxx 2322
Bencmark si nezahraješ, to že 3Dmark je spíš nVmark je známé. Jen čirou náhodou mají obě společnosti sídlo ve stejné budově.... Tomu se říká náhodička.
Mne benchmarky nezajímají, podstatná je realita. C2D by podle benchmarků měla při kódování videa zadupat A64X2 hluboko do země, ale v reálu je ten rozdíl trochu menší. U spousty her je jedno jestli je v PC C2D nebo Athlon X2....
21.5.2007 20:39:15   89.102.159.xxx 3229
Článek to je celkem zajímavý, ale dost mě mrzí věta "Teploty jsou vysoké stejně jako spotřeba, ale ruku na srdce, koho tohle zajímá?". Jako když už děláte test, tak by bylo k věci tyto parametry zahrnout do testování. Sice co se týče spotřeby a teplot je 8800 Ultra nic moc ale nic není dokonalé že ?
22.5.2007 10:15:14   81.92.159.xxx 3028
Pokud si někdo koupí grafickou kartu za 22 000 korun, jsou teplota a spotřeba to poslední, co ho zajímá. Teplotu a spotřebu bych řešil v lowendu, v mainstreamu už jen okrajově.
22.5.2007 10:39:06   195.39.102.xxx 2626
no 22 litru bych za tu kartu nedal.mi staci obyc gf8800gtx se kterou nebudu mit v nejblizsi dobe zadne starosti ohledne toho co mi utahne.
26.5.2007 10:51:56   85.216.170.xxx 3126
Nove ovladace ATI 2900, GTX nestiha, ULTRA ma na male

Cena 2900 stale best

tu najdete porovnanie ovladacov ATI 2900 + vykon 8800 a ultra
8.37.4
8.37.4.2 , vykon AA, AAA = 3x

ATI 2900 HD
TJ oblivion 1280x1024 16xAF + 4xAAA - 13FPS, 8.37.4
a potom ovladace
8.37.4.2
4xAAA - 41,6 FPS a je lepsia ako GTX 38,1 a tesne za ultra 43 FPS
rozdiel je obrovsky a konecne vidno ATI 2900 v spravnom svetle.

AAA - adaptive antialiasing - vykon je tu 50 percent oproti normalnemu AA, preto to davaju do testov

http://www.computerbase.de/news/treib er/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

hura ATI 2900 opet v hre ako super karta
1.6.2007 08:26:06   213.220.215.xxx 2323
Rozumnou volbou je jako ekvivalent 2900 i 8800GTX samozrejme GTS verze, ktera je podstatne levnejsi a taktovanim se muze vykonu GTX trochu vice priblizit.
22.7.2007 13:53:33   85.207.178.xxx 2019
Já pořád Ati HD2900XT věřim. Ať už v DX9 nebo 10... Podle mě pořád nemají v pořádku ovladače.

Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz

353 čtenářů navrhlo autorovi prémii: 162.1Kč Prémie tohoto článku jsou již uzavřené, děkujeme za váš zájem.
Tento web používá k poskytování služeb soubory cookie.