Radeon HD 2900XT - DirectX 10 v podání AMD / ATi |
autor: Petr Štefek a Jiří Souček , publikováno 18.5.2007 |
Po letech a s několikaměsíčním zpožděním firma ATi (pardon, vlastně AMD) konečně vydává dlouho očekávaný čip R600 v podobě grafické karty Radeon HD 2900 XT. Pokud váš zajímá historický vývoj, architektura čipu, technologické novinky, souvislost se zmíněným projektem R400 a také samozřejmě testy výkonu, stačí pokračovat ve čtení dnešního článku...
Radeon HD2900XT můžeme minimálně za současných okolností právem považovat za silně kontroverzní řešení, ale jednu věc mu nelze upřít a tou je jeho technologická stránka, která silně přesahuje požadavky DirectX 10. Ve výčtu: programovatelný tesselator (kvalitnější modely bez nároků na CPU a sběrnice), technologie používané v profesionální grafice - bikubický MAG filtr, anti-aliasing s programovatelným rozložením vzorků a tent-filtrem, podporu pro FP32... z jiného soudku ještě například podpora pro virtual memory nebo multiple concurrent contexts. Některé z těchto technologií budou Microsoftem představeny až s DirectX 10.1, některé zřejmě ještě později.
Bohužel, slabou stránkou jsou současné ovladače. ATi sice předvedla, že rezervy jsou a nezanedbatelné (nárůst výkonu při HDR a Adaptive AA), ale kdy budou všechny zásadní problémy odstraněny, můžeme jen hádat.
Poměrem cena/výkon se sice Radeon HD 2900XT drží velmi slušně, ale je skoro ostuda, že současné ovladače drží produkt s tak vysokým technologickým potenciálem pouze na úrovni (či s poslední verzí ovladačů lehce nad) GeForce 8800GTS...
Největší devizou nové Radeonů HD2900XT je cena, která se pohybuje pod 10 tisíc korun s DPH. Pokud AMD/ATI vyřeší problémy s vyhlazováním a vylepší ještě o něco výkon, tak se Radeon HD2900XT stane nebezpečně výhodnou kartou.
R600 - výhody (+++)
- unifikovaná architektura
- podpora SM4.0
- texturovací jednotka optimalizovaná pro DX10
- efektivní superskalární architektura
- sofistikovaný řídící procesor
- programovatelný MSAA 8x
- CFAA až 16x, tent-filtr
- edge-detect FSAA až 24x
- všechny režimy FSAA kompatibilní s HDR
- kilobitový Ring-Bus
- 512bit sběrnice
- architektura vhodná pro další použití (fyzika, GP-GPU...)
R600 - co zatím nemůžeme objektivně posoudit (???)
- výkon v DX10
- výkon při FSAA (nevíme, zda jsou brzdou ovladače, nebo samotný hardware)
R600 - co by mohlo být lepší (---)
- ovladače (neoptimální výkon v některých aplikacích)
- ovladače (neoptimálně fungující přepínání mezi 2D/3D režimy)
- hlučnost chladiče
Za zapůjčení karty děkuji Sapphire Czech a AMD.
Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz
Thx.
Nikdo te nenuti kupovat zadnou z techto vykonnych karet...
koupit je moznost, ne povinost...
proto pokud chces mene hlucnou kartu, kup si treba 7600GT s lepsim chladicem, x 1950 PRO nebo GT s lepsim chladicem (treba od HIS) a pokud chces kartu na brouzdani po netu staci ti ta 5200 :-)
HD 2900XT srot neni a nikdo te ho nenuti kupovat...
taky se te neptam ze ktere zvlastni skoly jses... :-)
Resime tu totiz HD 2900XT, ne to kdo ma jake vzdelani...
argumenty mas asi slabsi nez radek hulan, takze diskuze s tebou nema smysl...
Bavíme se o počítačích pro domácí uživatele..
I dnes muzes mit plne pasivne chlazeny pocitac s prijatelnym vykonem... Protoze o ne ale neni takovy zajem, nejsou prilis videt. Lidi chteji ze sveho kousku "zeleza vymacknout" co nejvetsi vykon... je to jenom na tobe ktery kus hardware si vyberes, takze nema cenu tu neco hrotit.. FX 5200 je take pasivne chlazena :-) a navic ma nizkou spotrebu....
pockej, ty bys vlastne chtel vyhon 8800 ultra se spotrebou 25W? tak to si holt budes muset par let pockat...
pro tvou informaci nektere firmy vyrabeji karty do stolnich PC s mobilnimi chipy, tam by se dalo hledat optimum vykon/spotreba... mozna je take dobre pouzit zdroj s vyssi ucinnosti...
mimochodem me taky vysoka spotreba vadi u nekterych PC, takze jsem provozoval semprona na 1,075V a zdroj seasonic.. to uchladis taky pasivne... kdyz chci herni pocitac, tak pro me vetrak na x800 nebyl problem..
tohle je karta do herniho PC, tady se spotreba moc neresi
podle tvych komentaru soudim, ze před patnácti lety si tak akorát tahal kačera :-D
-téměř 200W které karta sežere pod zátěží je nepřijatelných nejen z pohledu toho, že na trhu existuje rychlejší karta s mnohem menší spotřebou, ale také z druhé strany tím ukazuješ výrobci že ti to je jedno a příští rok se dočkáš tak leda 300W obludy a né už jen od ATI, ale i od konkurence.
-To že pasivní část chladiče není dimenzován na téměř 200W ztrátového tepelného výkonu musí být jasné každému vyučenému topenáři, tak nevím proč to nedochází výrobci, který to dohání hlučným ventilátorem, který tak tak drží kartu při životě.
-Ovladače jsou nedílnou součástí karty, protože bez nich nefunguje, proto je hloupost to nějak omlouvat.
-sečteno a podtrženo se jedná o krásnou recenzi v rodném jazyce, ale na výrobek který si to nezalouží, protože nesplňuje základní požadavky které v dnešní době na HW požadujeme...toto naznačila i tato recenze a ještě více rozvádějí recenze zahraniční, já jsem jen přidal že zmíněná výhoda v pokročilé technologii je pro koncového uživatele nevýhodná a završil to tím, že si kartu může kvůli výše uvedeným čtyřem nevýhodám koupit jenom hlupák...a ano, pokud si kartu koupíš tak pro mne nebudeš zrovna při smyslech.
Jinak k tomu zbytku ti tleskám...bohužel ale moc čteš tvůj oblíbený časopis ABC jinak netuším kde by si k takovým kravinám přišel...osobně bych tě chtěl v roce 92 s tou 486kou vidět, za ty peníze by sis v té době mohl koupit nové auto nebo hrst ojetých aut.
A ještě na konec si z gymplu, že? ...to jenom pro mou soukromou statistiku
Jestli je ta spotřeba přijatelná nebo ne, nemůžeš posoudit ani ty, ani já, to musí posoudit dlouhodobé prodejní výsledky. Pokud se trh rozhodne, že vysoká spotřeba mu nevadí, pak s tím holt nic neuděláme. Jistě, ta spotřeba je obrovská a chladič poměrně hlučný, ale dokud to lidé budou kupovat a bude se to dát uchladit, bude spotřeba pořád růst. I když teda, podle roadmap, které jsou momentálně známé, to vypadá, že nic žravějšího než R600 už nikdy existovat nebude.
To že pasivní část chladiče není dimenzován na téměř 200W ztrátového tepelného výkonu musí být jasné každému vyučenému topenáři, tak nevím proč to nedochází výrobci, který to dohání hlučným ventilátorem, který tak tak drží kartu při životě.
Ty seš nějakej chytrej. Jak víš, jestli pasivní část je nebo není na tu kartu dostatečně dimenzovaná? Kdybys viděl nějakou recenzi, kde měli víc času ten chladič rozebrat, asi bys tady nevypouštěl takové bláboly ;)
sečteno a podtrženo se jedná o krásnou recenzi v rodném jazyce, ale na výrobek který si to nezalouží, protože nesplňuje základní požadavky které v dnešní době na HW požadujeme...
Požadavky, které TY požaduješ.
A ještě na konec si z gymplu, že? ...to jenom pro mou soukromou statistiku
Copak, zatrpklej z toho že ses nedostal?
Bod 2 - na to abys vyzaril 200W z takoveho kousicku kovu ti musi byt jasne ze se i pri hodne velke vymene okolniho vzduchu se rozzhavi na silene teploty. Kdyby byl dvakrat tak vetsi tak uz o tom zacnu polemizovat a ano cetl jsem asi deset zahranicnich recenzi.
Bod 3 - Ano mé základní požadavky na počítač: ticho, a rozumná spotřeba v poměru k výkonu kteý z něj dostanu, vztaženo ke konkurenční platformě nebo starší téhož výrobce. Pokud ty jsi názoru, že si koupíš kartu, která řve, má spotřebu 200W, nedotažené ovladače a nižší výkon než půl roku stará karta od konkurence pak ti gratuluju a jen doufám, že lidé kterým radíš jaké vybrat komponenty mají stejný názor na věc jako ty.
Bod 4 - to s tím gymplem mám jenom pro své statistiky, protože mi příjde že jsou nějací dezinformovaní ale i o ty zmatené názory se velice agraivně bijou...začal jsem si toho všímat poměrné nedávno...do nedávno jsem si myslel že je to střední škola jako každá jiná.
Neříkám, že mně to nevadí, ale je spousta lidí, kterým je to opravdu jedno. Radeon X1900 měl taky vyšší spotřebu než GF7900GTX, ale stejně ho lidi kupovali.
na to abys vyzaril 200W z takoveho kousicku kovu ti musi byt jasne ze se i pri hodne velke vymene okolniho vzduchu se rozzhavi na silene teploty.
No, on to není jenom kousíček kovu. Říká ti něco vapor chamber cooling? Každopádně si nemyslím, že by chladič byl poddimenzovaný - podle měření ComputerBase.de sice karta hřeje hodně, ale z horšího průměru to nevybočuje.
Pokud ty jsi názoru, že si koupíš kartu, která řve, má spotřebu 200W, nedotažené ovladače a nižší výkon než půl roku stará karta od konkurence pak ti gratuluju a jen doufám, že lidé kterým radíš jaké vybrat komponenty mají stejný názor na věc jako ty.
Neříkám, že bych R600 doporučil každému, ale taky netvrdím, že je to vyloženě špatná karta. Když se podíváš na testy s nejnovějšími beta ovladači, zjistíš, že v některých případech je dokonce rychlejší, než GF8800GTX, často rychlejší než GTS, jenom ty vyšší režimy AA (6x a vyšší) nefungují tak jak mají, a to pravděpodobně spraví ovladače.
bod 2) Nebudu to moc rozvadet. Karta ma hlucne chlazeni diky tomu ze pres jeji radiaotr musi prochazet obrovske mnozstvi vzduchu aby se udrzela pri teplote kdy jeste jaks taks funguje...proto neni chlazeni dobre navrzeno.
bod 3) a ano ovladace nejsou v poradku a mozna budou nekdy opraveny...psal jsem o necem jinem?
myslim, ze v cechach je zavedene urcite stezovani si na vsechno, a ty to tady dovadis do extremu...
takze abych ti to vysvetlil. ATi pracuje na volnem trhu, kde se uchyti jen to co se prodava. to co bude mit odbyt je dobre.
takze uvidime..
ja rikam, ze se prodavat bude a za par mesicu si mozna vzpomenes (nebo taky ja) jak si se pletl :-)
To ze ta karta neni zrovna podle tvych pozadavku je jen tvoje vec a nemusis ostatnim zavidet, ze maj vykonnejsi stroj..
Ja osobne bych kartu s podobne hlucnym chlazenim taky doma netrpel...
mozna bude zasadni, jestli ty vyrobci zase nebudou lepit zarucni nalepky pres chladic.. to se pak blbe rozhoduje jestli ztratit zaruku, nebo mit hlucnej komp..
ja si ji nekoupim z toho duvodu, ze nemusim mit high-end, ale poridim nejkou orezanejsi verzi. ty taky min topi a za par mesicu se urcite najdou vyrobci se solidnimi chladici...
ovladace Ati urcite brzo doresi, dnes kazde nove ovladace maji problemy... horsi by bylo kdyby zase byly problemy u hardware..(chipsety nVidie nebo 6800 -ati takove problemi taky asi mela ale ja kupoval spis nVidii co se tyka chipsetu)
/s tou 386/neni to kravina, spousta lidi si za ty penize koupila treba to auto. nejsme bohata rodina, ale 100 000 000Kč na počítač se našlo. Samozřejmě, že to nebyl počítač na hraní karet, ale na práci. Hračky za 100k si kupuje malokdo..
a z gymplu nejsem, jsem ze stredni prumyslove skoly, ale to uz je dlouho... takze tvoje cechackovske predsudky jaksi nefunguji :-), a tvoje soukroma statistika je v troskach...
jasný... sto mega se válí každýmu v šuplíku
Ano nic jineho jsem netvrdil a nejen ze bych si ji nekoupil, okamzite bych ji prodal nejakemu hlupakovi...kde je rozpor s mym prvnim prispevkem ktery te tak dopalil ze jsi me napadl?
ja si ji nekoupim z toho duvodu...
High-end to je tak mozna, ale jen vzhledem k cene jinak ma neumernou spotrebu k vykonu, spatne dimenzovany chladic a polovicate ovladace
ja si ji nekoupim z toho duvodu...
Psal jsem nekde neco o tom ze to v budoucnu u ati nedoresi?
s tou 386 neni to kravina...
V tom pripade by me zjimalo k jake praci by jste v roce 92 ten pocitac v cene noveho automobilu pouzival aby se vam to zaplatilo.
a z gymplu nejsem...
Co se da delat...
Před patnácti roky jsem vlastnil svůj první počítač robotron, který měl spotřebu něco přes 1000W/h Podle toho jak si to napsal to znamená že by ti ten robotron žral 1 kilowatu? To bere přímotop nespletl sis to?
jenze resime to porad dokola, takze uz to ani nema smysl...
Kvalitní PC se dá postavit jen na kvalitním základu. To je jako byste chtěli motor z BMW M5 strčit do trabantu.
http://www.extreme.outervision.com/PSUEngine
System Type: Single Processor
Motherboard: High End - Desktop CPU: AMD Athlon 64 X2 4400+ 2200 MHz 1.35v -(89 Watts)
Overclocked: 2500 MHz, 1.5 V
CPU (TDP): 85% TDP
RAM: 2 Sticks DDR SDRAM
Video Card: ATI Radeon HD 2900 XT
Video Type: Single Card
IDE HDD 7200 rpm: 1 HDD
CD-ROM Drive: 1 Drive
Sound Blaster - All Models:Yes
Additional PCI Card (avg): 1 Card
Fans
Regular: 2 Fans 80mm; 2 Fans 120mm;
Keyboard and mouse: Yes
System Load: 100 %
Recommended Wattage: 396 Watts
TZ X2900 je funkcna na 400W zdroji ktory znesie kratkodobe pretazenie ako Fortrony, enemaxy a pod
Certifikovane zdroje najdete tu
http://ati.amd.com/technology/crossfire/buildyourown2.html
Kdo chce hrat novy hry v tom nejlepsim podani asi nekouka na spotrebu - to je tedy u me fakt to nejmensi... dulezity je vykon a kvalita zobrazeni. ... Jo mam rodinej barak a elekrinu si platim sam :-). Mam Nv79000GTX a uz si brousim zuby na 8800GTX nebo lepsi... At to topi, aspon v zime pomaha kotli :-D
Mam jasno v tom ze je to najlepsia kupa dneska ale pre mna nezmyselny upgrade s X1950XTX,
Bohuzial rozdiel X1950 a R600 je 50% pri 1280x1024 a 85% pri 1920x1200 ale da menej ako 60FPS.
Takze je tu otazka na akej karte sa da hrat na 40 LCD 1920x1080 HDR 16xAF, asi iba na 8800 ULTRA, GTX a to ma fakt stve.
Takze efektivny upgrade je min na 2.5 - 4 nasobok vykonu starej karty . To pre mna znamena dalej cakat na 2900 XTX v externom prevedeni - to riesi aj problem so zdrojom aj chladenim.
Prosim otestujte uz hry aj na LCD TV - 1366x768 a 1920x1080. vykon, dojmy, samsung versus LG, Philips, PLAZMA versus LCD pre hry na 40 palcovych obrazovkach
nestiha okrem 8800 gtx nic
takze pre mna s x1900xtx je to nepotrebny upgrade a dalej cakam na r600 xtx 65nm ktora dufam uz da 1920x1080 tych 60 FPS na oblivione. Samozrejme to bude externa grafika takze zdroj ma netrapi a myslim ze potom sa na 40 pal. LCD vychutnam FARCRY 2
prosim urobte test hier na LCD a Plazme, dojmy vykon
1366x768 versus 1920x1080
samsung, lg, philips
este raz super clanok , a este ja grafiky kupujem vzdy na min 2 roky a viac preto to musi byt technologicky highend a to je stale ATI
ati r600 je dalsia next gen karta dx10.1 nie dx10
jej vykon bude vidiet az v native dx10 hrach, vo fyzike a gpgpu vypoctoch, folding home a podobne.
8800 je karta dneska a dobra kupa pre tych co menia gpu kazdy rok.
bohuzial v dx10 hrach bude mat problem hlavne pre biedny vykon geometry shaderov
http://www.xbitlabs.com/articles/video/display/r600-architecture_20.ht ml#sect0
a komplexny pixel shader je tiez horsi ako na r600, vid r6-vegas
http://www.xbitlabs.com/articles/video/display/r600-architecture_19.ht ml#sect0
http://www.legitreviews.com/article/503/8/
pre mna ako upgrade x1900xtx je slaba nema dvojnasobok vykonu, mozno to spravia ovladace
spotreba r600 ma netrapi kupim si externu verziu
http://www.pctuning.cz/ilustrace2/soucek/R600/Oblivion2.png
ATI prostě zase jen lhalo, nemělo kartu a nemohlo ji vydat, tak šířilo bludy mezi své fanATIky, jakou bude mít bombu. Nemá. Už to nešlo déle odkládat, a pravda o GPU kolapsu R600 je na světě.
Seriozní servery navíc rozebírají nejen obrovskou spotřebu (+60W oproti NVIDII), ale i špatnou kvalitu obrazu (je hezké napsat, že má nejlepší AF, ale přitom je to zase jen demagogie, protože nejlepší z ATI karet, ale zdaleka nedosahující kvalit AF NVIDIA 8800 řady), pravděpodobně nefunkční HW MSAA (proto ten propad, a to ovladače nezpraví), 3x nižší výkon v DX10 hře Lost Planet (ano, sponzoruje ji NVIDIA, ale to lidi nezajímá, ti si chtějí hrát).
Celá tato "recenze" je prostě smuteční řeč ATI fanatika.
Autor: Článek je vynikající, přečetl jsem ho jedním dechem
Prosím hodnoďte recenzované věci objektivně, v současné době je na té kartě dobrá hlavně cena, nízký výkon při AA patří do záporů, ne do "fanATIk Štejek nemůže posoudit". A laskavě si něco udělejte s vašim redakčním systémem, opět v Opeře nevidím tlačíko Poslat, takže musím zkopírovat napsaný text do FF jen abych to uložil.
nicméně jsem vám chtěl odpovědět hlavně na tu Operu - pokud stránku zmenšíte (CTRL+Scroll Down), tlačítka se časem zjeví.
A argumentovat tím, že CFAA používá z kruhu a proto nedojde tolik k rozmazání je směšné - ty vzorky u CFAA jsou totiž úplně mimo pixel, narozdíl od quicunx, kde jsou aspoň na hraně.
Ve výsledku je wide-tent na tom přinejlepším stejně, jako quicunx a narrow-tent o něco lépe.
A kdyby jste chtěli CFAA skutečně ohodnotit, tak to uděláte jako na každém lepším zahraničním serveru, kde se prostě vezmou obrázky ze hry. Jasně se tak třeba na xbitu ukázalo, že wide-tent je nepoužitelný a narrow-tent skoro taky(mají tam pěkně po jednom všechny možné mody rozebrány).
Hovoříte v článku o rozmázání a o redukcích různých efektů(shimering, moiré) jako o dvou nezávislých věcech, přitom to druhé je JEN přímý důsledek toho prvního. Tent je prostě přesně jak píšete gaussův filtr a ten se používá k ROZMAZÁNÍ obrazu.
Je potřeba si jasně říci, že teoretické technické parametry jsou o ničem, maximálně tak k oné onanii. Hraje se na výkonu, a stabilitě, a ten patří jednoznačně NVIDII, která je o 20-40% výkonnější, při 20-60W nižší spotřebě, kvalitních ovladačích, funkčním DirectX10 (viz Lost Planet), a hlavně je již 7 měsíců běžně dostupná v obchodech.
R600 je mnohem horší propadák než FX5800 od NVIDIE, je to kolaps, jaký svět GPU nepamatuje.
To co uvadi Jirka soucek v nekterych kapitolach je pravdive. Technologicky tedy papirove je R600 lepsi, coz ovsem neznamena, ze uzitna hodnot a je vyssi nez nVidie. Osobne mam GF8800 a nehodlam zatim prechazet na Radeon pokud nevyresi tyhle detske nemoci.
Třeba takto:
http://www.anandtech.com/video/showdoc.aspx?i=2988
http://www.xbitlabs.com/articles/video/display/r600-architecture_16.ht ml
Navíc v mainstreamu má NVIDIA fantastickou 8800GTS-320 za 7.000 Kč, na níž ATI opravdu nemá odpověď, protože se dotahuje na 2900XT za 10.000 Kč, ale bez problémů s ovladači a výkonem.
2) gts320 nestoji 7000kc
3) 2900xt nestoji 10000kc
4) Nvidii trvalo pul roku nez udelali plne funkcni ovladace pro g80
5) udaje o ziskovosti vyroby a prodeje g80 nejsou dostupny, porad se jeste proda mnohem vic dx9 nez dx10
6) vyvoj a vyroba high end cipu je neporovnatelne drazsi nez pro mainstream a lowend, proda se jich jen zlomek, mensi marze...
7) mainstreamu porad kraluje x1950 za polovicni cenu s dostatecnym vykonem
A dalsie to ze nVIDIA predala 3,5miliona DX10 kariet vobec neznamena ze to bolo prave High-end. Totiz oni uz predavaju aj mainstream karty ak si si nevsimol, ale pre teba mainstream su karty 8800GTS a vyssie vsakze. Podla mna je mainstream X1950Pro nie 8800GTS. Nebudem kupovat predsa drahu kartu len na to aby podporovala Dx10 ktory ide len na pondenej Viste a este bez riadnych hier, to si radsej za tie peniaze pojdem kupit nieco uzitocnejsie.
http://www.alfacomp.cz/php/product.php?eid=10514007K0BT0BXD3Q
www.xbitlabs.com
www.hardocp.com
Na obou mají porovnání kvality(na hardocp navíc vím, že jsou i zvětšené verze). Pochopitelně je to v článcích o HD2900 XT.
http://www.xbitlabs.com/articles/video/display/r600-architecture_16.ht ml
http://enthusiast.hardocp.com/article.html?art=MTM0MSw1LCxoZW50aHVz aWFzdA==
ale nevím, jak to je s odkazama, jestli budou fungovat.
"A argumentovat tím, že CFAA používá z kruhu a proto nedojde tolik k rozmazání je směšné - ty vzorky u CFAA jsou totiž úplně mimo pixel, narozdíl od quicunx, kde jsou aspoň na hraně."
- ještě jednou - pixel je bod - kdybys chtěl všechny vzorky odebírat z jednoho bodu, dlaeko by ses nedostal :o)
Ad shimmering, moire - tent filtr není gaussian blur. Možná by sis měl nejdříve něco o downsampling filtrech zjistit, než začneš kritizovat...
Ad gauss - četl jste vůbec to, co jste společně se štefkem vytvořili? Sami to označujete za gaussův filtr - a taky se mu HODNĚ podobá(dokonce ve vyjádření bylo slovo "nerozeznatelný"). Teď jsem dokončil práci, která se tohoto tématu dotýkala a když se podívám no obrázek gausse a tohoto, tak opravdu prakticky rozdíl nevidím. Pěkný obrázek je třeba(princeton): http://www.cs.princeton.edu/courses/archive/fall00/cs426/lect ures/warp/sld023.htm
Ale klidně zapomeňte na teorii - stačí se podívat na praxi(hardocp):
http://enthusiast.hardocp.com/image.html?image=MTE3 ODk0MTA0NU1IN2xkMnFWY1dfNV8xMF9sLnBuZw==
A pokud moire a shimmering, nejsou odstraněny právě rozmazáním, tak čím? Opravdu se mi nechce věřit, že by se na potlačení vysokých frekvencí tam zrovna touto metodou zanesl šum.
Víš jak vzniká moire? Obvykle znázorněním jednoho rastru druhým rastrem. A kdyby ses podíval na nějaké rosáhlejší pojednání, tak zjistíš, že zvyšováním počtu vzorků za použití box filtru jen posouváš frekvence, při kterých se moire objevuje. Takže pokud chceme odstranit moire a high-frequency noise, není pro real-time rendering box-filtr cesta.
ad gaussův filter - pozor, ty si pleteš guassian blurring a gaussian filtering. To je jako bys zaměňoval veřejný dům za veřejný chodník :-) Při AA pracujeme se sub-samply, kdežto pro gaussian bluring/up-scaling žádné další vzorky nemáš a vycházíš z barvy jednotlivých pixelů.
hardocp nebere nikdo vážně, je to zahraniční obdoba webu Radka Hulána. Pokud pochybuješ o mých názorech, podívej se třeba na techreport, kde se na tent-filtr a CFAA asi nejvíc zaměřili:
"Frankly, I was all set not to like CFAA's tent filters when I first heard about them. They make things blurry, don't involve clever tricks like Nvidia's coverage sampling, and hey, Quincunx sucked. But here's the thing: I really like them. It's hard to argue with results, and CFAA's tent filters do some important things well. Have look at this example shot from Oblivion."
"This CFAA mode with 8 samples produces extremely clean edges and does an excellent job of resolving very fine geometry, like the tips of the spires on the cathedral. Even 16X CSAA can't match it. Also, have a look at the tree leaves in these shots. They use alpha transparency, and I don't have transparency AA enabled, so you see some jagged edges on the GeForce 8800. The wide tent filter's subtle blending takes care of these edges, even without transparency AA."
"You may not be convinced yet, and I don't blame you. CFAA's tent filters may not be for everyone. I would encourage you to try them, though, before writing them off. There is ample theoretical backing for the effectiveness of tent filters, and as with any AA method, much of their effectiveness must be seen in full motion in order to be properly appreciated. I prefer the 4X MSAA + wide tent filter to anything Nvidia offers, in spite of myself. I've found that it looks great on the 30" wide-screen LCD attached to my GPU test rig. The reduction in high-frequency pixel noise is a good thing on a sharp LCD display; it adds a certain solidity to objects that just.. works. Oblivion has never looked better on the PC than it does on the Radeon HD 2900 XT."
"Another feature of CFAA tent filters is that they have no additional memory footprint or sampling requirements, and in this case, that translates to almost no performance overhead. Ok, my graph here is hard to read, but if you look closely, you'll see that CFAA's narrow and wide tent filters don't slow down the 2X and 4X MSAA modes on which they're based. There is a performance penalty involved when they're combined with 8X MSAA, but it's not too punishing."
ad HardOCP: Nemusíte věřit všemu co napíšou, stačí se podívat na obrázek. Ale ok, nevěřte ani obrázku z HardOCP, stačí se podívat na XBITLABS(http://www.xbitlabs.com/articles/video/display/r600-architecture_16.ht ml), kde pěkně po jednom prošli všechny tent filtry a výsledek:
"So, lets sum everything up:
* CFAA 4x is better than typical MSAA 2x, but it blurs image.
* CFAA 6x with “Wide tent” filter blurs image too heavily and the quality of this antialiasing is worse than typical MSAA 4x.
* CFAA 6x with “Narrow tent” filter provides antialiasing quality that is on par with MSAA 6x. Nevertheless, it also blurs image.
* CFAA 8x with “Wide tent” filter looks ok, but it still blurs image quite significantly.
* CFAA 12x with “Narrow tent” filter is better than typical MSAA 8x, but the blur is present as well.
* CFAA 16x with “Wide tent” filter blurs textures too heavily.
Now, let’s have a look at anisotropic filtering quality."
blurs, blurs, blurs, blurs... ->ANI U JEDINÉHO se nevyhne rozmazání a sousloví jako "blurs too heavily" je celkem běžné.
ad gauss: filter je obecný termín, blur se označuje ve chvíli, kdy se přesáhnou hranice pixelu. A dokonce i u narrow-tent se hranice přesáhnout - jedná se tedy o GAUSSIAN BLUR!(což výsledky na xbitu jasně potvrzují)
http://www.xbitlabs.com/articles/video/display/r600-architecture_16.ht ml
To je asi ten ústřední problém. Osobně jsem podrobně nestudoval žádné screenshoty, ale řekl bych, že CFAA je primárně dělané právě pro vysoká rozlišení, kde už si toho rozmazání nevšimneš, ale zároveň to bude fungovat i pro průhledné textury, viz citace z techreportu.
a nepříjde na trh z něčím opravdu novým!
Sakra lidi pochopte, že to prostě AMD zprznilo, karta neslpnila to co o ní básnili o to jde... Možná z ní nakonec ATi udělá krále proměru cena/výkon, který ale spíše bude nerozdíl od 1950PRO už zcela prodělečný...
Jinak k ovladačům, vám se zná víc jak půl roku málo na vývoj?
A co konkretne o nej basnili?
Programoval jsi někdy něco? (nemyslím teď domácí úkol i když i o tom pochybuji)
Víš jaký je rozdíl mezi vývojem Ovladačů pro hadrware a vývojem aplikací? Bohužel asi ne... Tak se vrať zas na hřiště a obluzuj svoje kamarády "drsnýma" slovama.
jedine co tam chybi je zase srovnani te HW akcelerace videa, ale jak jsem vycetl, tak to se soucasnymi ovladaci nejde... doufam, ze se takoveho srovnani brzy dockame.. Dockame?
mimochodem by me zajimalo, jestli se ati pokusi starsi jadro R580 predelat pro jiny vyrobni proces(80nm,65nm).... Mozna by bylo zajimave, kdyby se dockalo par vypocetnich jednotek navic a jeste by zatapelo R600...
Ono to vypadá tak, že je to taková architektura Pentia. Úplně nový čip na který ještě není využití a na kraji je přilepeno jádro 386 (převeďte na DX9) kvůli zpětné kompatibilitě. No a kolik let počítače s Pentiem vydržela...
Ale mohli jste ještě zkusit přetaktování a zmínit přesněji spotřebu.
taky třeba udělat screenshoty z her v max rozlišeni a detailech.
bylo by třeba možny pro příště davat odkazy na download dem z programu fraps ve kterem měřite v tom max nastaveni a rozlišeni?nebo mohl bych si je někde stahnout?docela bych se chtěl pokochat tou grafikou.
díky
pokud bude hledet na cena/vykon, tak tahhle karta ma oproti 8800GTS hodne co nabidnout
nema ted spicku ve vykonu, ale to AMD(ATi) urcite nepolozi protoze urcite velka vetsina uzivatelu shani graviky do cca 5000Kč.. a tam vladnou radeony x19xx :-)
Aby jsem na ní nevzpomínaly se stejnou nostagií jako na tech. inovatora a leadra trhu který sám založil a to modlu 3Dfx, předbělhy dobu a.........zkončily v propadlišti ději :-)
ot TTC rulezz :-)
No doufam ze se alespon HIS s necim predvede..
ad Radeon
Btw na to ze sme na PCT diskuzi je tu nejak malo postu typu "to bude ucet za elektrinu" "to bude topit jak radiator" nebo "v mym suprdupr browseru zase neco nejde zobrazit" : ) snazte se) jk
Reviews
Doufam, ze sam uznas, ze vykon stoji za h***o, ale ten nejvetsi problem je, ze na obraz se neda vycemene divat.
Porad si nemuzu pomoct, ale ATI me vela zklamala timto vytvorem. Tak dlouho jsem se na tu kartu tesil a takhle to dopadlo. Je to velke zklamani a pochybuji, ze ubohy vykon 2900XT ovladace nejak vylepsi. Hulan mel a ma pravdu! Vivat nVidea!" tak tohle co ma BIT? cetls sis vubec RECENZI? a kdiz sy ji jakoze cetl tak sy ji POCHOPIL? tys ani necetl vubec snad nic co tadi redaktor rozepisoval. Takovej kec jenom lidi odradi od poucneho CTENI! AZ mne urazi jaci neznalci se tadi dostanou a proto ani NECTU prispevky a lidi kteri tohle ctou tak aspon nech se trochu zamisli a o co mi tady vlastne de... nejde o Grafiku de o to ze Soudite neco o cem nemate Paru... nerikam nejsem zadnej MACHR ale urcitou svoji predstavu mam. Nekteri ste jako Ovce ktera lita za druhou. Jeden rekne a kazdej prikivuje a nevi sam na co! A jeste z5 k dane Grafice podle mne kdiby sem si mnel vybrat tak jedine podle vykonu v DX10 hrach nikoliv v DX9 nebo podle spotreby... jasnej Kral Technologie a budouciho Vykonu DNESNICH Karet bude HD2900XT ale pokud chcete usetrit na Elektrine tak GF8800GTX. Za druhe pokud vam vadi 100fps a chcete 150fps v DNESNICH hrach tak prosim kupujte GF8800GTX anebo rovnou Ultru co si tu budem vykladat... ale pokud chcete investovat do VYKONU budouciho tak moje VOLBA je zatim HD2900XT je technologicki UPLNE nekde jinde (strasne se mi liby Ring-Bust 512bit zapis 512bit cteni). Jo a na moji Diakritiku a Pravopis se nedivejte protoze se tu najdou takovi cemu zas nerozumi a zacnou mne tu urazet ze mam jit do zakladni skoly a pod... dekuju za vase strpeni. PS: peknej clanek pane Redaktore
A ze to jde jinak ukazal napriklad Intel svym 80jadrovym procesorem s spotrebou 65W a vykonem 2x vetsim nez ma dnesni R600 s vykonem kolem spotrebou 250-300... takze na budoucno si nehraj, protoze drive nez se nadejes, tvoje budoucno bude davno minulosti
Sorry že jsem se tak rozepsal.
a z chyb si nic nedělej .jsou tu i tací kteří napíší daleko větší blbosti.a ti co pišou že to je plný chyb tak ani neumí vyjmenovany slova po f
ciao
A ze to jde jinak ukazal napriklad Intel svym 80jadrovym procesorem s spotrebou 65W a vykonem 2x vetsim nez ma dnesni R600 s vykonem kolem spotrebou 250-300... takze na budoucno si nehraj, protoze drive nez se nadejes, tvoje budoucno bude davno minulosti
Nekritizuj, když píšeš stejným způsobem.
- že karta šla do prodeje pozdě? - to je problém ATI/AMD ne náš - je to vnitřní rozhodnutí firmy, která není nikomu ničím povinována - ostatním je do toho zhruba stejně tolik, jako do mého rozhodnutí jestli děravé ponožky vyhodím zítra nebo pozítří... mimochodem čím to poškodilo uživatele? zaplatili/objednali ste ji snad dopředu nebo jak? žalujte je a chtějte slevy
- že je karta jiná než bylo v reklamě/PR? - až do konce se o kartě nic přesného nevědělo... a zajímalo by mě jestli se takhle rozčilujete při každé reklamě na zubní pastu, máslo nebo vložky ... zuby vyčistíte a přestože nejsou o 47% zářivější tak nikdo nevyšiluje v diskuzích pod recenzema na zubní pastu. Říká snad ATI/AMD o té kartě něco jiného než ta karta je ? (mimo normální reklamní hype?)
- že je karta pomalejší než nějaká jiná? víc žere? má nesprávný odstín PCB? - to je zase problém ATI, po kterém nám může být kulové ... čím to škodí uživateli? si ji nemusí kupovat. Řve snad někdo po Adidasu, že Puma má o 2% sytější barvu triček?
- špatná kvalita obrazu? porovnávali ste to někdo na vlastní oči? mimochodem každé AA je nějakým způsobem "lež" a "kompromis" (mezi pixely/barvami) - pokaždé je to nějaké zkreslení... dokáže tady někdo říct co je "správný obraz" ? - hádám, že ne...
- "špatné" ovladače, všechen SW má své chyby a programování pro takhle složité čipy je docela záhul, navíc dělat to tak, aby výsledný ovladač dělal zprostředkovatele jiným nestandartizovaným, nebo různě "prasácky" napsaným cizím programům nebude žádná malina... až tohle dokážem my tady, pak budem mít právo nadávat.
Řešíte a nadáváte na problémy někoho jiného...
Místo kritizování karty, recenzenta a ostatních prostě udělejte jedinu ze dvou věcí co má v souvislosti s touhle kartou smysl:
1) KUPTE
2) NEKUPTE
Ale neodpustím si: stejně i se všemi mouchami co tahle karta má je to pěkný kousek HW se spoustou zajímavých nápadů a elegantních řešení.
http://www.czechcomputer.cz/product.jsp?artno=45688 VIVO maji...ostatne jine asi taky....
odporucam vyskusat aj pripojenie tv na video out hrat games na telke pri 1024x768 je super, nehovorim o tom ze je to 70cm telka 10 rokov stara.
Super je extended mod - na monitore hra a sucasne na TV navod a monitoring cpu, gpu ...
Ale impulsem pr koupi 8800GTS u mne bylo to, že 7600GT se na toto rozlišení příliš nehodí a že 8800GTS je Dx10 karta, která toto rozlišení v současných i budoucích hrách zvládne na lepší úrovni, než na jaké by je zvládla 7600GT při 1024x768. Holt větší monitor si chce své. Kupovat 8800GT. nebo Amd HD2900XT není zbytečné.
A ti co chtějí DirectX 10 - těm se vyplatí počkat, až budou nějaké výsledky reálných her.
Jinak HD2900XT považuji za, při nejlepší vůli, zklamání. Především ta spotřeba je děsivá. A to hlavně z pohledu hlučnosti a kvality chlazení. Řekněme si to na rovinu: "Tohle se AMD/ATi nepovedlo". Bez ohledu na to, co se tahle "recenze" snaží obhájit, do téhle karty bych nešel. Resp. jedině za předpokladu, že by mi v DX10 hrách, což se teprve uvidí, že Jašku, porazila 8800GTX o 5-10%. To že je levnější nestačí, to se dožene spotřebou. Jen doufám pro dobro nás všech, včetně R. Hulána, že to AMD napraví, monopol by asi nebyl nejlepší. I když to vypadá, že Intel začne také dělat graf. karty a konečně by mohla ke slovu přijít trocha optimalizace. Dle mého názoru to co dnes zvládá G80/R600 by mohlo zvládnou i G7x/R5xx, samozřejmě G80/R600 pak mnohem víc. Koneckonců když hraju God of War 2, tak si říkám na co nabušenou super kartu.
Typuji na to ATi. A za tím si stojím. HD2900 není špatná karta, ale ve vztahu ke konkurenci a k očekávání se prostě nepovedla. Možná má potenciál do budoucna, ale to nikdo nyní nedokáže adekvátně posoudit, vše co lze udělat je pokus o odhad. A ta rezence - trochu objektivity by neuškodilo, navíc by se hodilo trochu víc fakt, zatím vypadá jak pokus o PR od AMD.
precetl jsem si celou diskuzi, a taky bych prispel troskou do mlyna. (To vite nazor je jako dira v prde*i, kazdy ma nejaky
Dle meho nazoru je kvalita recenze je takovy prumer. Chybi tady jak bylo nekterymi lidmi zmineno - spotreba - idle vs load, hlucnost, porovnani kvality obrazu, min FPS a napr doba v % po kterou FPS je pod 30 FPS, pretaktovatelnost, maly pocet testovanych her. Mozna ze jsem to prehledl, ale jednalo se o GTS s 320 MB nebo 640 MB? Je skoda, ze karty nebyly testovany na vykonnejsim Core 2 Duo, tak aby se do srovnani promitala pripadna limitace procesorem co nejmene. Navic mne prijde alespon ten zaver docela neobjektivni:
- vyhody: 12 bodiku
- nelze posoudit: 2 bodiky
- nevyhody = co by mohlo byt lepsi: 3 bodiky
A jeste ty zapory (2 ze tri) jsou svedeny na spatne ovladace
Bohuzel HD2900 je zklamanim minimalne pro AMD. Priznejme si to. Vsichni jsme ocekavali, ze HD2900 by mel mit vykon aspon srovnatelny nebo lepsi s 8800 GTX (Jen se dobre podivejte na drivejsi novinky o HD 2900 a na reakce k tem novinkam
Ja bych rozhodne momentalne nedoporucil koupi tohoto topneho telesa
No co mam momentalne ATI a AMD, ale jestli nebude stat 65 nm proces za neco a AMD zpozdi Phenom, tak asi budu mit doma Penryn s NVIDII. Jen se trochu obavam, aby jsme na hrbituvku po Epoxu neprivitali taky AMD
max settings ale aj normal,
vysledok je 1600x1200 16% lepsia ako 8800 GTS 640 MB niekedy lepsia ako GTX a ma problemy s rychlostou pri vyhladzovani-AA= ovladace blbnu
http://pclab.pl/art26383-21.html
Crosfire ako vidno je ale neporazitelny - lebo R600 je native multi GPU karta.
dik poliakom za
konecne jeden nekomercny test
http://www.clubic.com/article-73608-8-amd-ati-radeon-hd-2900-xt -directx-10.html
takto by to mal robit aj pctuning
Rainbox Six na Unreal Engine 3 - ATI 2900 je lepsia ako 8800gtx, toto je jediny test co je vsade rovnaky
vysvetli mi to niekto
ked unreal 3 engine pouziva aj lost planet a tam 2900 uplne v prdeli.
mam pocit ze sa zase potvrdzuje ze nvidia ma hlavne silny marketing zaplatenych hernych vyvojarov a po case ked utichne tento humbuk kazdy povie ze na moderne DX9 a DX10 hry je najlepsi ATI R600 - alebo technologia vytazi nad hrubou silou a hrubym klamstvom
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/ page20.php
odporucam pozerat na R6- vegas oblivion
zistite sami co je pravda
Ja osobne si pockam na externu verziu alebo verziu chladenu vodou.
asi Od MSI
R600 s dobrym zdrojom a coolerom bezi na 1000MHZ a vtedy je neporazitelna aj s tymito aktualne blbymi ovladacmi-hlavne AA, AAA.
http://www.amd.com/us-en/assets/content_type/Dow nloadableAssets/ATI_Radeon_HD_2000_Handout.pdf
NA:
AMD X2 @2520MHZ , 1024MB DDR500, 1T, VISTA ULTIMATE 32 bit,
X1900XTX,
verzia hry DX9 pre vistu
1024x768 - default + 16xAF HQ - priemer 50 FPS
nevidel som ziaden rozdiel v kvalite obrazu od videi na DX10
hra bezi na Unreal 3 - engine v ktorom je ATI lepsia ako nvidia.
LOST PLANET: E.K
1280x1024 - default + 16xAF HQ - priemer 37 FPS
kedze ATI R600 je ovela rychlejsia ako x1900- ja osobne mam 100% istotu ze DX10 demo lost planet je dalsi podvod plateny nvidiou a o vykon ATI 2900 nemam ziadne obavy a tieto prve slabsie testy ma uz po tejto skusenosti uplne prestali trapit
screenshot rad poslem
inak extreme condition= lacny vyvoj lebo nepotrebujete textury na krajinu iba sneh
Samozrejme jedna sa aj o prud-na 12V vetvu
takze treba min 15 A na vetvu.
eXtreme PSU Calculator v2.5
http://www.extreme.outervision.com/PSUEngine
System Type: Single Processor
Motherboard: High End - Desktop CPU: AMD Athlon 64 X2 4400+ 2200 MHz 1.35v -(89 Watts)
Overclocked: 2500 MHz, 1.5 V
CPU (TDP): 85% TDP
RAM: 2 Sticks DDR SDRAM
Video Card: ATI Radeon HD 2900 XT
Video Type: Single Card
IDE HDD 7200 rpm: 1 HDD
CD-ROM Drive: 1 Drive
Sound Blaster - All Models:Yes
Additional PCI Card (avg): 1 Card
Fans
Regular: 2 Fans 80mm; 2 Fans 120mm;
Keyboard and mouse: Yes
System Load: 100 %
Recommended Wattage: 396 Watts
TZ X2900 je funkcna na 400W zdrojoch ktore znesu kratkodobe pretazenie ako Fortrony, enemaxy a pod
Certifikovane zdroje najdete tu
http://ati.amd.com/technology/crossfire/buildyourown2.html
od 700w a viac
Advanced settings , karta Adapter, Kde je asi 5 riadkov v takomto zneni:
Adapter type
ATI RADEON HD 2900 XT
Chip type: ..........................
DAC type: ..........................
Adapter String: ATI RADEON HD 2900 XT
BIOS information: 113-B00602-102
Total avaliable graphics memory: 766 MB
Dedicated video memory: 512 MB
System video memory: 0 MB
Shared System memory: 254 MB
///Tlacitko s napisom List All Modes...///
Tz. Koniec nedostatku pamete na grafike.
a ak uz dnes textury 4096x4096 v DX9c potrebovali 256 ,512MB aj viac v pameti Grafiky textury 8086x8096/4096x4096 budu potrebovat 4 x tolko pamete tz 1GB DDR3 + 1GB virtual memory = 2 GB graphics memory
Samozrejme v PC musite mat min. 2GB ram