ASUS Radeon HD2900XT aneb klapka číslo dvě |
autor: Štefek Petr , publikováno 25.6.2007 |
Seznam kapitol |
---|
1. Radeon HD2900XT - fiasko nebo úspěch? |
2. ASUS Radeon HD2900XT |
3. Testy |
4. Závěr |
Dnes se podíváme, jak si vede nový Radeon HD2900XT s finálními ovladači Catalyst 7.5. Jestli bude rozdíl ve výkonu oproti našemu minulému testu, kde jsme byli celkovým výkonem na sample ovladačích spíše zklamáni, to už uvidíme v samotném článku.
Asus Radeon HD2900XT je zcela jasně kartou s bohatým příslušenstvím, ale trpí dětskými nemoci, které jsou pro nové Radeony typické. Samotný čip je navržen pro DirectX 10 velmi dobře, což dokládají i některé spory mezi nVidií a vývojáři her, kteří se snaží už do svých enginů implementovat techniky, které budou pro DX10 typické a zatím je zvládají pořádně jen Radeony HD2000. To ovšem nemění nic na tom, že Radeon HD2900XT má vážné problémy s propady ve výkonu a nové ovladače nedoladily téměř nic.
Na jedné straně máme velmi slibný výkon Radeonu HD2900XT ve hře Call Of Juarez, X3:Reunion a na druhé debakl ve hře S.T.A.L.K.E.R.. To vše dává dohromady rozporuplné výsledky.
Další postěžování směřuje na UVD (Universal Video Decode), které AMD/ATi proklamovalo v marketingových materiálech o Radeonu HD2900XT a všichni, včetně mé osoby, čekali na finální ovladače, kde mělo být UVD aktivováno. Ovšem stala se věc, která se nedá nazvat nijak než podvodem, protože Radeony HD2900XT UVD nepodporují a podle všeho ani podporovat nebudou. S velkou pravděpodobností bude UVD přístupné pouze u Radeonu HD2400/2600, ale ani tomu už nelze s jistotou věřit.
AMD/ATI není technologicky "impotentní" spojení a dokáže vytvořit slibné čipy, které mohou nejen konkurovat nVidii, ale rovněž ji porazit. Bohužel pro ATI byl přechod pod AMD poněkud bolestný a ukazuje se, že ani tento strategický krok není schopen zajistit potřebnou oporu o plnění plánů ani nemluvě. Bojím se, že není daleko doba, kdy AMD bude muset zásadně přehodnotit své obchodní plány a možnosti. AMD/ATi by mělo přestat dělat velkolepá uvádění svých produktů na exotických místech a místo toho více spolupracovat s tvůrci her a prohánět svůj Catalyst team.
Asus Radeon HD2900XT pořídíte za necelých 11 000 korun s daní a jako náplast dostanete balík her, které mohou nejednomu hráči udělat převelikou radost.
www.nextcomp.cz
Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz
Jinak se kupujícím ATI 2900XT opravdu divím, ke kartě se musí dokoupit lepší chladič, aby neřvala jako raněný tur, a poté je cena jen cca o 2.000 Kč nižší než technologicky podstatně lepší 8800GTX, která má o 50-100% (Oblivion, STALKER) vyšší výkon.
Zaplatit o 15% vyšší cenu za NVIDIA a získat dvojnásobek FPS, to prostě znamená jediné - ATI si koupí jen absolutní zaslepenec.
CoJ s DX10 patchem je kromě původního HL2 jediná hra, kterou sponzorovala ATi. Jinak se testuje na hrách z nichž spousta je sponzorovaná nVidií. To je ale podle tebe v pořádku?
Krom to ho ATI zvládá specifikace DX 10.1 - kde je náskok nVidie ptám se?
"Zaplatit o 15% vyšší cenu za NVIDIA a získat dvojnásobek FPS" - raději se podívej ještě jednou pořádně na ty grafy. Sice je GFX model rychlejší, o tom není sporu, ale nejedná se o žádně dvojnásobné FPS, rozdíl je tak maximálně v desítkách procent.
Když argumentovat, tak objektivně!
Někdy v budoucnu bude všechno jinak...
A v 11/2007 zde máme 9800GTX..
V jiných hrách je na tom NVIDIA podobně, cena o +15%, výkon o +50-100%.
Není co řešit...
22FPS vs 39FPS, nárůst o 80%.. 100% je mírně nadsazeno, ale v některých hrách a testech to tak je; přesněji jsem měl dle testů na PCT.cz napsat o 50-80%.
Každopádně vzhledem k ceně jen o 15% vyšší za podobně tichou kartu je 8800GTX jasná volba.
Vzhledem k tomu, že se výkon v jednotlivých rozlišeních strašně mění, a to oběma směry, zcela jistě nezůstane situace taková, jaká je teď.
A k té budoucnosti: V současnosti jsou vydávány hry vždy tak, aby zhruba na plné detaily běželi na nejnovějším Hardwaru. Kdekdo by totiž mohl na některá studia nebo výrobce HW zanevřít. koupil jsem si tak drahou kartu, a přitom ani nezvládne.../Tvůrci tu hru prostě neumějí optimalizovat. už od nich nic nekoupím... Takže pravda.
Ale kdo by si kupoval kartu s vědomím, že prostě za třeba půl roku na ní bude hrát pouze na ucházející detaily?
Objektivně zkrátka nemůže říct nikdo nic, co by se obecně dalo považovat za pravdu. Nic se o tom neví, a vše se může(bude) měnit.
Pozor bez vetraka na pasive- odpalite kartu
Odporucam 12CM THermaltake - 45-90 CFM s rucnou regulaciou predavaju vzdy v sade 4ks - 2x12 + 2x8
je to objektivní test, naprosté lamy demagogové a ignoranti jako čurlán k tomu přispívají...
No neviem....podla mna rozdiel 12,500 a 19,000...nie je 15%.A este ich zrovnavat ako rovnocenne karty...
Aj ked viem ze ATI(AMD) si to trochu posr...(pokazila) ked nema konkurenta pre GTX... tak akurat mozno crossfire, ktory kazdemu nemusi sediet.....
Skoda..
http://www.alfacomp.cz/php/product.php?eid=105120006000000D5K
Mluví se zde o 2900XT + lepší chladič (HR-03 Plus) + 9cm větrák. A to je cena na úrovni 12-13t Kč.
Ano, lépe bych tvé příspěvky zde nevystihl.
HR-03 Plus je pro RHD2900XT? Tím si nejsem úplně jistý. HR-03 tam pasuje když ho obrousíš, ale s nějakým fanem to uchladí. Budeme tedy počítat 9500 za kartu, 1300 za HR-03 (obyč) a 200 za nějakej normální 120mm větrák. To jsme na 11 tisících. GTX je stále o 27% dražší. Kde je tvých 15%?
Trochu z drahého kraje, ne? Ty dáš za větráky 3500 Kč? Borec...
Potom Tě ale 8800GTX, která mimochodem zase o tolik tišší větrák nemá(pár dB), opravdu na těch skoro 19K vyjde.
Ja bych rekl, ze cas uz ukazal. V porovnani se 7 radou GF maji Radeony x1xxx mnohem lepe odladene drivery a doslova a do pismene diky nim vykonove dozraly, takze spousta lidi nemusi jeste stale resit vymenu sveho Radeona za vykonnejsi grafiku. S GF se niceho takoveho nedockas a proto je pro vetsi vykon ve hrach jedine reseni koupit novou grafickou kartu. Samozrejme, jak jinak 8800, protoze s 8600 a 8500 se zadny velky narust vykonu proti starsim 7 modelum nekona. A dokud nebudou nativni DX10 hry v prodeji, tak je investice do 8600GTS v porovnani s 1950Pro vyhozenych 1500,- navic za hlucnejsi, zravejsi a mene vykonnou grafiku. A 8600GT je za stejne penize o hodne slabsi...
2900XT uz zrejme prilis vykonove nahoru ani diky driverum nepujde. Jeji misto mezi 8800GTS 640MB a 8800GTX je v DX9 hrach dano, jak poctem FPS, tak cenou jiz od zacatku stanovenou managementem AMD. To co bych od dalsi verze cekal je stabilizovani vykonu aby nelital nahoru a dolu jak na houpacce. Prekvapeni by mohlo prijit s nativnimi DX10 hrami, ale ty tu driv jak za rok nebudou a do te doby neni kam s koupi nove grafiky spechat. Pravdou zustava, ze Ati nema co postavit nejen proti 8800Ultra, ale i 8800GTS 320MB. Myslim ze hodne lidem chybi nejaka odlehcena a levnejsi verze 2900.
Nejsmutnejsi ale pro nas bezne smrtelniky je, ze nV neni schopna v mainstreamu do 5000,- postavit proti "zastaravajicim" 1950PRO nic, co by stalo za rec, to je ale na uplne jinou diskuzi.
Taku podtaktovanu hd2900XL za 7 litrov by som aj napriek vyzsie zmienenym problemom bral hned ..
Pokud někteří výrobci propagovali R600 jako čip s UVD, pak je chyba někde mezi nimi a AMD a těžko hledat kde.
Proc nekdo masivne propaguje UVD v materialech u karty, ktera jej nepodporuje? Cely trik byl v tom navodit dojem, ze tato podpora existuje. Na upresnujici otazky, jak to tedy s podporou formatu je, bylo mnoha recenzentum receno, ze akcelerace bude ve finalnich ovladacich.
A pokud informujes o podobnych skandalech kolem nVidie, tak bys mel podobne pracovat i u ATi.
Ale nemyslím si, že by AMD "masivně propagovalo" UVD v souvislosti s Radeonem HD2900XT. Teď jsem se díval do prvního článku o R600 a ve výčtu specifikací RH2900XT sice je Avivo HD a schopnost přehrávání HD videa, ale nic o způsobu implementace - zdali samostatnou částí čipu (UVD) nebo shadery.
viz FGLRX: http://en.wikipedia.org/wiki/Fglrx
do verze X800 je ovladac "hacknuty" reverse-engineeringem - to znamena ze jej napsali lidi mimo ATI, proti vuli ATI, s minimem informaci a presto funguje lepe nez originalni ovladac FGLRX, ktery stoji za CENZURA.... verze X1000 maji zatim jen originaly od ATI, tedy jsou k nicemu.... Zlaty intel a nVidia
Proč? Jak už píšu dole El.Condorovi, R600 UVD nepotřebuje, protože ho může plně nahradit shadery.
Ze je Intel nezavisly na pametech je jeho vyhoda a byli by idioti, kdyby toho nevyuzili dokud muzou... Mimo to te nikod nenuti kupovat DDR3 pameti, kdyz P35 podporuje DDR2 i DDR3. Jestli ses nesmiril s tim, ze behem 2 let se povetsinou uplne zmeni socket, sbernice, rozhrani a stare komponenty tak casto nejdou dat do novych, tak si asi ani nekupuj PC, protoze to je domenou vsech vyrobcu a znacek.... A kdyz jsi mluvil o tom Bordelu, ja povazuji za mnohem vetsi zverstvo, ze AMD za dobu intelovskeho s775 uz 3x zmenilo socket a ted ho meni dokonce po ctvrte! To je mnohem horsi nez to, ze si k novemu CPU holt koupis rychlejsi pameti... Jen tak mimochodem, zatimco s tvym s939 si muzes o DDR II nechat jen zdat, Core2duo muzes stale provozovat i s DDRI pametma.. takze nechapu, kde mas problem... je to AMD kdo te nuti neustale menit pameti... ne Intel..
Co se tyce DDR3, tak k tomu pristupujes trochu jako uhrovity pubertak co honi FPS v nejake 3D strilecce. Ja pouzivam PC k praci a muzu ti rict, ze vyhoda DDR2 oproti DDR1 je znacna a to ne kvuli vykonu, ale kvuli spotreby. Stejne jako doted nebyl vyrazny narust vykonu mezi DDR1 a DDR2 tak ani za 4 roky necekej, ze bude nejaka podstatna zmena mezi DDR2 a DDR3. Hlavnim motorem teto zmeny je nizsi napajeci napeti a tedy i spotreba! A to je, pro me, kdy mi pocitac jede cely den, velmi dulezity parametr, ne-li jeden z nejdulezitejsich.....
Takze zatimco Intel zvysi frekvence a zvetsi latence (nicotny narust vykonu) a zaroven snizi spotrebu, AMD se bude dal placat v DDR2 s nizsimi frekvencemi i latencemi (zadny roozdil oproti Intelu) ale vyrazne vyssi spotrebou....
Procesor bezne spapka napr. aj 100 W, graficka taktiez (desktop).
512MB DDR modul si zoberie cca 5-7W, DDR2 cca o 30 percent menej a DDR3 cca o 15 percent menej ako DDR2.Tento rozdiel v prikone DDR2 a DDR3 sa na celkovej spotrebe prejavi len vo velmi malom meradle, aj ked ti PC bezi cely den.(ale pouzitie DDR3 u notebookov ma svoje opodstatnenie, aspon co sa tyka spotreby)
Jestli jsem někdy napsal do nějaké novinky, že UVD budou mít všechny Radeony HD2000, tak se omlouvám.
Takže to že je hlučná je vlastně její největší vada? Spotřebu má v max zátěži o 30w větší než 8800 GTX.Vás co ty karty máte to zajímá?Asi ne jinak by jste je nekoupili.A rozhodně je o dost levnější než GTX a má na rozdíl od ní alespoň nějakej předpoklad vůči DX10.
2. To ze bude 2900XT nekdy v budoucnu "dobra" je nam dnes platne jak zmrzlemu zimnik. Vzhledem k rychlosti vyvoje je totiz cokoli do pul roku stare! Az bude 2900XT "dobra" bude uz davno stara s na trhu bude radit G90.... (pokud to nebude stejny propadak jako R600)
To jestli bude HD2900XT "dobrá" bude záležet od toho jestli se vývojáři dají cestou shader-assisted AA resolve. Pak to bude vypadat jako v CoJ DX10. Ale Radeon bude mít propady při AA pořád stejné, protože to tak dělá vždy, takže spíš GF8800GTX bude "špatná".
Rekl bych, ze zasadni problem je predevsim v lidech, co ma AMD ve vedeni...kteri se placaji nejak tak porad na miste.
Velka cast pomoci ze strany NVIDIA se toci kolem psani (pripadne alespon optimalizace) shaderu tak, aby to vyhovovalo jednotlivym kartam. V TWIMTBP teamu (jeden je urcite v Evrope, druhy v USA, dalsi mozna take existuji) pracuji opravdu velice schopni lide, kteri se vyznaji nejen v modernim HW od NVIDIA, ale take rozumi teorie CG takze jsou schopni psat i slozite shadery. Precijen je nutne si uvedomit, ze shadery jsou ve vetsine vyvojarskych tymu zalezitosti grafiku a ne programatoru...a vetsina grafiku proste nerozumi slozitejsi matematice kolem CG (na ne jsou kladeny pozadavky predevsim z oblasti vytvarne hodnoty dila), takze proto je nekdy pro spolecnost lepsi pozadat o nejake slozite shadery TWIMTBP team.
No a za tuto pomoc pak NVIDIA chce, aby se ve hre vyskytovalo logo jejich programu. Pricemz je dulezite upozornit, ze to neni vyhodne jen pro NVIDIA, ale i pro vyrobce, protoze toto logo je do urcite miry zarukou kvality (samozrejme ne co se tyka hratelnosti nebo bugu, ale spis te graficke stranky).
Povies niekomu ze je ako Hulan a urazi sa ... lol ;-)
Přímo nesnáším když se autoři omezí jenom na jedno řešení problému, a jestli se chci dostat dál tak musím přemyšlet jak to autor nalinkoval.
Připadám si pak jako v korytě potoka, a každej pokus o logičtější řešení vede k zamknutejm dveřim, stráni nebo v neviditelný stěně.
Kvůli tomuhle jsem strávil dost času u GTASA, kde jsem měl možnost volby jakým stylem vyřešit problém.
A bylo my srdečně jedno že je grafika 4roky zastaralá, hlavně že mě hra po povrchním skouknutí efektů neomrzela.
Pamětníci my jistě daj za pravdu že vetší sranda byla u 2-D Vlaku nebo Bombermena(multiplayer), než u krásný 3D akce kde je jedinej ohranej cíl střílet, střílet a střílet.
A proto je konzole Wii uspěšnejší než nadupanej PlayStaton 3.
Zdvihni svoju prdel a kup si 8800GTX. No ako poznam podobne lamy tvojho typu tak na tak drahu kartu nemas ... ;-)Ndavat na to co sinemozes kiupit dokaze kazdy ... To je ako by si sa stazoval ze Ferrari Enzo je pomalsie ako Bugati Veyron :-)))
Jaký chladič byl použit na Athalonu X2 6000+.
Jnak díky za člnek. O téhle kartě jsem přemýšlel.
Ale chci si počkat na další vezi s 65nm a GDR4. Doufám že do té doby budou poladěné ovladače.
Niekto z Nvidie raz povedal GF 5 bol omyl.
Ak GF 7 je vylepsenina 6 /Pricom je 7 zly tah/ GF 5 je omyl a GF 4 je vylepsenina GF 3 tak mi z toho vychadza 1 vec - a to ze od doby GF 3 az po GF 8 Nvidia nevidala ziadnu vynikajucu kartu!
A stavim sa s vami o pivo, ze ked vyjde HYPER-MODERNA GF 10 o par rokov,zas Niekto z Nvidie povie : GeForce 8 bol zly tah,preto lebo bla bla bla...
A kedze GF 9 bude zas len vylepsenina GF 8 - vieme kam to vstko smeruje.
btw. mám 9800Pro a hraju pohodlně hry, který lidi s GF 5 skoro ani nerozhejbou takže si na ATI nemužu stěžovat
http://hdraaoblivion.notlong.com
Vymenil som stary dobry R580+, 1900XTX, bezal pretaktovany na 400W zdroji FORTRON
MAM MSI 2900 XT -
Hlucnost 2D - nizka
Hlucnost 3D - subjektivne nizsia a nie tak neprijemna ako na 1900- iny ton ako X1900/ ciselne vyssia/
Zdroj - v krabici je listok kde pisu 550W + 2 volne 12V vetvy, ale ak chcete taktovat a crossfire tak min 700W- je to tak , vid
http://ati.amd.com/technology/crossfire/buildyourown2.html
Vykon - po par testoch je skvely - SM3.0, HDR na urovni GTX
Dost zavisi od CPU ak - takte jadra /4 jadra su nanic, najlepsie dual core 3.6 GHZ a pod/
na Mojom- AMD X2 2620MHZ , 1GB RAM- 3dmark 2006- 9500 bodov
hlavne SM3.0 score - 4500 bodov /tolko da s mojim CPU aj 8800GTX/
4xAA....- stale je nedoladene-
akceleracia videa - ide ale nedoladena
Pretaktovanie ide - v CC-centre na jadro-843MHZ, ram-900 MHZ
ZDROJ MAM SEASONIC 700W - 56A
Ovladace 7-5 su stabilne v XP, X64, VISTA X32
Karta ma extremny geometricky vykon- 280 mil-trojuholnikov za sekundu / z 3d mark 2006/
Takze CAD dizajneri maju radost uz teraz a my sa mozeme tesit na prepracovane modely v hrach.
Zhodnotenie- dobra kup
8800GTS - 640 MB je ale najpraktickejsie riesenie dneska, nemusite kupovat zdroj ako ja a pod win XP mozete este urcite rok hrat.
a na dlhsie obdobie, 2+ roky karta nezastara, trochu hardcorove 225W riesenie
Na R600 už je pozdě.
Ať si Ati radši připraví dobře další generaci, ať to není takovejhle průser.
Karta byla mířená do high-endu, a v tomhle segmentu už NIKDY VÍTĚZNÁ NEBUDE, A kvůli spotřebě a navržení nebude úspěšná ani v žádnym jinym segmentu.
R600 smeťte ze stolu, nemá už šanci.
Problém je že HW stárne hroznou rychlostí, a když to v době vydání není dělo segmentu, tak už nebude NIKDY. Je lepší to pak vzít jako nepodařenou kartu, a honem se snažit přijít s něčím lepším...
ja bych to s tim radeonem nevidel az tak zle, maji pravdu v tom, ze cena oproti Geforce polovicni...viz final thoughts
vipers
tie ma stve - 512MB ver malo byt 1GB RAM
80nm- 225W-740MHZ core, a nie 65nm 150W -1000 MHZ - core
Ja som s kartou absolutne spokojny a som rad ze 8800 jej konkuruje a znizuje cenu na cca 10 000 kč.
Vykon je super do 1920x1200 nikdy neuvidim menej ine ako 40-90 FPS, HDR, 16xAF, AA
a mam plnu VISTA kompatibilitu - HDMI vystup so zvukom , stabilne ovladace, a tie najlepsie dostupne technologie.
a Virtual memory- rozsiruje pamet grafiky do RAM PC - takze kazdy kto sa chvali 2,3,4 GB fast RAM to pociti,
Da sa vyuzit ako procesor - enkodovanie videa DVD do DIVX za 30 minut, vedecke vypocty
a VIVO
Verim ze nie kazdy je hardcore gamer- co stale nieco nastavuje a zlepsuje a tesi sa s technologii ale aj bez toho je tato karta best
Je stabilna, vykonna, super vybavena
dalsie
skusenosti rad poslem
Jeste jedena ukazka k Vasim nesmyslnym argumentacim a hadkam jak jste hloupy: Ja si na sve x1950PRO za 4,5k Kc zahraji vetsinu stavajich her ve stejne kvalite jako idi@ti s 8,8kGTX za 18-20k Kc(je to cena z doby kdy jsem kupoval 1950pro), obliviona jedu na 1024x768 s kompletnima detailama, a po poravde jestli cokoli hraju na 1024x768 nebo na 1280x1024 uz takovy rozdil neni, protoze mam kvalitni 19"LCD....
1 - Pokud mam hru na 1024x768 ale na max. nastaveni veskerych optimalizaci(AA, HDR, etc.) tak oproti 1280x1024 v "prumernem nastaveni" to je vicemene sumak....
2 - Vetsina her jde u x1950PRO na max. nastaveni v 1280x1024, jen ty nejnarocnejsi jako Oblivion jsou stropem a obcas to jde pod 25FPS takze radeji 1024x768 na max. nez 1280x1024 v "zakladu"....
3 - Doprat si "temer" to same za 4,5k Kc co si dopreji za 10k-18k Kc si myslim ze je take dulezity fakt vhodny ke zvazeni protoze za pul roku az budou skutecne DX10 hry a bude jich dostatek na trhu teprve skutecne uvidime co je nejlepsi pomer cena/vykon/kvalita, a to se nebavim o tom ze za pul roku budou ceny ktere budou konecne odpovidat uzitne hodnote, tedy o desitky procent niz....
Takze dle meho pokial vozmem v uvahu tieto vsetky fakta objektivno tak mi prijde tve hodnoceni o "kockach" ve velmi idealne rovine mijejici se s realnou rovinou zivota....;) Korn kdyz 90% prispevovatelu - "fanousku" honi vykon na GF6600GT a nizsich, hlavne ze se hadaji o necem kde neni prostor pro diskuze protoze jeste NEEXISTUJI hry pro ktere jsou staveny ve vice nez po jednom kusu od kazde staje, takze vlastne hry bez optimalizaci pro "sponzora" jsme na poctu "0", hezka bilance pro nesmyslne detinske nekolikastrankove hadky ze...;)
http://crysis.cz/crysis-info/hw-naroky/
Minimální:
Procesor: Athlon 64 3200+/Intel 5xx series
Operační paměť: 1GB (se systémem Windows Vista min. 2GB
Grafická karta: Nvidia 6600/X800GTO
HDD: 6GB
Internet: 256k+
Optická mechanika: DVD
Software: DX9.0c, Windows XP
Doporučené:
Procesor: Dual-core CPU (Athlon X2/Pentium D)
Operační paměť: 2GB
Grafická karta: Nvidia 7800GTX/ATI X1800XT nebo DX10 ekvivalent
HDD: 6GB
Internet: 512k+
Optická mechanika: DVD
Software: DX10, Windows Vista
tz - tak ako je farcry engine tym najlepsim pre DX9 tak aj crysis bude best pre Dx10 aj 9
a rozchodite to aj na starsich strojoch, DX10 bude hlavne fotorealisticky s fyzikou a prirodou= subsurface scatering -
http://graphics.ucsd.edu/~henrik/images/subsurf.html
priehladnost listov, koze, kôry stromov
Mozem povedat ze na mojej 2900 som porovnaval DX10- call of juarez je skvely aj ruby-whiteout demo- aj aj hru aj ako film ale na crysis to nema
má někdo nějaké bližší informace o tomhle typu 2900ky? Kdy by mohla přijít na trh, cenu..? Myslím, že by mohla být docela zajímavá,
Dík.
Advanced settings , karta Adapter, Kde je asi 5 riadkov v takomto zneni:
Adapter type
ATI RADEON HD 2900 XT
Chip type: ..........................
DAC type: ..........................
Adapter String: ATI RADEON HD 2900 XT
BIOS information: 113-B00602-102
Total avaliable graphics memory: 766 MB
Dedicated video memory: 512 MB
System video memory: 0 MB
Shared System memory: 254 MB
///Tlacitko s napisom List All Modes...///
grafiky pouziva cast RAM v PC ako svoju vlastnu DDR3 pamet, je to funkcia ktora je dostupna iba na ATI 2XXX v mojom pripade kedze mam 1GB Ram moja ATI 2900 funguje pod VISTOU ako karta s 766MB pamete 512MB DDR3+256MB DDR s PC. JE to napisane na okne po otvoreni: Display settings,
Advanced settings , karta Adapter, Kde je asi 5 riadkov v takomto zneni: Total avaliable graphics memory: 766 MB
ovladace 7.6 su 100% stabilne a nemaju ziadne problemy s rychlostou
co sa tyka AA-
2xAA - bez straty vykonu 92%
4xAA... - stale rovnako
6x /2xAA + narrow alebo wide tent/ - bez straty vykonu 90%
Vykon zavisi aj od CPU-frekvencie na mojom AMD X2 2600 MHZ - 3d mark 2006 Sm 3.0 4800 bodov
Mam overene
8800 GTX s Intel Core2 Quad Q6600-2,4GHz - SM 3.0 4700 bodov
Mam MSI HD 2900 XT
Novy test s ovl 7.6 najdete tu - 8800 GTX OC versus HD 2900 XTX - 1GB
http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2065772 a>
alebo
Vital System Info
E6600 @ 3375 MHz (9x375)
4 GB DDR2-750 4-4-4-12
Raptor 150 GB
Vista Ultimate 64-bit
Drivers Used
nVidia Forceware 158.24 (current official driver)
AMD Catalyst 7.6 (current official driver)
Driver Settings
nV 3D settings: top bottom
AMD 3D settings: top middle bottom
8800 GTX OC 768 MB clocks at defaults: 594/1404/900 (slightly higher than the reference 8800 GTX's 575/1350/900)
HD 2900 XT 1024 MB clocks: 825/1050
For all benchs, i ran tests at least twice, usually 3 times actually, & if there was more than a slight difference in scores, then 4 or more.
Results posted are averaged from the multiple runs.
Benchmarks!
3Dmark01 default
8800 GTX - 46773
2900 XT - 44147.67
3DMark05 default
8800 GTX - 17841.67
2900 XT - 19681
3DMark05 @ 2560x1600 4xAA/16xAF
8800 GTX - 8163
2900 XT - 7186
3DMark05 @ 2560x1600 0xAA/16xAF
8800 GTX - 10985
2900 XT - 10392
3DMark05 @ 1600x1200 4xAA/16xAF
8800 GTX - 11834
2900 XT - 11471
3DMark06 default
8800 GTX - 10636.5
2900 XT - 11501.5
3DMark06 @ 2560x1600 4xAA/16xAF
8800 GTX - 4579.5
2900 XT - 4392.5
3DMark06 @ 2560x1600 0xAA/16xAF
8800 GTX - 6645
2900 XT - 6079
3DMark06 @ 1600x1200 4xAA/16xAF
8800 GTX - 7219
2900 XT - 6641.5
Company of Heroes built in bench @ 2560x1600 maxed
8800 GTX
min - 20.8 fps
ave - 48.23 fps
max - 121.07 fps
2900 XT
min - 18.17 fps
ave - 44.27 fps
max - 85.93 fps
Company of Heroes built in bench @ 2560x1600 maxed no AA
8800 GTX
min - 21.47
ave - 53.13
max - 129.97
2900 XT
min - 19.67 fps
ave - 53.6 fps
max - 107.1 fps
Company of Heroes built in bench @ 1600x1200 maxed
8800 GTX
min - 47.17 fps
ave - 88.03 fps
max - 217.23 fps
2900 XT
min - 47.3 fps
ave - 103.17 fps
max - 209.67 fps
F.E.A.R. built in bench @ 2560x1600 everything maxed except soft shadows (4xAA/16xAF)
8800 GTX
min - 20 fps
ave - 36.33 fps
max - 86.67 fps
2900 XT
min - 12.33 fps
ave - 36.33 fps
max - 72.67 fps
F.E.A.R. built in bench @ 2560x1600 everything maxed incl. soft shadows (0xAA/16xAF)
8800 GTX
min - 22.5 fps
ave - 40 fps
max - 74.5 fps
2900 XT
min - 25 fps
ave - 39 fps
max - 67 fps
F.E.A.R. built in bench @ 1600x1200 everything maxed except soft shadows (4xAA/16xAF)
8800 GTX
min - 40.25 fps
ave - 71.75 fps
max - 137.25 fps
2900 XT
min - 23.25 fps
ave - 66.5 fps
max - 133 fps
CS: Source built in bench @ 2560x1600 everything maxed (4xMSAA/16xAF)
8800 GTX - 162.68 fps average
2900 XT - 102.03 fps average
CS: Source built in bench @ 2560x1600 everything maxed (0xMSAA/16xAF)
8800 GTX - 240.26 fps average
2900 XT - 178.21 fps average
CS: Source built in bench @ 1600x1200 everything maxed (4xMSAA/16xAF)
8800 GTX - 224.17 fps average
2900 XT -158.92 fps average
Painkiller built in timedemo 1 @ 2560x1600 maxed (4x MSAA)
8800 GTX
min - 5.37 fps
ave - 216.49 fps
max - 500.27 fps
2900 XT
min - 26.36 fps
ave - 147.54 fps
max - 501.55 fps
Painkiller built in timedemo 1 @ 2560x1600 maxed (0x MSAA)
8800 GTX
min - 22.38 fps
ave - 246.75 fps
max - 512 fps
2900 XT
min - 31.94 fps
ave - 246.23 fps
max - 502.84 fps
Painkiller built in timedemo 1 @ 1600x1200 maxed (4x MSAA)
8800 GTX
min - 10.7 fps
ave - 253.1 fps
max - 502.2 fps
2900 XT
min - 37.04 fps
ave - 237.73 fps
max - 512 fps
Painkiller built in timedemo 2 @ 2560x1600 maxed (4x MSAA)
8800 GTX
min - 1.8 fps
ave - 167.74 fps
max - 502.2 fps
2900 XT
min - 11.44 fps
ave - 162.26 fps
max - 512 fps
Painkiller built in timedemo 2 @ 2560x1600 maxed (0x MSAA)
8800 GTX
min - 8.67 fps
ave - 216.90 fps
max - 768 fps
2900 XT
min - 12.54 fps
ave - 211.81 fps
max - 853.33 fps
Painkiller built in timedemo 2 @ 1600x1200 maxed (4x MSAA)
8800 GTX
min - 8.67 fps
ave - 215.12 fps
max - 768 fps
2900 XT
min - 12.24 fps
ave - 216.92 fps
max - 1024 fps
Prey HOC bench 1 @ 2560x1600 maxed w/ boost enabled (4xAA/16xAF)
8800 GTX - 48.95 fps average
2900 XT - 45.3 fps average
Prey HOC bench 1 @ 2560x1600 maxed w/ boost enabled (0xAA/16xAF)
8800 GTX - 76.5 fps average
2900 XT - 76.27 fps average
Prey HOC bench 1 @ 1600x1200 maxed w/ boost enabled (4xAA/16xAF)
8800 GTX - 81.07 fps average
2900 XT - 79.4 fps average
Prey HOC bench 2 @ 2560x1600 maxed w/ boost enabled (4xAA/16xAF)
8800 GTX - 42.85 fps average
2900 XT - 42.15 fps average
Prey HOC bench 2 @ 2560x1600 maxed w/ boost enabled (0xAA/16xAF)
8800 GTX - 66.03 fps average
2900 XT - 62.73 fps average
Prey HOC bench 2 @ 1600x1200 maxed w/ boost enabled (4xAA/16xAF)
8800 GTX - 70.37 fp...
HRa vypada uzasne
http://img.techpowerup.org/070715/World in conflict 1280x1024 41-90PS high x64 2570 x2 HD 2900 XT 808 900 real game.jpg
Divne je ze pri tomto nastaveni - high okrem FSAA off and shadows off a extra object detail
Benchmark average - 34 FPS
REalne v hre som nikdy nemal pod 40 FPS . zvycajne 55- 75 FPS
Foto v linku
http://img.techpowerup.org/070715/World%20in%20conflict%201280x1024%2041-90PS%20high%20x64%202570%20x2%20HD%202900%20XT%20808%20900%20real%20ga me.jpg
,http://img.techpowerup.org/070715/World%20in%20conflict%201280x1024%2041-90PS%20high%20x64%202570%20x2%20HD%202900%20XT%20808%20900%20real%20ga me.jpg,
----- http://img2.freeimagehosting.net/uploads/a6aca2a35a.jpguploads/a6 aca2a35a.jpg --------
Mozno by potom nemohli pisat the way how to be played, ale, the way how to be slowed.
JA som stale viac spokojny so svojou MSI 2900 XT. Je neuveritelne napr v hre World in conflict ze po nacitani a vypocitani celej mapy sa data recykluju v pameti GPU a FPS stupne s 35 na 75 v nadhernej grafike.
Zas ked si pustite iba vstavany benchmark tejto hry mate dojem ze si ani nezahrate.
vybuch atomky - 1280x1024 HIGH AA-off , soft shadow off
http://img2.freeimagehosting.net/uploads/26f6e9d8be.jpg">http://www.freeimagehosting.net/]http://img2.freeimagehosting.net/uploads/26f6e9d8be.jpg
http://img2.freeimagehosting.net/uploads/26f6e9d8be.jpg
poznamka pro autory pctuningu :
V Opere 9.21 nejde videt Tlacitko
POSLAT ani ZAVRIT.