Leadtek WinFast PX6800 GT TDH - těžká váha ze stáje nVidie |
autor: Štefek Petr , publikováno 16.2.2005 |
NVidia se v myslích hráčů zapsala jako průkopník nových technologií, což se týká i řady grafických karet GeForce 6800, která jako první obsahovala podporu Shader Modelu 3.0, který ač je v současné době ještě nepotřebný, tak je už v grafických jádrech těchto karet přítomen. Jedná se konkrétně o jádra NV40, NV41 a NV45 (NV40+můstek na PCI-Express).
Specifikace grafického jádra NV40 jsou už všeobecně známy, ale přesto neuškodí malá rekapitulace. Tento čip obsahuje neuvěřitelné množství tranzistorů (222 mil.), což způsobila právě ona implementace Shader Modelu 3.0. Odhaduji, že se SM 3.0 na celkovém počtu tranzistorů podílí zhruba jednou čtvrtinou. NV40 má 16 pipelines a na každou z nich má jednu texturovací jednotku, což je pro dnešní generaci high-endových grafických karet obvyklé. Tento čip je taktován poměrně nízko (350-400MHz), ale díky velmi dobré efektivitě architektury je plně srovnatelný s vysoko taktovanými čipy společnosti ATi (400-540MHz).
Čip NV41 je nové dítko nVidie pro karty typu GeForce 6800 a je vyráběn 110nm technologií, což je narozdíl od 130nm u NV40 posun kupředu. Podstatné na tomto čipu je, že u něj není možná aktivace zbývajících pipelines jako u starších modelů s NV40, kde byl jeden "quad" prostě deaktivován. NV41 má 12 pipelines fyzicky. Pokud vás zajímá co je to onen "quad", tak vězte, že se jedná 4 pipelines a NV40 má celou čtveřici (4x4=16) těchto "quadů". U NV40 mohla nVidia bez problému deaktivovat pipelines, které jsou vadné a užít tyto čipy při výrobě levnějších karet. Z této skutečnosti plyne jediná věc. Pokud si zakoupíte grafickou kartu GeForce 6800 256MB (PCI Express), tak z ní už aktivací zbývajících pipelines model GT neuděláte.
Pro koho je tato karta určena?
GeForce 6800 je karta určena především hráčům, kteří preferují výkon a hlavně chtějí hrát všechny hry s maximálními možnými detaily. Dnes prakticky neexistuje hra u které by se tato karta zadýchala a překročila hranice svých možností, ale toto se samozřejmě netýká her, které jsou udělány na pomalém enginu (DeusEx 2 nebo HALO). Bližší výkonové výsledky uvidíte v jednotlivých grafech testovaných her.
Pak je tu ještě možnost pro majetné hráče, kteří si mohou pořídit dvě karty tohoto typu a osadit jimi nové základní desky s čipsety nVidia nForce 4 SLI. Získáme tak na dnešní dobu předimenzovaný výkon a opravdu velkého žrouta energie. Nejsem řešením nVidie vůbec nadšen, protože jsou s ním (alespoň zatím) spojeny mnohé problémy. Například při testovaní tohoto modelu Leadteku 6800GT jsem nemohl zprovoznit základní desku MSI K8N Diamond a 2 karty této společnosti. Nepomohla výměna BIOSu ani laborování s ovladači grafické karty a čipsetu. Je nutné dodat, že karty měly stejný BIOS a samostatně byly provozovány bez nejmenších problémů. Tento problém není ojedinělý, takže bych zatím opravdu doporučoval, aby si případný zájemce opravdu rozmyslel, jestli mu to za eventuální problémy opravdu stojí.
Výhoda GeForce 6800GT spočívá v opravdu dobrém poměru cena/výkon, která při dnešních cenách okolo 12 000 korun s DPH a její přetaktovatelnosti opravdu stojí za úvahu. Obecně platí, že model GT přetaktujete na úroveň GeForce 6800 Ultra bez větších problémů. Další nevýhodou oproti kartám společnosti ATi jsou opravdu enormní rozměry a hmotnost. Pracovně jsem tuto kartu přezdíval "cihla".
GeForce 6800GT a její konkurenti
Alternativu k této kartě představují modely společnosti ATi a konkrétně se jedná o karty Radeon X800Pro a Radeon X800XL, kde zajímavější je posledně jmenovaný, který je nabízen v některých případech i podstatně levněji (Sapphire) než GeForce 6800GT. Radeon X800Pro je konkurentem jen co do ceny, protože co do výkonu má na GeForce 6800GT co dohánět. Pro lepší přehled máte k dispozici tabulku, kde jsou srovnány jednotlivé parametry.
Radeon X800XL | GeForce 6800GT | Radeon X800Pro | |
VPU | R430 | NV45 | R423 |
Výrobní proces | 0.11 ľm TSMC | 0.13 ľm TSMC | 0.13 ľm TSMC low-k |
Technologie čipu | 256-bit | 256-bit | 256-bit |
Počet transistorů | 160 milionů | 222 milionů | 160 milionů |
Paměťová sběrnice | 256-bit DDR (I - III) | 256-bit DDR (I - III) | 256-bit DDR (I - III) |
Paměť | 256 MB | 256 MB | 256 MB |
Takt čipu | 400 MHz | 350 MHz | 475 MHz |
Takt pamětí | 500 MHz (1000 DDR) | 500 MHz (1000 DDR) | 450 MHz (900 DDR) |
Paměťová propustnost | 32. 0GB/s | 32.0 GB/s | 28.8 GB/s |
Fill-rate (single-texturing) | 6400 Mpixel/s | 5600 Mpixel/s | 5700 Mpixel/s |
Fill-rate (multi-texturing) | 6400 Mtexel/s | 5600 Mtexel/s | 5700 Mtexel/s |
Vertex Shader | 6 | 6 | 6 |
Maximální počet transformací Troj./s | 780M | 525M | 713M |
Počet Pixel Pipelines | 16 | 16 | 12(z 16) |
Počet TMU/pipeline | 1 | 1 | 1 |
Vertex Shader verze | 2.0 (b) | 3.0 | 2.0 (b) |
Pixel Shader verze | 2.0 (b) | 3.0 | 2.0 (b) |
DirectX | 9.0 b | 9.0 c | 9.0 b |
AntiAliasing | 2-4x RGMS 6x Sparse | 2-4x RGMS 2x OGSS | 2-4x RGMS 6x Sparse |
AA speciality | Temporal AA, Centroid Sampling | kombinace SS+MS | Temporal AA, Centroid Sampling |
Integrované RAMDACy | 2x 400MHz | 2x 400MHz | 2x 400MHz |
Další technologie | 3Dc Compression Temporal AA | UltraShadow | 3Dc Compression Temporal AA |
Mít, či nemít Shader Model 3.0?
Po technologické stránce je na tom GeForce 6800GT poněkud lépe, protože obsahuje podporu Shader Modelu 3.0, který se s nástupem nových her stane standardem. Opět musím podotknout, že v případě mainstreamové GeForce 6600GT (střední proud) nevidím přítomnost podpory Shader Modelu 3.0 jako jednoznačnou výhodu.
Dnes se do některých enginů uměle zapracovává podpora Shader Modelu 3.0 (FarCry a Painkiller), ale dopad na vizuální kvalitu je nulový a dá se z úspěchem předpokládat, že jde jen a jen o marketingové lákání ke koupi produktů s Shader Modelem 3.0 už dnes.
Prvním enginem s touto podporou, kde bude její přínos jednoznačně viditelný je například Unreal Engine 3, který je zatím ve vývoji, ale už teď je jasné, že si ho na GeForce 6600GT neužijete, protože pro plynulý běh podle vývojářů tak tak dostačuje topmodel nVidie GeForce 6800Ultra. Pokud se tedy rozhodujete ke koupi nové karty, tak neberte přítomnost Shader Modelu 3.0 v dnešní generaci karet jako nějakou hlavní výhodu nebo nevýhodu.
Pravděpodobně vše dopadne stejně jako v případě hry Doom 3, kdy nás John Carmack hnal do nákupu karet GeForce 4, které měly zprovoznit tuto hru na nejvyšší možné detaily. Čas běžel a v době vydání této hry byly GeForce 4 již za zenitem svého života a Doom 3 na nich běžel v rozumné rychlosti jen na střední detaily a nízké rozlišení (800x600 Medium).
Shader Model 3.0 bych začal řešit v okamžiku, kdy ho bude nějaká hra skutečně vyžadovat a zároveň bude patrný její přínos. Podporu Shader Modelu 3.0 má dokonce připravovaná hra Age of Empires 3 a jiné zajímavé tituly, ale musíme si uvědomit, že většina z těchto her bude nést logo nVidie, a tak je jasné, že tuto podporu budou mít hlavně z marketingového důvodu. Do doby nástupu moderních enginů (UE 3 nebo SE 2) se tedy není nutné hnát tak bezhlavě za touto "featurou".
{mospagebreak title=Leadtek WinFast PX6800 GT TDH}
Leadtek WinFast PX6800 GT TDH je zabalen v klasické krabici, která je o dost menší než v případě karet společnosti ASUS nebo MSI. Box nemá odklápěcí víko, což samozřejmě vůbec nevadí, protože důležitější je obsah samotný.
Po úplném otevření krabice se dostanete konečně dovnitř a vidíte všechno vybavení karty pěkně pohromadě. Součást balení tvoří 2 redukce DVI-I >> D-Sub, S-video kabel, kabel pro kompozitní signál a 6-pinový kabel pro napájení. Přiložené DVD: Prince of Persia: The Within Warrior a CD: Splinter Cell: Pandora Tomorrow + ovladače.
- kliknutím zvětšíte -
Karta má obvyklé referenční PCB, ale Leadtek použil své vlastní chlazení. Chladič je opravdu lahůdka :-). Masivní kombinace mědi a hliníku přikrytá poloprůhledným černým plastem, který lze odstranit. Konstrukce chladiče mi přijde trochu neefektivní, ale dojem dělá veliký a chladí dobře. Důležité je ovšem to, že nedělá příliš velký hluk.
- kliknutím zvětšíte -
Paměťové moduly jsou jako na ostatních modelech ze série 6800 rozloženy jen na vrchní straně karty. Zadní strana PCB je krytá pseudo-měděnou součástí chladiče, který má jen jednu funkci, snášet tlak šroubů vrchního pasivu.
Jedná se o GDDR3 moduly společnosti SAMSUNG v balení BGA. Značení 2.0 odpovídá 500MHz (1000MHz efektivně).
Jak vidíte, tak chladič je opravdu velký a dokonce způsobuje problém při instalaci dvou těchto karet na SLI základní desku, protože karty se jednoduše za sebe nevejdou. Proto je nutné odstranit zadní část chladiče, kterou vidíte na spodním obrázku.
Po demontování chladiče je vidět samotné PCB, které je podle referenčního designu a my se podíváme na konstrukci samotného chladiče.
Jak vidíte je tvořen kombinací mědi a hliníku, protože jak známo hliník se tepla zbavuje lepé než měď, ale zase ho naopak hůře přijímá. Přítomna je také heatpipe, ale nad tímto počinem raději pomlčím, neboť není zrovna nejšťastněji umístěna. Větrák je dostatečně velký a dokáže plnit požadovanou funkci i při nižších otáčkách.
Tato část chladiče má pouze úchytnou funkci a neslouží k chlazení, protože je od PCB izolována. Je umístěna z druhé strany PCB.
Příjemným překvapením je duální DVI-I výstup, který je pro GeForce 6800GT (PCI Express) standardem a jeho použitím se stává zobrazení na dvou LCD opravdu příjemnou záležitostí.
Kvalita výstupu a teplota
Testovaná karta měla dva DVI-I konektory, a tak jsem musel pro zapojení analogového monitoru použít redukci z DVI-I na D-Sub. Karta produkovala pěkný ostrý obraz a subjektivně jsem mezi Radeonem 9800Pro a touto kartou neviděl rozdílu. Pokud bych vzal v úvahu jen analogový výstup, pak bych řekl, že karty ATi mají ještě poněkud náskok, ale při připojení přes DVI-I je rozdíl nepatrný.
Bohužel se díky problémům s deskou MSI K8N Diamond nepodařilo zprovoznit hardwarový monitoring v RivaTuneru 15.3. Tento problém není obecný, protože jiné karty s čipy NV45(41) byly na této desce naprosto bez problémů (kompatibilita). Obecně se ale dá říci, že základní desky s čipsety nForce 4 SLI mají ještě dost hrůzostrašný BIOS, který způsobuje problémy s kompatibilitou a stabilitou při přetaktování, ale vše se řeší a snad i brzo vyřeší.
{mospagebreak title=Sestava a syntetické testy}U herních testů jsou uvedeny dva grafy; první výsledek je bez použití vyhlazování a anizotropního filtru, druhý výsledek ukazuje propad výkonu při zapnutí těchto funkcí (FSAA 4x a anizotropní filtrování 8x). Nechybí ani výsledky GeForce 6600GT v SLI.
Hardware | |
Procesor | AMD Athlon 64 3500+ (2200MHz, 512kB cache) |
Chladič CPU | BOX |
Paměť | 2*512MB Corsair DDR400 CL2,5 (3, 3, 6) |
Čipset, MotherBoard | MSI K8N Diamond SLI |
Software | |
Operační systém | Windows XP Professional SP2 |
DirectX | Microsoft DX9.0c |
Ovladače grafické karty | nVidia ForceWare 66.93 (oficiální) |
Teoretické testy | 3Dmark 2003 patch 340 |
Herní testy | Aquamark 3 |
3DMark 2003
Verze | 3DMark 2003, patch 340 |
Rozhraní | DirectX 9 |
Heslovitý popis | Wings of Fury - DX7, multi-texturing (4 layers) Battle of Proxycon - DX8, vertex a pixel shader, dynamic shadows (stencil buffer), particles Troll´s Lair - vertex a pixel shader, dynamic shadows (stencil buffer), anisotropical lit (vlasy) Mother Nature - DX9, vertex shader (stromy, tráva), pixel shader (voda, obloha), color precision (odrazy jasu, osvětlení) |
Nastavení | Default, 1024x768x32bit, Max. Anisotropy 4, no FSAA |
Stažení benchmarku | http://www.futuremark.com/download/?3dmark03.shtml |
V 3DMark03 se RX800XL řadí mezi GeForce 6800 a 6800GT, konkrétně je o 11% pomalejší, než GT a o 20% rychlejší, než GF6800.
3DMark 2005
Verze | 3DMark 2005, patch 1.10 |
Rozhraní | DirectX 9 |
Heslovitý popis | Return to Proxycon - DX9, dynamic shahows (2048x2048 depth map), point lights (512x512x6 cube depth map), 8 light sources Firefly Forest - DX9, diffuse / normal maps, specular maps, diffuse cube maps, procedural light scattering (obloha), masked point light (světluška) Canyon Flight - DX9, pxl shader 2.0 (velmi výrazně, skály), water shader (reflection+refraction maps, per pxl Fresnel), depth fog (R32F depth map) |
Nastavení | Default |
Stažení benchmarku | http://www.futuremark.com/download |
GF6800GT se drží až za Radeonem X800XL. 3DMark05 svědčí obecně spíše kartám ATi.
CodeCreatures Benchmark Pro
Verze | Codecreatures Benchmark Pro 1.0.0 |
Rozhraní | DirectX 8 |
Heslovitý popis | pixel shader 1.1 (vodní hladina), intenzivně vertex shader 1.0-1.1 (tráva, motýli), high polygon count (700.000 polygonů na snímek) |
Nastavení | požaduje 128MB grafické paměti (Aperture size nebo paměť grafické karty) a HW pixel shader |
Stažení benchmarku | http://www.majorgeeks.com/download.php?det=1256 |
V CodeCreatures je GeForce 6800GT před RX800XL a zároveň o 16% překonává SLI dvou GF6600GT.
SPECViewperf 8
Test byl proveden při standardním rozlišení 1280x1024, aby bylo možno porovnat výkony této karty s mnohonásobně dražšími grafickými kartami určenými speciálně pro profesionální práci. Přes tento odkaz si můžete prohlédnout skóre mnoha profi karet a porovnat je s právě recenzovanými kartami.
Aquamark 3
Verze | Aquamark 3 |
Rozhraní | DirectX 9 |
Heslovitý popis | pixel a vertex shader 2.0, overdraw a high polygon count testy |
Nastavení | 1024x768x32bit, max. anisotropy 4, FSAA off |
Stažení benchmarku | http://www.aquamark3.com/am3-mirrors.htm |
Aquamark ukazuje GF6800GT o 5% rychlejší než RX800XL. SLI je v tomto případě na srovnatelné výkonnostní úrovni.
{mospagebreak title=Doom 3}Verze | 1.0 |
Rozhraní | OpenGL |
Heslovitý popis | Cube Maps, Stencil Shadows, Normal Mapping |
Nastavení | 1024*768, 1280*1024, 1600x1200 ~ high-detail (s/bez FSAA) |
Návod jak testovat | [ctrl]+[alt]+[~] com_preloadDemos 1[enter] timedemo demo1.demo[enter] |
ATi má konečně kartu, pomocí které poprvé překonává nVidii v poměru cena/výkon v Doom 3. Pravda, žádný zázrak to není, mohu to konstatovat pouze při srovnání s výsledkem GF6800, ale 19% navrch oproti ní (ve 1280*1024 i 1600*1200) je toho důkazem. GF6800GT jasně dominuje, ale SLI 6600GT se bez vyhlazování ukazuje v dobrém světle.
Situace je v případě Doom 3 s FSAA obdobná, jako v předchozím grafu. Až na 6600GT SLI, kterému začínají docházet síly a v 1600*1200 se srovnává s RX800XL. 6800GT jednoznačně vede a pro hraní Dooma na PEG platformě je stále ideální volbou.
{mospagebreak title=FarCry}Verze | FarCry 1.3 |
Rozhraní | DirectX 8/9 |
Heslovitý popis | Pixel Shader 1.x / 2.0 a 3.0, Vertex Shader |
Nastavení | max. quality 1024x768, 1280x1024, 1600x1200 (s/bez FSAA 4x a 8AF) |
Návod jak testovat | Bench Em All |
V nejvyšších rozlišeních GeForce 6800GT ztrácí na Radeony už o něco více, ale srovnává s RX800XL.
{mospagebreak title=Unreal Tournament 2004}Verze | UT2004 |
Rozhraní | DirectX 8 |
Heslovitý popis | multi-texturing, bump mapping - vylepšený engine, při nastavení téže kvality (x UT2003) nabízí vyšší výkon |
Nastavení | 1024x768, 1280x1024, 1600x1200 Max Det. (s/bez FSAA 4x a 8AF) |
Návod jak testovat | Bench Em All, mapy primeval a bench3 |
Situace je opět poměrně vyrovnaná, pouze v nejvyšším rozlišení je GeForce 6800GT o 4fps rychlejší.
S použitím FSAA jsou samozřejmě rozdíly výraznější a ukazuje se, že kartám od ATi nesvědčí UT2004 v rozlišení 1280*1024 (poměr stran). GeForce 6800GT je totiž o 14% rychlejší než "XL", ale při 1600*1200 se opět situace vyrovnává.
{mospagebreak title=Half-Life 2}Verze | Half-Life 1.0 |
Rozhraní | DirectX 9/8/7 |
Heslovitý popis | Pixel Shader 1.x / 2.0 , vertex shader, physical engine |
Nastavení | max. detail, 1024x768, 1280x1024, 1600x1200 (s/bez FSAA 4x a 8AF) |
Stažení benchmarku | HL2 timedemos |
Propad nVidia karet je zřejmě způsoben optimalizací enginu HL2 pro karty ATi, které používají 24-bitovou přesnost, což nVidia nemůže (16 a 32bit).
FSAA pouze mírně mění pořadí (SLI se 128bit sběrnicí se dostává o stupeň níže) a GeForce 6800GT stále nemůže dohonit ani RX800XL. Je nutné podotknout, že toto demo je pro karty nVidia opravdu nevýhodné.
{mospagebreak title=Call of Duty}Verze | |
Rozhraní | OpenGL |
Heslovitý popis | Quake 3 engin (upravený), multitexturing |
Nastavení | 1024x768, 1280x1024, 1600x1200 (s/bez FSAA 4x a 8AF) |
Návod jak testovat |
COD je jako hra s Quake 3 enginem výhodnější pro GeForce 6, konkrétně model 6800GT, který je v průměru o 9% rychlejší, než Radeon X800XL
Call of Duty s FSAA podává vyrovnanější výsledky. Průměrný rozdíl mezi "GT" a "XL" se ale téměř nemění.
{mospagebreak title=Serious Sam - The Second Encounter}Verze | 1.07 |
Rozhraní | OpenGL |
Heslovitý popis | multi-texturing (max 5-layer), environment bump mapping, particles, lens flare, animated lights, procedural textures |
Nastavení | 32bit_HQ 1024x768, 1280x1024, 1600x1200 (s/bez FSAA 4x a 8AF) |
Návod jak testovat | http://www.pctuning.cz ("Jak otestovat grafickou kartu ve hrách") |
Starší, ale stále velice kvalitní OpenGL engine je jako vždy doménou GeForce, ale převaha GeForce 6800GT nad Radeonem činí průměrně 8%.
{mospagebreak title=Přetaktování, Závěr}Leadtek WinFast PX6800GT se ukázala jako poměrně dobrý hráč na poli overclockingu, protože jsem ji bez větších problémů přetaktoval na úroveň grafické karty GeForce 6800Ultra (tedy 400MHz jádro, 1100MHz paměť). Konečné frekvence pro jádro a paměti byly 405MHz a 1101MHz, což je opravdu solidní a posunuje to GeForce 6800GT daleko před Radeon X800XL.
Jak vidíte na těchto oblíbených benchmarcích, tak GeForce6800GT dokonce v některém z případů předhoní i Radeon X800XT. Narůst ve hrách je patrný samozřejmě také, ale výrazné rozdíly se nekonají. Obecně se dá říci, že GeForce 6800GT se po OC stává hned za Radeonem X850XT tou nejvýkonnější kartou.
Závěr
Leadtek WinFast PX6800 GT představuje velmi dobrou grafickou kartu pro nové PC založené na platformě PCI Express, která postačí na nějaký ten čas a poskytne solidní výkon i nových hrách využívajících Shader Model 3.0.
Provedení této karty je velmi kvalitní, ale zároveň je karta velmi rozměrná a těžká. Tento model byl docela zdatným i v oblasti přetaktování a vzhledem k výbavě ho tedy lze doporučit.
Plusy:
- solidní poměr cena/výkon
- výkon pod OpenGL
- Shader Model 3.0
- relativně slušná cena (11189,- bez DPH - doporučená koncová cena - Levi)
Mínusy:
- spotřeba energie (nutnost mít kvalitní zdroj)
- rozměry a hmotnost
- hluk chladiče
Grafickou kartu Leadtek WinFast PX6800 GT zapůjčila firma Levi, které tímto děkujeme
Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz
A aby to u ATi nedopadlo jako s ambiciózní Geforce FX 5800 ULTROU.
Mimochodem 6800LE se dá pro AGP i PCIE sehnat za nějakých 4-5 tisíců podle toho jak se ti to povede.
A to je cena které jen tak něco nekonkuruje.
Jsem zvědav jak si povede projekt Fudo
Myslím že nevyhoří jako FX5800, nakonec měl jsem ji a není tak špatná jak se o ní píše.Dost kartám natrhne prd.l i teď.
Proč myslíš že by měla být karta co má o 8 pipek víc než 6800 ultra méně výkonná?Nakonec až vydá NVidia něco s 24 pipkama tak to bude pro R520 něco pro porovnání, soupeř pro 6800ultra je X800
Navíc se zde potvrzuje to čemu tu určitě nechceš věřit a to, že SLI je jenom nafouknutá bublina, které hravě šlape na paty i samotná ATi X850XTPE.
Hm?
Na bartone 2500/3200 ,1 GB Ram, MSI RX800XT mam na dual 560
spolu bodov 12650 tak naco ten strach o vykon procesora..
:o)
1. Řekl bych, že úplně stejné grafy byly v recenzi na Radeon X800XL (a tím myslím ÚPLNĚ).
2. Říct, že Shader Model 3.0 je nepotřebný, protože hry, které v blízké době s jeho podporou výjdou budou s logem nVidie je stejně hovadské, jako např. říct, že Half-Life 2 je blbá hra, protože byla brutálně sponzorována ATi (ano, byla, ale to z ní nedělá blbou hru, stejně jako to, že budou hry s podporou SM3.0 sponzorované nV nedělá z SM3.0 zbytečnost...)
A hodně se jich válelo po bazarch pro PCIE protože nikdo neměl desky. Třeba v bazaru v Praze u Růžové ulice(jsou tam dva).
A dají se sehnat přes inzerát.
http://jarmark.idnes.cz/select.php?k=19&s=87
Třeba tady:
Prodej - Golden Sample 128MB [ 15.02.2005 ]
Nvidia GeForce 6800, frekvence 350MHz čip, 800MHz 128MB DDR pamětí s 256-bitovým rozhraním, TV-out, DVI konektor, CineFX 3.0 a DirectX 9.0. původní cena 8888 Kč kupováno u cechcomputeru cena nyní 4500kč
Hm? A není to LE ale plná.
A PCIE desku už také seženeš. Já mám bohužel AGP verzi a trošičku mě to mrzí. Protože chci PCIE desku. Ale za 4000 litry mi to připadalo jako docela dobrý nápad si jí koupit.
A za ty peníze vezmu raději oželím desku s PCIE.
A novou 6800LE se zárukou už seženete za 4500-5000 když budete mít hodného kamaráda ve velkoobchodu a vezme jí na sebe a když DPH upíšete.
Tak mi tu nemluvte o shitovkách.
Protože za 10 000 je ta karta shit. Ale za 4000 je to dobrá karta.
A to jsem jí ani netaktoval abych holku moc netrápil.
Ani 1mhz na pamětech jsem nepřidal i když ta moje má paměti které mohou jet na 800 a přitom jsou puštěné jen na 700.
ad2)To ze hra ma podporu SM 3.0 jeste neznamena, ze ho efektivne vyuziva (FarCry, Painkiller a pod.). Zatim proste neexistuje engine, kde by by bylo SM 3.0 zapotrebi, ale pokud o nejakem vite, tak napiste. To ze ma hra logo nVidia znamena, ze chte nechte bude muset mit tuto podporu implementovanu (nVidia bude tlacit na pilu)...marketing...ikdyz ji nepotrebuje a ani zdaleka nevyuzije.
Mimochodem, velmi me tesi "vyvoj", kdy abych si vykonostne pomoh, musim koupit kartu za dvojnasobek toho co pred dvema roky. Kdyz koupim kartu za 5k budu na tom uplne stejne, jen bide "umet" DX9.
Kdyby byli všichni hloupí jako Ty, tak marketingová oddělení všech firem nestačila slavit samé úspěchy!
Musim rict, ze pokud bude opravdu prodavana za slusnou cenu, tak je to muj favorit na upgrade. Zatim jsem nasel v par shopech X800 za cenu okoli 9k s DPH, coz se mi zda moc, vzhledem k tomu, ze Sapphire X800XL VIVO jde poridit za 9,5k s DPH. Ceny budou padat, takze se dockame.
Hlupak jsi ty sam, protoze asi nevis, ze ATI chysta svuj "SLI" taky, takze to asi neni krok vedle. Navic se tato technologie pripravuje pro pouziti v profesionalni grafice... Mel by sis o ´tom opravdu nejprve neco precist, nez zacnes placat nesmysly.
"Výkon dnešních karet rozhodně nezměříš na 1024*768 bez AA, ale v 1600*1200 s 4x8 filtrováním!!! "
a dal jsi odkaz:
http://www.gamepc.com/labs/view_content.asp?id=x850xtpt&page=5
A presne na tomto odkazu jsou "potvrzena" tva slova...v rozliseni 1600x1200 pri 4 x 8 ma GF 6800U ve SLI rezimu o 43% vyssi vykon nez v single modu...u 6800GT je to skoro 51%...a u 6600GT je to skoro 74%!
Opravdu se na to podivej poradne, nez zacnes zase neco matlat...
---
"Navíc se zde potvrzuje to čemu tu určitě nechceš věřit a to, že SLI je jenom nafouknutá bublina, které hravě šlape na paty i samotná ATi X850XTPE."
Pises tady neco o 6600GT nebo pises o SLI jako takovem - ze je to nafouknuta bublina...?
Takovi jako jsi ty do vseho vnaseji jen zmatek a pak pouzivaji grafy, ktere argumentuji proti nim samotnym... :-)
Ale jo, klidne si dal zvatlej ty svoje nesmysly, ktere stejne nikdo z objektivnich v tomto foru nevnima... :-)
Myslím, že Macros to myslel ve smyslu celkové efektivity a tam je naprosto jasné, že SLI je opravdu jenom patřičné nafouknutá bublina, která rozhodně neplní to co by měla. Je to drahé, protože aby to bylo aspoň rychlejší jak jeden GPU od ATi tak to musím být 2x6800Ultra nebo GT a to je už tak drahé, že jedna ATina je prostě mnohem lepší řešení pro běžného člověka. To že je nějaké SLI od nVidie a něco podobného od ATi je prostě pouze pro nadšence honící skóre v 3DMarcích, ale jako investice je to pro inteligentní lidí naprosto nepřijatelné, když 1x 6800GT je rychlejší než 2x6600GT ve SLI!!!
Pane Leppard, měl byste se příště zamyslet, než někoho napadnete. Macros sice nemusel psát někomu že je hloupý, ale jinak má prostě pravdu, ať se vám to líbí nebo ne!
X850XT@Platinum 13200bodů
souhlasim ze pro tyhle karty je 3800+ naproste minimum chtelo by to spis 4500+ tam uz to ty grafiky roztoci skoro na max :-)
cekam jen na novej bios u Nforce 4 abych mohl zvedat napeti a snad tech 4500+ dam :-)
2./ Se SLI se pocita do profesionalnich grafik.
3./ SLI se poradne vytahne az v pripade pouziti dvou CPU, s cimz se pocita prave u profesionalnich grafik
4./ Pouzit jeden graf s HL2 pro podporu argumentace je opravdu ubohost, kdyz kazdy vi, ze HL2 je optimalizovan pro ATI, u jinych aplikaci uz to zdaleka tak jasne neni
Stejně tak pokud třeba AOE3 bude využívat PS3.0 a bude to podobně jako AOM kvalitní hra (a že pravděpodobně bude), tak to bude argument pro nV.
Znovu opakuji, pokud Vám to z mého původního příspěvku nebylo jasné, že tím, že je to protlačeno nějakou firmou nic nemění na vlastní důležitosti té či oné technologie...
"Prý se s SLI počítá do profesionálních grafik" ... hmmm, tak tohle může napsat jenom naprostý neználek a nebo zaslepený fanatik :-). Profesionální grafiky jsou totiž naprosto o něčem jiném a obě firmy mají své profi řady.
Tvrzení že SLI se vytáhne až s dual-core CPU je také pořádná hloupost (odkdypak se podle vás v 3DMarku v GPU testu se tak výrazně projevuje CPU?!).
No a s tím HL2 jste jaksi velmi mimo mísu, protože ten není optimalizován narozdíl od DOOM3 pro jednoho konkrétního výrobnce GPU, ale je naprogramován přesně podle specifikací DX9 kde se vyžaduje 24bitová přesnost u SM, což nemůže nVidia splnit, protože umí buď 16 nebo 32bitů a tím pádem se musí GPU nVidie přepnout do 32bitového režimu a tím logicky začne ztrácet na výkonu vůči kartám, které to samé počítají v přesnosti 24bitů (a nebo se přes nějakou utilitu můžete natvrdo přepnost do 16bitů, ale pak budete mít výrazně horší kvalitu obrazu, ale zase to budete mít rychlé). Takže chyba není na straně HL2 ale v tom, že nVidie nedodržela specifikace DX9a/b a rovnou přeskočila ke specifikaci DX9c kde je SM3 a ten již vyžaduje 32bitů.
Navíc mi nešlo o grafy v HL2, ale o celý článek a to jsem také avízoval a ten link byl pouze na začátek stránek s grafy. Příště radši dám link na homepage článku, abych zbytečně nedráždil potrefené ovce :-). Jsem zvědav co budete plácat za hlouposti o ATi, až uvede na trh R520, protože z vašich příspěvku zavání silná náklanost k nVidii :-).
http://www.nvidia.com/page/sli.html
http://www.nvidia.com/page/quadrofx_family.html
Me znalosti v teto oblasti jsou celkem dobre, protoze prodavam graficke stanice od Sun Microsystems, ktere jsou temito grafikami osazovany...mel byste se zamyslet nad svymi znalostmi a "trochu" si je doplnit. :-)
2./ Poproste nekoho, at vam vysvetli rozdil mezi dual-core CPU a dvema fyzickymi CPU, coz jsem mel na mysli ja - kdy se v blizke budoucnosti pocita prave u profesionalnich grafickych pracovnich stanic (a SW samozrejme) o rozdeleni "prace" na CPU1 - aplikacni logika a CPU2 rozdelovani zateze mezi GPU1 a GPU2.
3./ U toho DX: kdo si myslite, ze asi definuje specifikace? :-) Zase poproste nekoho o odpoved, u nekterych verzi to byla nVidia (DX7, DX8.0, DX9.c), u jinych zase ATI (DX8.1, DX9.a a DX9.b), je jasne, ze to co vyhovuje jednomu, nevyhovuje druhemu, takze 24bitova presnost neni "standardem",ale pouze prevzatou specifikaci od ATI, ktera se prichodem DX9.c zase meni na normalni rozdeleni 16 a 32bit.
Proto tvrdim (a nejen ja), ze HL2 je "sity" na ATI.
Uz radeji nereagujte...ztrapnite se jeste vice... :-)
Nechte se léčit a nebo zapomeňte na grafické karty, protože z toho začínáte bláznit. Sleduji vás i v jiných sitách a všude jenom blbě plácáte ... např. na CDR u té předpěžné neoficiální specifikace R520, atd. Jste chorobnej.
Add. HL2 ... opět jste nic nepochopl a dal jste si zbytečnou práci s vypisováním historie DX. Asi vám úplně uniklo, že HL2 vznikl v době, kdy žádné DX9c nebylo a vaše milovaná nVidie vyráběla šroty, které se na SM vždy totálně propadly.
Prostě si to nechte pro sebe a přístě až někam pošlu nějaký link, tak si dejte pohov a radši si pořádně přečtěte článek na který link směruje (pokud možno celý článek, abyste jako vždy nebyl vytržen z kontextu :-)).
Da se to vystvetlit jinak, nez ze se snazite rict, ze SLI neni uvazovano pro profesionalni grafiky? Prosim odpovezte na tuto otazku...ja vam pak zopakuji 1. bod me posledni odpovedi.
Vas posledni prispevek je zcela bez argumentu, protoze uz zadne nemate, ani jste nemel, jen jste tady zvanil nesmysly o vecech, ktere jste ani nemel zjisteny a overeny.
Kazdy, kdo je bez argumentu, zacne kolem sebe kopat jako vy ve vasem poslednim pripevku... :-)
SBOHEM ;-)
Proste, SLI je funkcni, ale pomer cena/vykon ho naprosto diskvalifikuje. Za rok si na tuto technologii nikdo nevzpomene, dejte na ma slova.
Co se tyce r9600 tyce, nikdo mi nevymluvi, ze je smutne, kdyz karta o generaci starsi jen horko tezko souperi se starsi kartou. Mimochodem, GF4TI 4200 byla koncipovana jako mainstreamova karta, high-end byla 4600.
jinak peknej clanek...
da sa verit vysledku merani pri Serious Sam 1024x768 s filtrovanim kde je 6600GT na tom rovnako single aj SLI.nie je to nejake divne?aspon zopar bodov by to SLI malo pridat,este k tomu je to OpenGL.
hmm..???
a scena v hre sa zacne zadrhavat a je po plynulosti.Ked sa jadro ochladi na cca 62 st.Celzia je vse v poradku.Nemate podobnou skusenost/teda nepraji to nikomu/?
kani.