Radeon RX 6900 XT: Nejvýkonnější z nabídky AMD |
autor: Adam Vágner , publikováno 8.12.2020 |
AMD dnes uvádí na trh svou dosud nejvýkonnější grafickou kartu – Radeon RX 6900 XT se špičkovým čipem Navi 21 v nejvyšší konfiguraci. A je to v mnoha ohledech nezvykle pojatá karta. Proti konkurenci sází spíše na vyšší efektivitu než na vyšší výkon – dosahuje lepších výsledků než RX 6800 XT při zachování její spotřeby.
Doporučené ceny pro český trh AMD nemá, takže nacenění bude záležet na obchodnících a výrobcích nereferenčních karet. Prostým přepočtem z doporučené ceny 999 dolarů bez daně se dopracujeme k částce zhruba 27 200 korun. Dá se tedy čekat cokoliv od 26 999 nebo 27 999 korun výše.
Hodně a příjemně mě překvapilo chování karty ve standardním nastavení – čekal jsem, že se AMD k vyšší efektivitě dopracuje tak, že na čipu nechá více aktivních jednotek, nechá stejné papírové parametry a v reálu budou pracovní takty čipu nižší, ale díky využití plného jádra na nižších taktech karta zůstane celkově výkonnější a zlepší se efektivita.
Ani ty takty čipu se ale kupodivu nějak dramaticky nelišily od dříve testovaného Radeonu RX 6800 XT. Vypadá to tedy, že Radeony RX 6900 XT budou postavené na výběrových čipech. Otázka je, jaký podíl čipů s podobnými vlastnostmi je schopné TSMC vyrábět.
S ohledem na cenu a přidanou hodnotu, jakou RX 6900 XT nabízí, tipuji, že AMD neplánuje Radeony RX 6900 XT hrnout na trh ve vysokých počtech. Spíš je to karta pro příznivce, kteří chtějí to nejlepší od AMD a nemají problém za to výrazně přeplatit.
Méně příjemné překvapení už bylo chování karty v Rage mode – sliboval jsem si od něj, že AMD zahodí power limity, roztočí větráky a výrazně zvedne takty. Ale nezdá se – jak z hlediska provozních vlastností, tak z hlediska nárůstu výkonu jsou rozdíly proti standardnímu nastavení minimální.
Karta má totiž na přetaktování solidní rezervy. Brzdí ji hlavně limit příkonu, pro který se AMD možná rozhodlo kvůli kompaktnímu chlazení – zkusil jsem jen navýšit power limit na maximum a otáčky ventilátoru vytočit nadoraz a v Metru jsem se dostal na průměrných 2450 MHz.
Zopakuji ještě to, co už jsem zmiňoval v dřívejších recenzích – výrazný příplatek proti Radeonům RX 6800 XT mi nepřipadá opodstatněný. Přidaná hodnota ve srovnání s RX 6800 XT je mizivá. U GeForce RTX 3090 zaplatíte sice více než dvojnásobek proti RTX 3080, ale dostanete za to nějakých 10 % výkonu navíc a k tomu více než dvojnásobek videopaměti, vyšší propustnost pamětí a nvlink – aspoň nějaké hmatatelné výhody v profesionální sféře. Za RX 6900 XT zaplatíte polovinu navíc, a dostanete za to nějakých 6-8 % výkonu ve vyšších rozlišeních proti RX 6800 XT. A to je vše. Zůstávají i nedostatky v podobě výkonu v ray tracingu na úrovni výrazně levnějších modelů GeForce a absence alternativy k DLSS 2.0, s nímž se i v nejvyšší kvalitě dá v podporovaných hrách ve 4K dosáhnout o čtvrtiny vyššího výkonu.
Nějaké body navíc k dobru mohou Radeonům přičíst majitelé Ryzenů – náskok proti RTX 3090 lze ještě o pár procent stáhnout s aktivní technologií SAM – Smart Access Memory. Otázka je, jak dlouho ještě půjde o exkluzivní technologii platformy AMD a do jaké míry bude funkční na sestavách využívajících procesory Intelu a Nvidii.
A něco k dobru můžete ještě přičíst v případě, že máte nějaký špičkový monitor s podporou FreeSync přes HDMI, pokud jej není možné pro adaptivní vertikální synchronizaci připojit přes DisplayPort (ale špičkových herních monitorů bez DisplayPortu asi moc nenajdete).
Nabízí se ještě srovnání s jinou 999dolarovou kartou – RTX 2080 Ti minulé generace. Ta ale přinesla ve své třídě nejvyšší herní výkon a exkluzivní technologie. Ve své době šlo o kartu, která byla jako jediná postavená na největším herním čipu Nvidie a byla s odstupem lepší než vše ostatní na trhu. To se o RX 6900 XT říci nedá.
Nemůžu předem vyloučit, že se dočkáme mamutích karet v nereferenčním provedení, které půjdou s příkonem dál než 15 % nad standardních 250 W pro GPU a poběží na výrazně vyšších taktech, takže ty nárůsty budou nakonec lepší, v případě kompaktní karty od AMD to ale neplatí.
RX 6800 XT je ve všech ohledech atraktivnější volba, uvidíme, jestli se aspoň RX 6900 XT v nereferenčním provedení nebudou držet méně při zemi a neposunou se dále výrazněji.
AMD Radeon RX 6900 XT | |
KLADY ![]() | ![]() |
nejvýkonnější karta AMD | zatím chybí alternativa k DLSS 2.0 |
v rasterizaci obvykle vyšší výkon než RTX 3080 a lepší poměr cena/výkon než RTX 3090 | podstatně horší poměr cena/výkon než RX 6800 a RX 6800 XT |
bez zátěže pasivní chlazení, chladič má při standardním nastavení rezervu | malá přidaná hodnota proti podstatně levnějším RX 6800 XT |
rezerva pro přetaktování | nižší výkon v ray tracingu než konkurenční produkty |
16 GB paměti | nereferenční karty by měly nabídnout i tišší chlazení |
nižší spotřeba než RTX 3080 nebo RTX 3090 a lepší poměr výkon/watt | cvrlikající cívky |
FreeSync i přes HDMI | |
podpora DX12 Ultimate | |
Orientační cena s DPH: 27 200 Kč |
Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz
je to FANTASTICKY vzhled !
To první je můj oblíbený zkrat v mozku, takovou blbost bych normálně nenapsal
To druhé už je jen nepozornost, už v minulém testu jsem to musel opravovat, bohužel až na webu, takže v mustru to zůstalo.
Jde mi predevsim o vystupy, pozaduji 2x DP a 2x HDMI, coz zadna karta nema, tak jsem si koupil prevodnik DP-HDMI a tudiz snesu i 3xDP a 1xHDMI, coz prave vetsina karet nema ani tovarni AMD, jen Asus nezklamal.
AD2 hociake auto, myslim supersport napr. Trion nemesis, Pagani etc su na bezne pouzitie nepouzitelne ale je par jedincov co si to kupia za astronomocku cenu, my ostatny zavidime a snazime sa najst dovod preco to bola zla kupa a ani jeden z nas by za to tie peniaze nedal.
PS: HIGHEND je pre nadsencov netreba hned hate.
PS1 pred tyzdnom mi dosiel mail od znamych n kupu NTB podmienka bola VGA nvidia s poznamkou "lebo je lepsia" co mam na to povedat. takto to ludia vnimaju a marketing ma silu. Bfu nerozmysla technicky ale doslova podla reklamy.
Spomenute funkce jako Cuda a pod u AMD openCL a dalsi veci take takze v tom moc vyvodu Nv nevidim, obtrensor
moc vyuziti nema. Cena obou je vysoka, a dostupnost vicemene nulova a nez se uklidni kurzy krypta tak to tak nejspise i zustane.
Máme tu 9 her a z toho pouze 2 jsou z roku 2020.
Pokud se na to podíváte, tak tam kde je rok vydání hry 2020, tak AMD vítězí. Zbytek her je starších a vítězí tam nVidia.
Kdo si koupí dneska top high end grafiky, aby řešil jak jim půjdou jenom staré hry? Tak snad každého zajímá, jak se jim bude dařit i v budoucnu ne? Tak tam sakra už přidejte něco nového ať se ten nepoměr alespoň vyrovná a je to fér porovnání. Z toho co tady p. Vágner naměřil může běžný člověk usoudit, že prostě RTX3000 jsou rychlejší, ale to není přece pravda a v budoucnu to bude ještě horší.
A opět tu neušla zmínka o tom, jak je RT výkon Radeonů špatný oproti GeForce, ale opět tu nebyl ukázán RT výkon v Dirtu 5, který je optimalizovaný pro Radeony a kde dostávají GeForce těžkou ránu.
A Witcher 3 je hodně starý, ale i přesto je to hranější než Red Dead Redemption 2.
AvP není počítané v průměrech.
Sám jsem majitelem NVIDIA karty, ale tady už to musím komentovat. Našel jsem si rezenci 3090 FE, abych mohl porovnat. Nerozumím tomu.
Cena je oproti 3090 o desítky procent menší a výkon +- totožný!
Pískajícími cívkami trpí obě karty.
Horší poměr cena/výkon u AMD (a u 3090 ne? Tam je těch cca 8% ještě dráže vykoupeno, ale nikde o tom ani zmínka, stejně jako ohledně malé přidané hodnoty).
Ano, souhlasím s RT, kde vede 3090, ale u konkurenčního Ryzenu uvádíte, že SAM nebudete brát jako plus či mínus, protože to konkurence nemá?! Nehledě na to, že pro užití RT ve 4k je i na 3090 málo.
Spotřeba je pak další věc, kde vede AMD.
Miluji NVIDII, ale AMD je poslední dobou naprosto skvělý produkt. Prosím, dělejte tu novinařinu objektivně. Nevidím jediný důvod nedat zlaté ocenění, neboť za tu cenu je to bezkonkurenční.
Nedělejte z tohoto webu odpad, kde se řeší jen modro-zelená. My hráči a pracující, které zajímá výkon, cena a vše kolem, nejsme hloupí. Buďte objektivní.
Děkuji.
A co se hodnocení slohové části týká... no comment. Kdyby to napsal někdo jiný, možná bych si z toho něco dělal. Nechtěl bych po tobě editovat články. http://www.nejmenovany web.cz/pc-a-komponenty/periferie/sandberg-commander-rgb-test-a-recenze-herniho-kresla-s-rgb-led-osvetlenim.html
Ve hrách s DLSS 2.0 má o čtvrtinu až o třetinu nižší výkon. Nebo jinak – ve hrách s DLSS 2.0 nabízí o trochu lepší výkon než RTX 3070.
I kdybyste se stavěli na hlavu, nenabízí totéž co RTX 3090, jenom o několik tisíc levněji.
A jak říkají příznivci AMD, hlavně má jenom 16 GB paměti, takže je daleko méně futureproof než 24GB RTX 3090!
Ale to ocenění jsem jí nedal z jednoho prostého důvodu – v této podobě je to v podstatě jen o osm tisíc předražená OC verze RX 6800 XT, a navíc k ní ještě člověk nedostane lepší chladič, který nereferenční karty mívají. Nemá smysl ji kupovat na cokoliv jiného než soutěže v přetaktování, a i tam to pak rozcupují nereferenční karty.
Jaktože tedy nevychvalujete SAM? Sám jste napsal, že to nebudete řešit, pokud to bude jen mezi Radeonem a Ryzenem 5 s deskou 500 řady... dnes to už umí i 400 řada, dokonce desky Intelu ze 400 řady... tak kde to máme pane Vágner? Proč jste to nezapnul už?
Bazírujete tady na nějaké technologii jen proto, že jí druhá strana zatím nemá. Ale že má druhá strana jiné technologie ignorujete. Moc pěkné. Tohle mi celkem připomíná SLi vs CrossFire... dokud bylo jen SLi, tak u každé grafiky ATi byl mínus, že nepodporuje SLi. ATi přišlo s CrossFire tak se zas psalo, že SLi škáluje lépe než CrossFire. ATi opravilo škálování a od té doby to šlo kam? No nikam že? Zapojení více grafik dohromady už nikoho nezajímá, firmy to přestali pomalu podporovat a najednou už je to pomalu zbytečná technologie, ale to bylo ze začátku řečí, jak je to důležitý. Obávám se, že tady by to mohlo dopadnout dost obdobně. Už vidím, jak nVidia donekonečna dodělává do her DLSS.... to určitě
Jen o několik tisíc levněji? Několik? Mně přijde minimálně 11 000,- jako dost solidní rozdíl, tak proč to tady zlehčujete?
Jo tak méně futureproof?
Nevím, jak to napsat polopatičtěji.
https://www.youtube.com/watch?v=d5knHzv0IQE
Nastudovat, pochopit, vyzkoušet, pak se vrátit do diskuze.
Popravdě je mi buřt jak DLSS přesně funguje, podstatné je to, že to je "ochcávka" a neukazuje se síla grafické karty, ale síla neuronové sítě, toť vše.
Tato funkce je přítomna i v mém oblíbeném Warzone, stejně tak RT. Mám RTX grafiku z minule generace a ani jedno nepoužívám. Člověk to zapne koukne, žádný rozdíl, vypne a už to nepoužívá, tak co na tom tak bazírujete?
Je to pořád dokola.
Jediná novinka je SAM na Intelech, pravděpodobně to zapnu, ale v podstatě to znamená všechno opětovně přetestovat.
Na RT bazírovat budu, je to trend, kterým se budou vývojáři ubírat, protože ve chvíli, kdy to bude na většině grafik a ve většině enginů standard, jim to hodně usnadní práci.
Nebudu to studovat, ale je to ochcávka. Hm...
A co se ochcávek týká, s tím opatrně. Ochcávka je prakticky všechno, co se dělá v real time renderingu. S touhle logikou bych mohl napsat, že odteď netestuju nic jiného než hry s ray traced reflections, protože SSR jsou ochcávka.
Je to trend... trend o který nikdo nestál a v drtivé většině případů ani dále nestojí. Stále jsou dopady na výkon tak katastrofické, že si musíme pomáhat něčím jako je DLSS na top high end grafikách za 40-50 tisíc. To je úspěch tedy. Hledat ve screenech rozdíly lupou, aby bylo poznat, kde je a kde není RT zapnutej.. joo, to se vyplatí.
Nemyslím tím, že se o to nebudu zajímat. Já samozřejmě mám přehled o tom, jak to funguje, ale to neznamená že to prostě není upscaling... jestliže samotná grafická karta počítá menší rozlišení a na monitor se dostane větší, je to prostě upscaling a je jedno, jak ho bylo dosaženo. To co je na obraze už není práce grafické karty a proto to je "ochcávka".
Ano, samozřejmě vím, že rendering sám o sobě je taky ochcávka, jenže vše se počítá na grafické kartě a tam se ukazuje síla těch karet a ne v neuronové sítí, která nejdřív musí hru analyzovat a pak jen dodává výsledky za grafickou kartu.
U DLSS 2.0 se obraz renderuje v nativním (a dokonce se může renderovat i ve vyšším) rozlišení, jenom se vždy z každého snímku vynechává část pixelů, kterou lze vzít vyrenderovanou z předchozích snímků. Drtivá většina pixelů je nativně vyrenderovaných, jenom jsou sebrané z minulých snímků.
To není upscaling. Tvrdit, že je DLSS 2.0 upscaling, je jako tvrdit, že televizní signál v PALu byl upscaling z rozlišení 720×288.
A myslím, že by se to dost dobře obešlo i bez těch neuronových sítí na tensor cores. Na DLSS je podstatná hlavně filozofie skládání snímků se vzájemně posunutými vzorky, ne to, čím se to pak slepí dohromady a které výpočetní jednotky to udělají.
DLSS není nic jiného než extrapolace pomocí trochu upravené back-propagation sítě. Tzn. nic extra převratného ale metoda používaná od 90tých let. Na škole před 15ti lety jsme ji běžně používali v CV aplikacích.
https://www.youtube.com/watch?v=d5knHzv0IQE&t=1751s
Ono záleží i na tom, jakými daty se ta síť krmí. Určitě to není prostá extrapolace z obrázku, série obrázků nebo videa přes natrénovanou neuronovou síť, kterou jste dělali před patnácti lety.
To podstatnější začíná v 17:30, srovnání s ESRGAN v 21:20, rozdíl proti extrapolaci z videa ve 23.00, další detaily k DLSS 2.0 posléze.
Ano, nevynechává to pixely, posouvá to mezi jednotlivými snímky samply na úrovni subpixelů a z toho rekonstruuje obraz ve vyšším rozlišení s tím, že použité assety jsou shodné s těmi používanými v nativním rozlišení, nikoliv takové, které by se použily při reálném čtvrtinovém rozlišení. Což zní ohromně srozumitelně.
Upscaling funguje tak, že chybějící pixely dopočítá ze sousedních pixelů. DLSS zřejmě funguje tak, že pixely umí dopočítat ze sousedních pixelů nejenom z jednoho snímku, ale z více po sobě jdousích snímků a jako novinka je tam umělá inteligence, která má dříve nevídané možnosti v dopočítávání pixelů.
Někdo tady nakousl PAL, tak PAL používá totéž co DLSS, v přenáší se jenom půlka pixelů, akorát nemá vůbec žádný algoritmus, prostě půlku pixelů jen tak zkopíruje do dalšího snímku.
Občas to ale udělá v obraze nežádoucí artefakty, protože ne vždy lze ty pixely z minulých snímků vykrást.
"Vyšší kvalita" je dána znalostní bází použité neuronové sítě, která může obsahovat informace, které se vůbec nevyskytují ve vstupních datech. Technicky je to uděláno tak, že umělá inteligence se v procesu učení krmí sekvencemi snímků vyrenderované s použitím 64x supersampling. Tyto informace se do obrazu dostávají zřejmě prostřednictvím ovladače GPU, nikoliv ze snímků vyrenderovaných během hry.
Pak dává smysl technologie DLSS 2X, kdy se renderují snímky s nativním rozlišením a stejná umělá inteligence provádí náhražku supersamplingu pro antialising.
Ani ta nejchytřejší AI a nejvytrénovanější síť nedokáže domyslet z šedého pixelu na texturách správný text někam, kde není.
viz https://pctuning.tyden.cz/hardware/graficke-karty/59731-nvidia-dlss-2-0-tak-ma-vypadat-chytre-vyhlazovani?start=7
To jsou screenshoty ze 4K s DLSS. K tomu, aby to dokázalo dodělat na těch plakátech vzadu čitelné texty, by si ta AI musela v podstatě pamatovat, co na těch plakátech bylo napsáno. A musela by si to pamatovat pro každý jednotlivý prvek v celé hře. Protože domyslet se dá nějaký opakující se vzor, ale ne náhodné texty.
I v komprinovaných texturách to obnáší desítky gigabajtů komprimovaných dat. Kdyby to měla u každého rozmazeného fleku domýšlet na hires, tak by musela mít někde uložené „otisky“ o velikosti minimálně gigabajtů dat pro každou jednotlivou hru. A musela by to v té paměti držet a instantně to z ní tahat.
DLSS má třetinu informací na jeden snímek, ale když to pak poskládá ze šesti po sobě jdoucích mírně posunutých snímků, má ve finále dvakrát víc dat, ze kterých může udělat finální render.
tolik prace s recenzi a pak to zabijes diskuzi...
neprispiva pod tvym jmenem nahodou OBR, tam je to normalni...?
Ale jinak jste to shrnul pěkně a věcně. Bohužel, je to házení perel sviním.
Stále tu potláčate amd a pri nvidii podobné problémy spomínate iba okrajovo čo tak veci robiť férovo? To čo je zle nech je ale pri oboch a nie že jeden môže a druhý nie. Fans nejakého tábora by nemal robiť recenzie lebo si tam hľadá stále iba to čo chce a čo dobre víde. Neriešim teraz či modrý červený zelený. Ide mi o fér porovnanie.
Nestíhám. Od uvedení RTX 3080 jsem testovací sestavou protáhl šestnáct grafik a další jsou ve frontě.
A články na PCT nejsou jediná věc, co musím dělat.
Budou. Bude Cyberpunk, bude Mafia Definitive edition, pravděpodobně bude Minecraft RTX, pravděpodobně watch dogs legion, Dirt 5, Crysis remastered.
Minecraft RTX? To jako vážně?
Kde máme ty Call of Duty? Kde máme toho Assasina nového, po kterém se v obchodech jen zaprášilo? To myslíte jako vážně? Pokud ano, tak už mi to přijde jako neuvěřitelná arogance.
+ samozrejme budou hry kde je RT implementovan dle "noticek" Nvidie aby to behalo na konkurenci co mozna nejhure
Assassina nemám, nedostal jsem klíč. Na žádné AC jsem klíče nedostal už osm let, přestože jsem o ně žádal pokaždé. Klíčů bývá málo, prioritu mají youtubeři, letsplayeři, recenzenti z herních magazínů, recenze z her, a když něco zbude, tak mi možná někdo nechá klíč, abych to mohl dát do metodiky na testování karet. Nehodlám to dělat jako Stach, abych na jedné stránce udělal jakožerecenzi, ve které to pochválím, aby mi někdo dával klíče zadara a PR vydavatele si mohlo odškrtnout, že má splněnou další recku.
CoD nevím, možná s nějakým příštím dílem, abyste neřvali, že dávám do metodiky staré hry.
Minecraft RTX jako vážně, předpokládám, že je to jeden z taháků Microsoftu na Xbox a DirectX ray tracing (tedy v podstatě váš argument, že je to ten lepší ray tracing, který se teď bude ve hrách používat).
Ano, chápu, že není občas lehké sehnat licenční klíč zdarma, ale to pak kvůli tomu budeme sledovat letité hry pořád dokola i když nikoho nezajímají a podle toho soudit výkony grafických karet, které používají technologie, o kterých ty letité hry ani neslyšely? To mi nepřipadá moc rozumné. Tak jako jestli je takovej problém pouze u Assasina, tak opravdu nevěřím tomu, že je takový problém jednu recenzi napsat... však to můžete vzít i jako porovnání GK a přeměřit jich několik najednou a jen je fláknout do nových testů...
Tak CoD Black ops za chvíli vychází, tak máte příležitost že? Jak se píše, CoD je výkladní skříň technologií nVidia, tak bych očekával i naopak Dirt 5, protože to je zas výkladní skříň technolgií AMD
Minecraft RTX vznikl v době, kdy jediný RT HW měla nVidia, takže veškeré testování probíhalo pouze na HW nVidia, takže těžko může být optimalizovaná na Radeony. Pochybuji o tom, že implementace RT efektů je naprosto čistě Direct X12 Ultimate bez úprav na RTX grafiky. Minecraft RTX je naprosté plýtvání výkony grafických karet, k čemu tam proboha jsou ty RT efekty dobré? To je prostě jen technologické demo. Nezlobte se na mě, ale Minecraft je hnusná hra ať má RT vykreslování nebo ne a vůbec netuším, proč bych měl hrát tuto verzi a potřebovat na ní extra výkonný HW?
Ad minecraft – nějak mi nedává smysl, proč by se v Microsoftu mastili s RTX verzí na bedrocku, kdyby to neplánovali uvést na novém Xboxu. A pokud to plánují uvést na xboxu, musí to pro něj být optimalizované. Vyvíjel se v době, kdy už byly vývojářské Xboxy k dispozici.
IMO, bolo to len menom tej hry. A predpokladam, ze "kazdy", co vyskusal a dohral remaster Mafie, sa k nej tak skoro nevrati, ak vobec. Bola to jednorazova zalezitost.
Nove osvetlenie hry typu "stojim_na_osvetlenej_cistinke_v_strede_dna" a "preexponovane_farby" po zapnuti RTX su extremne zatazujuce pre ludske oko.
Doporucujem pozriet si to nazivo napr. tu:
https://www.youtube.com/watch?v=7qs7aH1tc0A&feature=emb_logo
Sorry ale skladba her je katastrofální.
Ještě že je tady to forům ,to je to poslední co tu za to stojí..
Možná je na čase to nechat recenze někomu koho to bude bavit a přestat předvádět tento paskvil.
hezky to napsal Hakosuka
Okatěji už AMD své fans škubat snad ani nemůže, a vy se ještě dožadujete toho, abych je za to chválil.
3800 vs 3900 ma ten pomer 240%
amd je ten kdo tezce skube fandy
+14 GB paměti
+30 W power limit
+~20 % výpočetních jednotek
+1 MB L2 cache
64b na paměťové sběrnici, +500 MHz na pamětech, +23 % propustnost pamětí
nvlink
u Founders Edition zhruba dvakrát větší chladič
RX 6900 XT:
+11 % výpočetních jednotek při stejné spotřebě, +50 % ceny
A co je za výhodu, že má tak kravskej chladič, když se Radeon se stejným výkon spokojí s běžným chladičem klasické konstrukce?
To nejsou žádné výhody, pouze ukázka toho, jak jsou současné RTX neefektivní.
6800xt + 7% vykonu + 43% ceny = 6900
3800 + 12% vykonu + 92% ceny = 3900
porad nevim kdo me chce obrat vice...
Tohle nemá smysl na nic. Nevyplatí se to nejen na hraní, ale ani na to profesionální nasazení. Za deset tisíc navíc to nabízí prd nejenom hráčům, ale i těm profesionálům. I na ten rendering je lepší koupit dvě RX 6800 XT než jednu 6900 XT.
Tak s tímhle prostě nesouhlasím. Kdybych si šel teď kupovat grafiku a chtěl prostě high end, tak půjdu a ten Radeon 6900XT si prostě koupím (kdyby to šlo). Ještě v minulé generaci stála RTX2080Ti mnohem více než tento Radeon, takže pro mě to tak strašný není. Ano o 350 dolů níže je 6800XT, který má jen o 10% menší výkon, ale o to vůbec nejde. Ty peníze nejsou zdaleka tak strašné za to, že mi AMD prodá to nejlepší co dokáže vyrobit. V podstatě to beru jako lidi, co si kupují výběrové procesory se značkou přirážkou, protože je u nich větší OC potenciál. Pokud si koupím tenhle Radeon, tak vím, že mám jeden z nejlepších čipů, který má nejen obrovský OC potenciál, ale i aktivní zbytek chipu, který sám o sobě bez ničeho přidává 10% výkonu.
Co dostanu od RTX3090? V základu mamutí spotřebu v mamutím balení a chip, který není plně aktivní a jede na doraz svých možnosti. A ještě k tomu za to musím zaplatit minimálně o 500 dolarů více, než za toho Radeona. Ano dostanu 24GB paměti proti 16GB, ale tu při hraní stejně nevyužiju. Pokud bych na tom chtěl pracovat, tak zas nemám odpovídající ovladače a certifikace, takže těch 24GB pamětí je pro mě jen wow efekt, nic jiného.
Problém RX 6900 XT je, že existuje o třetinu levnější RX 6800 XT, která nabízí prakticky totéž.
Mě se líbí jak se tak strašně snažíš vařit z vody
Je více než očividné, že na PC jsi nikdy nedělal nic jiného než hrál hry. Protože vypouštět moudra jakože u 3090 24GB je na okrasu
Nevím oč ti jde. Běž utíkej si koupit toho radeona 3900XT ale nevnucuj tady všem že by měl dostatat nějaká ocenení na která jednoduše nemá.
dokonce i takovej rudej negramot jako Stah, napsal, že by tu kartu ke koupi nedoporučoval.
Tak už si to srovnej.
Teorii máš zmáklou hezky, ještě by to chtělo i tu praxi.
Z trdla Belky si nic nedělej. Ten by testoval nejradši výkon na všech kartách s ovladači od AMD... To je k věru to poslední, co by ještě amdd svět mohl pro zvýšení objektivity vytáhnout.
Už Belku vidím jak si priplati za 6900xt
AJ TO (tiez...) MUSIM MAT !
To je nějaký sport si přečíst recenzi, o které víte, že v ní budou hry které Vás nezajímají, jen proto abyste si mohli zanadávat v diskuzi?
Proč Vám vadí hry které nehrajete? To je takový problém hodit do googlu název hry + nazev karty a najít recenzi s hrou která Vás zajímá?
Celkově pak na sestavu ve 4K naměřím spíš méně, protože klesne vytížení procesoru.
Mafia Definitive - nesmysl, nikoho to nezajima
Minecraft RT - osobne me to nezajima, ale jako benchmark k RT dobry, beru to
Watch dogs legion - nesmysl, nikoho to nezajima
Dirt 5 - nesmysl, nikoho to nezajima
Crysis remastered - ok, beru.
----
Call of Duty - ???
Pán je vtipálek.
On sice hodně nahovori, ale do prodejních statistik promluví až tak za tři roky až si koupí bazarovy ryzen a bazarovou 5700xt.
Takže kdybych si měl vybírat mezi Dirtem, kde to kdysi fungovalo stejně a zrušili to, a F1, vyberu si vždycky F1. Otázka nestojí jestli testovat F1, nebo Dirt, ale jestli testovat F1, nebo mít změřeno o hru méně.
Jako celkově si AMD umí vybrat dobrý tituly
Kluci, vy uz fakt musite mit nejakou formu autismu nebo si nesete neco z detstvi. Ja byt Adamem, tak na Vas ani nereaguju.
Piste si vlastni "recenze" na blog, ale predtim prosim zopakovat cesky jazyk. Klidne bych s Vami podistutoval na Vasem pisecku, ale na obou stranach mam ban a zakladat si dalsi ucty, kvuli dvou blaznum, to fakt ne
Umíš si představit kdyby to bylo naopak? Tak nvidia technologicky zaostává, nemá ani pořádné RT, dlss vůbec, nejakej dirt by v testech nebyl ani náhodou. A poukazovalo by se na to, že 128MB cache se vzrůstajícím objemem dat se míň a míň trefuje. Proto s rozlišením klesá výkon...
Prostě komici. Stejně jako u Intelu když člověk poukaze, že herně je 10600kf výhodnější než 3600 tak se můžou vzájemně oplodnit.
Já neříkám, že občas nepřeháním a nesnažím se Adama vyprovokovat, ale je to jen v jeho zájmu, aby už něco udělal.
Jinak pokud si myslíš, že píšu něco, s čím nikdo nesouhlasí, tak se podívej na poměry +/- u mých komentářů.
A opravdu nevím, co myslíš tím "podistutoval na Vasem pisecku". Já žádný svůj píseček nemám a obcházím všechny české IT servery a když se mi něco nelíbí, tak to napíšu a to platí i o Stachově stránce.
BTW: Ty mi budeš něco říkat o zopakování českého jazyka?
Proc by mel neco delat? Pracuje v ramci sveho platu.
"Jinak pokud si myslíš, že píšu něco, s čím nikdo nesouhlasí, tak se podívej na poměry +/- u mých komentářů."
Tohle neni ani trochu relevantni.
"A opravdu nevím, co myslíš tím "podistutoval na Vasem pisecku". Já žádný svůj píseček nemám a obcházím všechny české IT servery a když se mi něco nelíbí, tak to napíšu a to platí i o Stachově stránce."
To jsi stastny clovek, ja tam za vlastni nazor dostal BAN.
"BTW: Ty mi budeš něco říkat o zopakování českého jazyka?"
Ano.
5700xt žere a výkon nic moc. 3060ti žere míň a výkon lepší...
Poor nvidia se samsungem 8nm vs good amd s tsmc 7nm...
Srovnej 3060 s 6800 a uz ti to tak vesele pro Nv nevyjde ;)
Nejblíž jak cenou tak parametrove k sobě má 5700xt a 3060ti. 256bit sběrnice. Obdobně velké čipy, lepší vyrobni proces má amd...
Kolem dpc 12k kdo dnes koupi 5700xt tak je bez rozhledu..
Btw i na ethashi je 3060ti efektivnější než 5700xt se Samsungama a s modem BIOSu. A na 3060ti stačí nastavit PL a takt pamětí a hotovo. 5700xt se Samsungama 54MHs/125W(a to budete mít sakra štěstí, že nefasnete většinový Micron 57MHs za 155W) 3060ti 61/130W...
Ostatní alga zmiňovat nebudeme, že? Tam je to totiž tak 2:1 v prospěch nvidie.
3060ti vs 5700xt je aktuální téma. Až vyjde 6700(xt) tak se může něco změnit. Zatím 5700xt, slabý výkon, špatná spotřeba, neumí RT, neumí dlss... Koupě 5700xt je prostě v tuto chvíli blbost a rudo-brýlkaři se můžou vztekat jak chtějí. Třeba to 6700 zase obrátí a třeba taky ne.
Z hlesdika technologie je radeon 6900xt top, pouziti infinity cache pomerne dost vylepsi efektivitu v tom nv 3000 zaostava, navic pouziva drazsi a zravejsi ddr6x, AMD pouzila standartni ddr6 kterym vylepsuje efektivitu prve infinity cache a pokud je to ve hrach opravdu 2.5x vyssi bandwidth tak to je dost slusny, zvlaste pak technologicky pokrok proti navi1 je rozhodne nekde jinde nez mezi 2080 a 3080 ;) A v neposledni rade cena je o dost priznivejsi nez u predrazeny Nv
Ano 3090 je nesmyslne dr aha ale i tak se nejdou blazni to to koupi :-D Spis aby se v dohledny dobe drive nez v roce 2023 :-D zlepsila dostupnost karet..
Zrovna 2090 bych si osobne nekoupil a finance v tom fakt nehrajou roli, proste 6800xt je ve vsech smerech zajimavejsi produkt az pujde koupit teda
Peníze nehrají roli a bych býval byl koupil...
další komik.
Už jsem psal minule, že jsme chtěli tu nejlepší desku po Asusu, ale asi všechny samply vyžrali overclockeři. A obdobně s pamětmi, když chce člověk 32 GB, je to trochu problém.
Tady jsem ti přeměřil, o kolik utrpí nejvýkonnější vzduchem chlazená karta, která se momentálně dá pořídit tím, že to testuju na tak shitovní sestavě se shitovním nastavením v Metru.
Aktuální nastavení je třetí sloupec, nejvíc, co jsem z toho vyrazil při rychlém overclockerském nastavení (to je takové to aby to ustálo jeden průběh testu), je ve čtvrtém, v posledním procentuální rozdíl. Akorát jsem to teda udělal lamersky a to nastavení napětí jsem tam pral už v BIOSu a ne až ve Windows.
https://pctuning.tyden.cz/ilustrace3/vagner/temp/oc-10900k.png
Měřit, kolik tím utrpí objektivita testu při srovnávání více různých karet, už se mi ani nechtělo, čoveče.
A i kdyby ses na hlavu stavěl, tak ten procesor ani ty paměti vejš dávat nebudu, tak už si zase můžeš jít hrát s těma syntetikama.
Tak zas někdy!
Ptám se zcela neironicky a opravdu mě to zajímá.
Ale kvůli němu jsem to nedělal, zajímalo mě, co udělá s výsledky v na procesor náročnějších hrách, když je odstavené 5,3GHz turbo a místo toho jedou všechna jádra rychleji a jak velkou chybu jsem udělal, že jsem paměti nechal na „konzervativních“ 4,0 GHz. Paměti, které v tom počítači budou definitivně, přišly až více než měsíc potom, co jsem musel na tom počítači začít testovat.
A ne, nejde mi jenom o teploty, jde mi o to, aby to mělo rezervu a nejelo to na doraz.
https://pctuning.tyden.cz/ilustrace3/vagner/temp/r20.csv
Už tuším o 0,025 V níž to s některými grafikami v některých hrách padalo na hubu.
V klidu si pockam az bude 6800xt dostupny za normalni penize a jestli to bude za rok tak bude