Hlavní stránka Multimédia Hry a zábava BattleForge — první DirectX 11 hra přichází
BattleForge — první DirectX 11 hra přichází
autor: Tomáš Šulc , publikováno 2.11.2009
BattleForge — první DirectX 11 hra přichází

Ačkoliv je hra BattleForge na trhu už od března tohoto roku, ve světě počítačového hardwaru se o ní ve větším měřítku začalo mluvit až v posledních několika týdnech. Čím to? Před pár dny vyšel patch, který pod Windows 7 rozjíždí podporu DirectX 11. Ano, BattleForge je první hrou s podporou tohoto nového rozhraní.


BattleForge — první DirectX 11 hra přichází

BattleForge je průkopníkem ve světě počítačových her. Jednak je to hra, která v sobě slučuje RTS s karetní hrou, zároveň je již několik měsíců uvolněná zdarma ke stažení a zároveň je průkopníkem ve světě nových technologií, což vás nejspíš momentálně zajímá nejvíce. Jak již bylo v článku několikrát řečeno, BattleForge je první hrou, která pod Windows 7 (a časem také pod starší Vistou) podporuje API DirectX 11, byť vlastně jen jedinou jeho technologii.

Už v době vydání však BattleForge podporoval tehdejší verzi DirectX 10.1 a i z té hra masivně těží, takže i na ATI Radeonech HD 4000 hra jede o kus lépe než na kartách NVIDIA GeForce, které až na pár výjimek dosud podporují pouze DirectX 10. Tento rozdíl je vidět zejména po zapnutí vyhlazování hran, které pod DirectX 10.1 jede výrazně lépe.

No pak je tu onen nedávný patch, který rozjíždí podporu DirectX 11. Hra samozřejmě z možností DirectX 11 nevyužívá mnoho, v zásadě je to jen jediná technologie, kterou je HDSO neboli kvalitnější a méně náročný SSAO. I to však v zásadě stačí a testovaný Radeon HD 5870 překonal všechny ostatní testované karty s obrovským rozdílem. To dle mého názoru jasně ukazuje, že DirectX 11 má obrovský potenciál a pokud vše půjde podle plánu, neměl by kopírovat osud DirectX 10, které se vlastně nikdy pořádně neprosadilo.

Na druhou stranu je nutné brát v potaz, že jde zatím o první hru s podporou DirectX 11 a je otázkou, kolik her s podporou DirectX 11 výrazným přínosem v nejbližších měsících vyjde. Naplánovaný je nový S.T.A.L.K.E.R. Call of Prypiat, Colin McRae DiRT 2 či Alien vs. Predator. A podle těchto her už snad bude jasné, zda se DX 11 opravdu prosadí či ne. První vlaštovka v podobě BattleForge však vypadá více než nadějně.

Ale zpět k hardwarovým nárokům hry. Ty na výkon grafické karty jsou obrovské a pokud chcete hrát na rozměrnějších panelech s vyhlazováním hran, připravte si ten nejvýkonnější hardware. V případě karet NVIDIA GeForce to je GTX 285/295, v případě Radeonů to chce ATI Radeon HD 4890, nejlépe však duální karty či rovnou některou kartu z řady HD 5000. Opak platí pro nároky na výkon procesoru. Ty jsou velmi malé a bohatě vám postačí o levný Intel Core 2 Duo procesor s frekvencí jen lehce nad 2 GHz.

Poděkování

Děkujeme partnerům Acer, Asus, Gigabyte, Intel a MSI, kteří zapůjčili další vybavení na testy.

BattleForge — první DirectX 11 hra přichází BattleForge — první DirectX 11 hra přichází BattleForge — první DirectX 11 hra přichází   

BattleForge — první DirectX 11 hra přichází BattleForge — první DirectX 11 hra přichází



Tagy: BattleForge  DirectX 11  benchmark  test  hardwarový test  vliv nastavení na výkon  GeForce  Radeon  


 
Komentáře k článku
RSS
Pouze registrovaní uživatelé mohou přidat komentář!
1.11.2009 06:47:50   89.102.44.xxx 550
Hezkyyy jsem ani nedoufal, ze by jste mohli stahnout prvni hru s DX11 (zadarmo). Je vidno ze jste si vzali nejspis neco k srdci z minulych prispevku. Mate u me jedno bezvydnamny plus

Jinak musim podekovat za otestovani. DIky
1.11.2009 08:37:10   82.150.185.xxx 14108
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
1.11.2009 08:47:09   85.248.47.xxx 452
Ono niekedy je problem medzi PC a stolickou Ak by to bola pravda, robilo by to aj testerom, v testoch by o tom recenzenti pisali, ze im to nefacha a pod.... , nevravim, ze nikdy nieje problem, problemy s kompatibilitou sa objavuju sporadisky so vsetkym hardware.... vescinou staci novy firmware, bios, ovladac...
2.11.2009 09:17:13   85.248.47.xxx 266
Som v soku, po dlhom case na PCT vyhrala v teste ATI. Dost mi chyba HD5750, 5770, su skladom bezne, a asi budu dost zaujimat ludi, nakolko cena je tam zaujimava... Inac aj Nvidia ma DX10,1 grafiky, aspon GT220 ako kuriozitu by ste mohli tam dat, ved stoji viac ako HD4670 tak nech sa ukaze novinka v pravom svetle Inac diky za test... .
1.11.2009 09:44:41   79.170.253.xxx 1043
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 04:55:26   89.233.130.xxx 333
Pro lukasg: Co to píšete za hlouposti? Jeden HD5870 je o více jak 100% výkonější nežli jednočipová nVidia GT280 a to bez i s vyhlazováním.
Takže váš příspěvek je naprostý nesmysl.
Přínos DX11 je extrémně vidět a u všech DX11 titulů se nVida se svými starými čipy nebude chytat vůči novým Radeonům až do vydání Fermi řady.
2.11.2009 04:57:26   85.71.63.xxx 533
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 07:34:17   92.245.194.xxx 70
jeho oblbuje ta gtx295, to sa stava...
2.11.2009 08:47:27   147.32.223.xxx 70
Dobre jde i videt DX10.1 coz je taky nevyhoda pro Nvidii. Akorat jsem sam kdo na tech malych screenshotech porovnani SSAO nevidi snad zadny rozdil?
2.11.2009 10:57:55   85.216.143.xxx 412
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
3.11.2009 17:15:55   85.70.16.xxx 10
pokud se nemýlím, na CZC mají nějaký 5770 a 5750 skladem ;)
1.11.2009 09:19:59   90.176.102.xxx 203
Pěkný článek, ukazující hlaví směr vývoje GPU a grafického průmyslu.
.
Po dlouhé době nebylo v závěru, AMD kartám chybí PhysX.
1.11.2009 09:59:27   78.108.108.xxx 1243
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 05:04:26   89.233.130.xxx 298
Opravdu jsou DX10 a DX11 jablka a hrušky? Zajímavé, že šéf nVidie tvrdí něco zcela jiného a podle něho si lidé musí vystačit s DX10 kartami od nich, protože DX11 vůbec nic nepřínáší. No jak je vidět, tak se jako vždy mýlil.
Pláčete na špatném hrobě.
2.11.2009 05:40:31   62.168.125.xxx 2016
V case ked Ati spravila HD3xxx tvrdila nVidia PRESNE to iste. Ze DX10 neprinasa nic nove. Teraz Ati zbuchala karty s podporou DX11 a nvidia do G200 pridala podporu DX10 a zase tvrdi ze DX11 neprinasa nic nove... Z takychto sprav by som si velku hlavu nerobil
2.11.2009 11:43:48   62.209.192.xxx 50
jen bych chtel podotknout ze DX10 umi i osmickova rada od nvidie (ne az G200)
2.11.2009 17:31:52   62.168.125.xxx 10
netvrdim ze nie, spomynam to o par riadkov nizsie. Ale...
2.11.2009 15:49:11   78.108.108.xxx 612
Ano, opravdu jsou DX10 a DX11 jablka a hrušky! Pokud grafická karta DX11 nemá, pak ani nemůže příslušné elementy akcelerovat a pokud je hra automaticky nevypne, pak to počítá procesor. Je to stejné jako nutit AMD grafiky počítat PhysX!
Jediné porovnání, které je v tomto případě logické, je porovnání toho, jak hra běží na HD5870 před aplikací a po aplikaci patche!
2.11.2009 18:15:58   90.178.47.xxx 92
kalamera: To je hloupost. Pokud karta neumí DX11, tak hra běží pod DX10. Procesor počítá úplně to samý jako na systému s DX11. Pouze grafická karta funguje v režimu DX10 a zpracovává ty efekty, které hra v režimu DX10 obsahuje. Čili hra pak žádné efekty z DX11 neobsahuje.
Nic se na procesor nepřesouvá. Ten zpracovává pořád to samé a se zfušovanym PhysX se to nedá srovnávat.
Tahle debata je možná jenom proto, že hra umožnuje běh jak pod DX10, tak pod DX11. Pokud by hra uměla pouze DX11, tak by si ji na Nvidii nikdo vůbec nespustil. To jenom díky Vistám a jejich zfušovanému přechodu DX9-DX10 jsme si zvykli, že když nemůžeme hru hrát pod DX10, tak si ji zahrajeme v DX9 verzi. Dřív nic takového nebylo. Když jste měli kartu podporující DX8, tak jste si DX9 hru prostě nezahráli a měli jste smůlu.
2.11.2009 20:38:12   78.108.108.xxx 16
LOL!
Opravdu jsi si poradně nepřečetl, co jsem psal!
Takže ještě jednou pro slepé: "Pokud grafická karta DX11 nemá, pak ani nemůže příslušné elementy akcelerovat a pokud je hra automaticky nevypne, pak to počítá procesor"... Pokud na Nvidia kartách i po patchi používá hra pouze DX10 a DX11 elementy nepočítá ani softwarově, pak celý tento článek je nesmyslný, neboť porovnává neporovnatelné, ale to jsem již psal ;)
3.11.2009 20:43:16   217.170.97.xxx 10
Tak to by mě zajímalo, jak podle Tebe programátoři donutí procesor, vykonávat fce z sdk DX11(obecně jakéhokoli API hardwarově závislého na všem jiném, jen ne na procesoru(což už nějakou dobu DX rozhodně je))...?
Klidně se rozepiš
Mám oči na šťopkách
2.11.2009 19:01:11   89.233.130.xxx 50
Hustý ... větší hloupost si už napsat nemohl. Myslím, že vše potřebné pro tvé obeznámí se s problematikou fungování DX už napsal potooczech.
2.11.2009 05:00:19   89.233.130.xxx 329
xJirikx napsal:
jen aby ten extrémní rozdíl nebyl jako u Batmana...

Co má Batman společného s DX11? Zrovna tuto trapně zmanipulovanou hru bych vůbec nezmiňoval.
2.11.2009 06:35:46   90.205.37.xxx 90
Zdravim, rad by som sa redakcii PCT ospravedlnil za moj prispevok vo fore o zmazanom clanku o hre Battle Forge. Chcel som tak urobit priamo na fore ale tema uz bola zamknuta. Clanok vysiel vcera a potom bol odstraneny, nespravne som to posudil ako zamer (po podobnych skusenostiach z minulosti).
2.11.2009 06:44:51   217.170.97.xxx 93
racz napsal:
V case ked Ati spravila HD3xxx tvrdila nVidia PRESNE to iste. Ze DX10 neprinasa nic nove. Teraz Ati zbuchala karty s podporou DX11 a nvidia do G200 pridala podporu DX10 a zase tvrdi ze DX11 neprinasa nic nove... Z takychto sprav by som si velku hlavu nerobil

...a podobně ze zpráv, které Ty oznamuješ světu.
DX10 a rozšíření DX10.1 je zcela zásadní rozdíl! Samotné DX10 měla nVidia dříve(respektive měsíc před pohromou jménem R600)
Ignorace(marketingová) DX10.1 od nVidie byla hodně nefér - to je pravda.
ATi se jejich nová řada hodně povedla, o to víc, že nVidia opravdu nemá co proti ní nasadit a jen tak zřejmě ještě mít nebude:o)
2.11.2009 07:18:32   62.168.125.xxx 68
DX10 bolo u nvidie implementovane az v G92 pokial viem a aj to nie s plnou porporou... preto na vacsine krabic s s kartamy nvidie najdes uvedenu len podporu DX9c. Dokonca ani na GTX260 od gainwardu co som nedavno kupoval pre znameho nebola anilen zmienka o DX10, nieto o DX10.1. Okrem toho 10.1 je oproti 10 hlavne sofistikovanejsie a pouzitelnejsie pre HW tej doby. Vyladenejsie technologie ktore DX10 mala.
3.11.2009 10:57:45   217.170.97.xxx 20
Proboha odkud si to cucáš? Mýlíš se. Samozřejmě, že G80 MÁ plné specifikace DX10. Ukaž mi screen jedné jedinné krabice, kde je u nějaké 8800 uvedeno dx9.0c ano?
Na krabicích něco takového bylo u 8800 sice uváděno málokdy, ale dx9.0c tam určitě nebylo. Koukaj například tu: http://www.ixbt.com/video3/images/g80-8/zotac-8800gts320-box.jpg

EDIT: A vůbec. Proboha tohle se přece neusuzuje podle krabic, ale podle oficiálních specifikací. Nejdřív si je prohlídni...
http://en.wikipedia.org/wiki/GeForce_8_Series
2.11.2009 07:13:46   89.173.0.xxx 20
"Výpočty této technologie se totiž provádějí přes GPGPU část čipu neboli compute shadery."

Pokia2 viem, tzv. "compute sharer" je len iný prístup k stream procesorom, takže to nie je nejaká špeciálna časť čipu. Alebo to tak nie je?
2.11.2009 07:14:10   83.240.117.xxx 214
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 07:27:35   89.102.171.xxx 113
vidět, jak by ztrapnila "high" end od nVidie
2.11.2009 07:29:20   62.168.125.xxx 30
no ja som asi jedinu DX10.1 hru hral iba Assassins Creed a ta bola uplne dokonala tak ani neviem ci tu vidim cosi. Ale netreba zabudat ze tato hra povodne DX11 nebola. Ak to spravne chapem tak na DX11 treba nejaky patch ktory to tam prida a tak asi ani netreba ocakavat ze to bude nejake markatne.
2.11.2009 08:23:03   89.173.0.xxx 51
racz napsal:
DX10 bolo u nvidie implementovane az v G92 pokial viem a aj to nie s plnou porporou...

ehm... nejaký link čo by to dokazoval? Nespomínam si na nič také z obdobia vydania GeForce 8800.
2.11.2009 09:07:40   85.92.38.xxx 1132
Mno když se dívám na to foto a viděl jsem i video přiznám se že co do kvality grafiky hra silně zaostává v porovnání dnešních herních pecek.
To že tam přidali stínování a pár efektů s toho automaticky nedělá nejnáročnější nebo nejhezčí grafiku !!!
na to až hry budou podporovat plně DX11 se vším všudy si ještě počkáme a to bude trochu jiný obrázek !ti co ví kde je rozdíl mezi DX9.0c přes 10.1 až 11 tak ty to rozhodně netrápí nějaký stín ve hře navíc když ho během svého hraní většinou ani nepostřehnou spíše se budou dívat na propracovanost prostředí a postavy a její fyzikální vlastnosti než na stín za její pr.delí
a to je pravda pravdoucí vy klikači mínusů (nebo spíš amatéři? LOL)
2.11.2009 09:39:25   194.202.236.xxx 162
...a mohu se pozeptat v cem je pan profesional, kdyz my ostatni jsme jen amateri ?
2.11.2009 11:07:57   194.228.245.xxx 110
"profiku" : Oni pridaji par stinu nejakou dalsi blbusku a preci jenom je to rychlejsi nez v puvodnim provedeni. Nikdo tady nechce ukazovat prevratnou grafiku ale pouzitelnost DX11 a nejakou jeji vyhodu. Ta hra se da stahnout zadarmo oficialne, tak co bys cekal ze tam toho dodelaji. Hlavni je ze hra muze bezet rychleji nez doposud i s lepsim obrazem.
2.11.2009 09:54:38   212.26.187.xxx 75
chlvalim autora za super pracu, clanok sa mi paci, aj ma potesilo ze mi to bude slapat na mojej HD5870ke
2.11.2009 10:18:12   212.111.4.xxx 41
Nevím jestli bylo nejšťastnější nahradit 4870X2 kartou nové série 5870. Chápu, že je to logické, jelikož výkonnostně i cenově jsou na tom obě obdobně, ale z testu díky tomu zmizelo ověření funkčnosti a škálování CF. Nejsem sice majitelem dvou karet v CF ani 4870X2, takže na tom nemám eminentní zájem, ale v zájmu objektivity bych se přimlouval za vypuštění 4890 a navrácení 4870X2 do testů. Děkuji.
2.11.2009 10:29:52   78.141.126.xxx 114
jarod72pm napsal:
To že tam přidali stínování a pár efektů s toho automaticky nedělá nejnáročnější nebo nejhezčí grafiku !!!
na to až hry budou podporovat plně DX11 se vším všudy si ještě počkáme a to bude trochu jiný obrázek !ti co ví kde je rozdíl mezi DX9.0c přes 10.1 až 11 tak ty to rozhodně netrápí nějaký stín ve hře navíc když ho během svého hraní většinou ani nepostřehnou spíše se budou dívat na propracovanost prostředí a postavy a její fyzikální vlastnosti než na stín za její pr.delí
a to je pravda pravdoucí vy klikači mínusů (nebo spíš amatéři? LOL)
LOL pan amater by mohol vediet ze aj ked DX11 neprinesie vzdy super kvalitu obrazu v porovnani s DX10 ale v 90% pripadoch prinesie vyrazny narast vykonu, ale to by pan LOL musel mat nejaky mozocek aby to pochopil
2.11.2009 11:01:20   90.176.16.xxx 44
Diskuze zde bude věcná a ve slušné rovině (bez urážek). Jinak se sáhne k promazu.
2.11.2009 10:34:37   85.92.38.xxx 414
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 10:35:38   85.92.38.xxx 226
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 12:45:15   78.99.3.xxx 11
Dobry je to pekne ten test ale zaujimalo by ma preco zasa chyba 4870X2 ???
2.11.2009 16:00:38   78.108.108.xxx 21
osobně bych ze starých AMD karet testoval max jednoho zástupce, např. hd4890, ostatní je zbytečné, radši bych uvítal hd5770, případně 2xhd5870, jako příprava na hemlock
2.11.2009 14:55:56   85.92.55.xxx 218
Rozbalit komentářPříspěvek byl automaticky zabalen pro velké množství negativních hlasů.
2.11.2009 15:27:05   213.29.147.xxx 71
georgis napsal:
hlavně mě dojímá to, že grafika hry je takový lepší warcraft 3 a "nabušená" GK 5870 v 1680.1050 vypotí průměrných(rozuměj pohled na hřiště bez panduláků) "jen" 66FPS?...takže ve hře může být klidně i pokles na 30 FPS - to už je opravdu k páči

Chlapče ty si blázen, asi chceš získat takovým blábolem hodně pozornosti co, no povedlo se...
2.11.2009 16:17:16   85.92.55.xxx 12
blázen...hmm...a to jako proč?...vtip je v tom, že jen blázen si bude spokojeně pomlaskávat za to, že mu někdo nakaká na hlavu a ještě za to poděkuje(viz ubohé FPS)...ono se i stačí podívat na grafy ostatních grafik = nedávno "TOP" a ted se třepou na průměrných a zároveň otřesných 30FPS(přitom vizuál je velmi špatný vtip), ale mnohým stačí ke spokojenosti i 22FPS, že
2.11.2009 16:56:47   213.29.147.xxx 41
georgis napsal:
blázen...hmm...a to jako proč?...vtip je v tom, že jen blázen si bude spokojeně pomlaskávat za to, že mu někdo nakaká na hlavu a ještě za to poděkuje(viz ubohé FPS)...ono se i stačí podívat na grafy ostatních grafik = nedávno "TOP" a ted se třepou na průměrných a zároveň otřesných 30FPS(přitom vizuál je velmi špatný vtip), ale mnohým stačí ke spokojenosti i 22FPS, že


No jestli tahle hra je pro tebe po grafické stránce takový lepší W3 tak blázen jsi a měl by sis dát studenou sprchu. Na to jak hra vypadá je výkon karet logický.
2.11.2009 17:24:45   82.150.166.xxx 31
že u grafu vliv procesoru nejsou i procesory AMD.
2.11.2009 22:44:25   94.113.131.xxx 11
potooczech napsal:
kalamera: To je hloupost. Pokud karta neumí DX11, tak hra běží pod DX10. Procesor počítá úplně to samý jako na systému s DX11. Pouze grafická karta funguje v režimu DX10 a zpracovává ty efekty, které hra v režimu DX10 obsahuje. Čili hra pak žádné efekty z DX11 neobsahuje.
Nic se na procesor nepřesouvá. Ten zpracovává pořád to samé a se zfušovanym PhysX se to nedá srovnávat.
Tahle debata je možná jenom proto, že hra umožnuje běh jak pod DX10, tak pod DX11. Pokud by hra uměla pouze DX11, tak by si ji na Nvidii nikdo vůbec nespustil. To jenom díky Vistám a jejich zfušovanému přechodu DX9-DX10 jsme si zvykli, že když nemůžeme hru hrát pod DX10, tak si ji zahrajeme v DX9 verzi. Dřív nic takového nebylo. Když jste měli kartu podporující DX8, tak jste si DX9 hru prostě nezahráli a měli jste smůlu.


To je pravda, pokud karta DX11 neumí, tak se DX11 efekty nepočítají. ??? Co to je za kravinu, že by obraz počítal procesor? prostě nesmysl, DX11 tam prostě není. PhysX je něco jinýho. To je GPGPU a jsou to instrukce, které může počítat i procesor - viz konverze videa atd.
4.11.2009 16:52:49   79.127.241.xxx 00
S krizkem po funusu...
5.11.2009 20:30:49   89.103.126.xxx 01
"ryltajmovka" a ma vyssi naroky nez crysis2?
6.11.2009 09:54:20   85.207.210.xxx 10
Tak já doufám, že se nVidia konečně pochlapí (teda... konečně ve smyslu nejdřív příští rok) protože až dojde na upgrade, rád bych nV kvůli 3D vision a PhysX, ale to holt na vyvážení DX 11 nestačí a pokud se zmůžou jen na marketingové plky, že to netřeba tak... to mi prostě nebude vyhovovat. DX10 jsem oželel kvůli Winu, Vista mi nebyla moc po chuti, a natlačit jsem se M$ rozhodně nechtěl nechat, ale 7 problém není když by měl být problém ve HW, budu hodně přemýšlet...
8.11.2009 17:57:36   84.242.99.xxx 00
Martin_o5 napsal:
Tak to by mě zajímalo, jak podle Tebe programátoři donutí procesor, vykonávat fce z sdk DX11(obecně jakéhokoli API hardwarově závislého na všem jiném, jen ne na procesoru(což už nějakou dobu DX rozhodně je))...?
Klidně se rozepiš
Mám oči na šťopkách

DX umoznuje zapnou ciste softwarove renderovani... Pokud v DX11 pouzijete CS , tak ty muzou bejt interpretovany taky ciste procesorem . To je prave vyhoda tech CS..napisete fyzikalni nebo AI engine..A pofrci to na GPU i CPU..Dle libosti.
12.11.2009 14:31:46   84.42.246.xxx 00
Pokuď bych se měl rozhodovat jakou podporu u grafiky zvolit, jestli direct 11 nebo physX... tak osobně preferuju DIRECT 11

tohle vám pomůže pochopit proč :
http://www.nejmenovany web.cz/aktuality/graficke-karty-gpu/directx11-ukazky-schopnosti-tesselace-v-dirt2-a-unigine-dalsi-dx11-hry-ve-vyvoji.html

Redakce si vyhrazuje právo odstranit neslušné a nevhodné příspěvky. Případné vyhrady na diskuze(zavináč)pctuning.cz

79 čtenářů navrhlo autorovi prémii: 36.3Kč Prémie tohoto článku jsou již uzavřené, děkujeme za váš zájem.
Tento web používá k poskytování služeb soubory cookie.