Hlavní stránka Multimédia Hry a zábava Proč nesmíme stavět autonomní válečné roboty
Proč nesmíme stavět autonomní válečné roboty
autor: Michal Rybka , publikováno 31.7.2015
Proč nesmíme stavět autonomní válečné roboty

Tento týden, v úterý 28. července 2015, byl zveřejněn otevřený dopis vědců a vývojářů z oblasti umělé inteligence a robotiky, který požaduje zákaz vývoje a výroby autonomních zbraňových systémů. Pokud by se na půdě OSN podařilo zákaz prosadit, vražední roboti by se ocitli na seznamu zakázaných zbraní vedle biologických a chemických.


Autonomní zbraňový systém je vlastně robot, který je vybaven svojí vlastní zbraní a bez jakékoliv intervence operátora si sám vybírá cíle a se samostatně rozhoduje, jestli je zničí. Tím se liší od klasického dronu, který je buď zcela řízený operátorem anebo mu operátor alespoň potvrzuje cíle. Pokud vám není jasný koncept autonomního zbraňového systému, podívejte se například na nový Terminátor Genisys, kde jich uvidíte celou řadu. Nejde jenom o vlastní terminátorové soldéry anebo roboletadla, ale i samotný Skynet, tedy strategii plánující inteligenci.

Otevřený dopis, který je na stránkách Future of Life Institute, do dnešního dne (30.7.2015) podepsalo 2443 výzkumníků a vývojářů a dalších 14245 lidí, mezi kterými najdeme například Stephena Hawkinga, Elona Muska anebo Steve Wozniaka. Z herní branže tam najdeme lidi jako je Markus „Notch“ Persson, od nás například Marek Rosa, který založil Keen Software House a GoodAI. Otevřený dopis může podepsat každý, stačí vyplnit jednoduchý formulář online.

Proč nesmíme stavět autonomní válečné roboty

I já jsem se pochopitelně okamžitě přidal – a zde bych rád vysvětlil proč. Motivace lidí, kteří podobné petice podepisují, bývají všelijaké. V některých případech jde o pacifisty, kteří prostě nechtějí vylepšovat destruktivní potenciál lidstva o další zbraně. Pak tu máme levicově laděné aktivisty, jako je lingvista Noam Chomsky, kteří se vymezují vůči umělé inteligenci jako takové, případně proti pokroku obecně.

Jiní mají zásadní námitky proti rozvoji umělé inteligence, což je případ Elona Muska a Stephena Hawkinga, kteří vzestup umělé inteligence a zvláště překročení singularity vidí jako jedno z významných rizik existence lidstva. Stále ale nerozumím jejich představě, že vysoká inteligence znamená nějaké ohrožení pro lidstvo. Osobně nemám problém se superinteligencí, zažil jsem vcelku neškodné a přátelské lidi z matfyzu, kteří překračovali svojí inteligencí průměr populace skoro dvakrát. A co si budeme povídat, Musk i Hawking jsou spíše příkladem tvrzení, že inteligence lidstvo neohrožuje a naopak je pro něj výhodou.



 
Komentáře naleznete na konci poslední kapitoly.
103 čtenářů navrhlo autorovi prémii: 47.5Kč Prémie tohoto článku jsou již uzavřené, děkujeme za váš zájem.
Tento web používá k poskytování služeb soubory cookie.