Proč nesmíme stavět autonomní válečné roboty
i Zdroj: PCTuning.cz
Hry Článek Proč nesmíme stavět autonomní válečné roboty

Proč nesmíme stavět autonomní válečné roboty | Kapitola 2

Michal Rybka

Michal Rybka

31. 7. 2015 03:00 33

Seznam kapitol

1. Proč nesmíme stavět autonomní válečné roboty 2. Pro blaho lidstva 3. Nové zbraně a nová rizika 4. Když holub dovede raketu domů
5. Mýlit se je... robotí 6. Zvládl by to robot lépe? 7. Pomáhat a chránit? 8. Malí sabotéři?

Tento týden, v úterý 28. července 2015, byl zveřejněn otevřený dopis vědců a vývojářů z oblasti umělé inteligence a robotiky, který požaduje zákaz vývoje a výroby autonomních zbraňových systémů. Pokud by se na půdě OSN podařilo zákaz prosadit, vražední roboti by se ocitli na seznamu zakázaných zbraní vedle biologických a chemických.

Reklama

To, co je opravdu důležité, je „sladění umělé inteligence se zájmy lidstva“, což je obrat, který pravděpodobně nejlépe vystihuje podstatu problému. Inteligence samotná je něco jako kubatura motoru, nelze z ní samotné určit, zda motor nakonec použijete v autobusu anebo v tanku a pokud se rozhodnete postavit auto, zda bude dobré anebo špatné. To vše je otázkou kontextu použití. Pokud se tohle nenaučíte rozlišovat, dopadnete jako zelení protijaderní aktivisté, kteří mají potíže rozeznat mírové a vojenské použití jaderné energie a mají problém rozlišit mezi jadernou hlavicí a jaderným reaktorem na palubě kosmické sondy.

Ostatně dva a půl tisíce výzkumníků z oblasti AI rozhodně nepodepsalo petici proto, aby byla umělá inteligence zakázaná jako taková. Anebo aby byla zakázaná autonomní inteligence. Schopnost robota samostatně uvažovat a rozhodovat se je jednoznačně pozitivní, ať už jde o robota, který zkoumá vesmír příliš daleko od Země, než aby poslouchal rozkazy, robota, který hledá zraněné příliš hluboko v sutinách, autopilota, který rozezná kolaps pilota a dovede sám letadlo bezpečně dovést na přistání, anebo domácího robota, který se snaží rozeznat, zda jste si jenom lehli anebo zda jste dostali infarkt a měl by tedy zavolat pomoc.

Myslím si, že poměrně solidní náhled na roli robotů v lidské společnosti přinesly původní zákony robotiky, které v povídce „Hra na honěnou“ publikoval v roce 1942 Isaac Asimov:

  • 1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
  • 2) Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
  • 3) Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem.

Tyhle zákony byly od data svého vzniku doplňovány a kritizovány, hlavně v tom duchu, že vypadají spíš jako otrokářské zákony a že to není dobrá sada pravidel pro případ, že by AI dosáhla opravdu velmi vysoké inteligence. Roger MacBride Allen je například doplnil o klauzuli, která roboty z otroků mění na spíše podřízené, ale jinak je v podstatě osvobozuje, pokud dodržují původní zákony.

To, co spojuje nové i staré robotické zákony je představa, že se robot nesmí obrátit proti člověku. Představa robotů, ohrožujících existenci lidstva, najdeme ostatně už i v Čapkově dramatu R.U.R. z roku 1920.

Proč nesmíme stavět autonomní válečné roboty
i Zdroj: PCTuning.cz


"" by Unknown, uploaded to ar.wiki by ar:المستخدم:Classic 971 on

13 July 2006

,
to en.wiki by en:User:Rocketmagnet on

4 December 2007

, to commons by User:Sreejithk2000 on

2 June 2010

- http://www.umich.edu/~engb415/literature/pontee/RUR/RURsmry.html
(via and ).
Licensed under Public Domain via Wikimedia Commons.

Při čtení tohoto díla je ale celkem jasně vidět, že jde spíš o sociální kritiku, podobně jako u filmu Metropolis Fritze Langa z roku 1927. V podstatě tu máme kolizi zotročených mas a pohodlných elit a nastupující proletářsko-robotí revoluce. Najdeme tam více paralel k Sovětskému Rusku a Republikám rad, než k dystopické vizi budoucnosti jako z Blade Runnera, kde se roboti chtějí pomstít svému tvůrci za zotročení.

Předchozí
Další
Reklama
Reklama

Komentáře naleznete na konci poslední kapitoly.

Reklama
Reklama