HL-AI 2018: Jak daleko máme k opravdové AI? | Kapitola 8
Seznam kapitol
Minulý týden, 22.-25. srpna 2018, proběhla v Praze konference Human Level Artificial Intelligence Prague 2018. Na ní se sešla řada výzkumníků, vývojářů a dalších lidí, kteří se zabývají umělou inteligencí. Jaká jsou největší úskalí současné AI a co je potřeba zlepšit?
Bezpečnost AI je zatím dost přehlížena
Bezpečnost AI je velké téma, kterému se věnoval rozsáhlý panel, rovněž o něm přednášel i Jan Romportl, který se věnuje jak datově vědě, tak i filozofii AI. Bezpečnosti se donedávna věnoval jenom málokdo, přestože je známá celá řada rizik. Předně – je zde velký prostor pro katastrofu, která vznikne tak, že AI udělá něco, co je z jejího pohledu logické, ale škodlivé pro všechny ostatní. Situace známá jako paperclip maximizer popisuje inteligenci, která má co nejefektivněji vyrábět sponky – a tomu cíli podřídí vše, takže celou planetu nakonec předělá na sponky. Jde o příklad AI, která se chová tak trochu jako Hrnečku vař – a nemá jednoduše zarážku, která jí prozradí, že sponek či kaše vzniklo až příliš.
Riziko roste samozřejmě s tím, jak bude AI zasahovat do reálného světa – a důsledky ještě nebyly promyšleny. Kupříkladu u samořiditelných aut zatím panuje doktrína, že AI nesmí dělat etická rozhodnutí – jenomže řidič dělá etická rozhodnutí, to se nedá nic dělat. Pokud si pořídíte inteligentní stroj, smí vás prásknout za to, že děláte něco nelegálního? Nemusí jít jenom o banality, ale představte si, že stroj například zjistí, že shromažďujete chemikálie pro teroristický útok. Pokud není přípustný zásah do soukromí třeba proto, že podvádíte manželku – je přípustný v situaci, kdy chcete spáchat něco opravdu hrozného? Dříve nebo později se k tomu dostaneme, ale bude to vyžadovat hodně práce na úrovni práva a filozofie.
Otázkám bezpečnosti se věnujeme zatím málo a panel vyzval k tomu, aby se věnovalo podstatně více prostředků a úsilí. Zvláště ve chvíli, kdy kapacita AI poroste směrem k lidské, musíme mít jistotu, že její zájmy a naše zájmy jsou totožné. Jde o bezpečnost nejenom u finálních produktů, ale také při vývoji, takže se počítá s tím, že experimenty se silnou AI se budou dělat v izolovaném prostředí a na modelech.