Terminátor a ti druzí
Zakáže OSN roboty zabijáky dřív, než bude pozdě?
16.05.2014 09:39 Původní zpráva
Terminátor, Matrix, Blade Runner, Transformers, Číslo pět žije či Hvězdné války... Významná část hollywoodských sci-fi trháků staví na konfrontaci se zabijáckými roboty, droidy, androidy, kyborgy, prostě stroji. A málokdy se odehrávají v budoucnosti, která by pro lidstvo byla příjemná. Může se vývoj skutečně ubírat takovým směrem? Odborníci v těchto dnech v rámci OSN diskutují, zda by se roboti-zabijáci neměli rovnou zakázat mezinárodní smlouvou, než bude pozdě.
V posledních letech se hovoří zejména o bezpilotních letounech - dronech, z nichž ty největší mají palebnou sílu srovnatelnou s bitevními vrtulníky; zdaleka však nemusí jít o létající zabijáky známé díky americké válce s terorismem. Například americký pokusný samohyb Crusher na šesti kolech překonává terény, které by lidskou posádku přinejmenším ošklivě pomlátily; vedle nákladu může nosit i kulomety. Roboti se ale ani nemusejí pohybovat - demilitarizované pásmo mezi Korejemi už pokusně hlídají automatické střílny Samsung SGR-A1.
Na dálku je sice řídí lidští operátoři, ale vývoj jde dál a roboti jsou schopni stále větší samostatnosti. Z čistě technického hlediska dříve nebo později budou umět fungovat bez dozoru, a tedy i zabíjet. Nadnárodní nezisková organizace Human Rights Watch (HRW) se tomu snaží předejít, od loňska tak vede proti zabijáckým robotům kampaň. "Vzhledem k nekonečnému množství možných scénářů nemohou být roboti předprogramováni, aby si poradili s každou okolností. Plně automatické zbraně by byly náchylné ke svévolnému zabíjení, kdyby čelily nepředvídaným situacím," argumentuje HRW. "Podle řady robotiků je velmi nepravděpodobné, že by šlo v blízké budoucnosti vyvinout roboty s určitými lidskými kvalitami, jako je úsudek a schopnost rozpoznat lidi."
"U autonomních zbraňových systémů nelze zaručit, že budou předvídatelně dodržovat mezinárodní právo," řekl BBC Noel Sharkey, předseda Mezinárodního výboru pro kontrolu robotických zbraní. Je jedním z expertů, kteří dorazili do Ženevy na konzultace v rámci jednání o Úmluvě o některých konvenčních zbraních (CCW). Úmluva z roku 1980, respektive pět dodatkových protokolů se snaží omezovat takové zbraně, jež mohou způsobovat nadměrné utrpení nebo zasahovat vedle vojáků i civilisty. Například jde o tříštivé a zápalné zbraně, oslepující lasery nebo nástražné miny. Roboti by mohli být dalším dodatkem.
O něco optimističtější náhled na technický vývoj zastává Ronald Arkin z Georgijského institutu technologie. Inteligentní zbraňové systémy by podle něj naopak mohly zredukovat riziko lidské chyby. Jenže to je ještě hudba budoucnosti. "Podporuji moratorium, dokud to nenastane," vysvětlil BBC.
Robota nepotrestáte
I kdyby se riziko chyby snížilo sebevíc, problém je i v odpovědnosti, pokud by k chybě přece jen došlo. "Zbraň samotnou nelze odradit či potrestat, protože stroje nemají schopnost trpět. A pokud nadřízený důstojník, programátor nebo výrobce nenasadí či nevyrobí takovou zbraň s jasným záměrem spáchat zločin, zřejmě neponesou odpovědnost za skutky robotů," varuje HRW.
Před rokem se tomuto právním problému věnoval zvláštní zpravodaj OSN pro mimosoudní popravy a zabíjení Christof Heyns a doporučil prozatím uvalit na vývoj a výrobu automatických zabijáků moratorium. K němu zatím nedošlo, ale o věci se alespoň diskutuje na mezivládní úrovni a některé strany se snaží mírnit obavy. Americké ministerstvo obrany například vydalo směrnici, podle níž musí každé rozhodnutí o použití smrtící síly kontrolovat člověk. A ostatně prý ani automatické zbraně nevyvíjí.
Jenže jak napsal server Gizmodo, americké letectvo má potíž se sháněním nových operátorů. I když se zdá pilotování na dálku bezpečné, operátoři trpí podobnými posttraumatickými syndromy jako přímí účastníci bojů. Navíc kariérní postup od počítače nebývá tak rychlý jako v poli. Možná bude jistá autonomie brzy v praxi zapotřebí.
Diskuse
Diskuze u článků starších půl roku z důvodu neaktuálnosti již nezobrazujeme. Vaše redakce.