Gyilkos robotok ellen tiltakoznak a jogvédők

2012.11.21. 12:13

Az autonóm gyilkos robotok fejlesztésének és használatának felhagyására szólította fel az ilyen fegyverekkel rendelkező országokat a Human Rights Watch nemzetközi emberi jogi szervezet.

A HRW és a Harvard egyetem jogi karának emberi jogokkal foglalkozó szervezetének közös jelentése nyugtázza, hogy száz százalékosan autonóm fegyverrendszerek még nincsenek, ám a tanulmány szerzői szerint a trendek arra mutatnak, hogy ezek a fegyverek létrejöjjenek.

Az ilyen automatizált fegyverrendszer nem rendelkezne azzal az emberi felügyelettel, ami betartaja a civileket védő törvényi és azon túli szabályokat. A Human Rights Watch szerint a teljesen automata fegyverek pusztító hatással lesznek a világra. A szervezet szerint ezeket a fejlesztéseket addig kell leállítani, "amíg nem lesz túl késő". A szervezet fegyverügyi szakértője szerint nem szabad a gépek kezébe adni a döntést, hogy ki élhet a csatamezőn és kit lehet lelőni. A civil áldozatok számának alacsonyan tartásához elengedhetetlen a HRW szerint az emberi felügyelet.

A HRW szerint az "Emberiesség elveszése: A gyilkos robotok ellen" című tanulmányuk az első ilyen témában született írás egy nem kormányati szervezettől. A csoport olyan nemzetközi szerződést látna szívesen, amely megtiltja a robotgépek fejlesztését és felhasználását. "Elsőrendű fontosságú, hogy azelőtt tiltsuk be a gyilkos robotokat, mielőtt megjelennek a nemzeti hadseregek arzenáljaiban. Ahogy az országok egyre többet fektettek a technológiába, nehezebb lesz őket lebeszélni róla" - mondta Steve Goose, a HRW fegyverekkel foglalkozó szárnyának vezetője.

A jelenlegi drónok félautomata működésre képesek. Önálló repülésre képesek, beprogramozott pályát képesek tartani, a fegyverek kilövéséhez azonban emberi engedélyre van szükségül. Még a Dél-Korea és Izrael által használt robotgéppuskák is a bázishoz fordulnak engedélyért, ha mozgást észlelnek. A HRW attól tart, hogy a jövő rendszerenek megadják a lehetőséget, hogy saját hatáskörükben döntsenek.