Most már biztos: Skynet nélkül is elszabadulhatnak a gyilkos robotok

2017.11.28. 21:28

Ami eddig csak látványos akciófilmekben volt látható, vagy tudományos-fantasztikus művekben olvasható, az hamarosan rémisztő valósággá válhat. A technológiai fejlődés őrült tempóban hódít a harcászati eszközök fejlesztésében, miközben ezzel egyidejűleg a hadászati célok is mozgatják azt. Ám mialatt minden egyre okosabbá válik, definíciós vitán múlhat, hogy mely országok hadseregeiben vagy katonai szövetségeiben bukkannak fel először a gyilkos robotok. Amelyek lehet, hogy valójában mesterséges intelligenciák.

Úgy tűnik, nem valamelyik öntudatára ébredő szuperszámítógép, hanem a világpolitika meghatározó szereplőinek konszenzushiánya okozhatja azt, ha mindent letaroló robotok elől kell menekülni - derül ki az AsiaTimes összeállításából. Vagy épp mesterséges intelligenciák elől, amelyek tulajdonképpen nem is robotok, hanem önállóan döntő harci egységek. Bármennyire is más érzés lehet ilyenek elől szaladni, vagy azokkal megküzdeni, mint közönséges harci robotokkal, a problémát nem érdemes elbagatellizálni. Miközben egyes országok egyre több harctéri feladatra gépeket állítanak hadrendbe, addig a nemzetközi közösség évek óta képtelen megegyezni abban, mit minek nevezve lehetne használatát tiltani vagy korlátozni, mindenki számára elfogadható módon.

Már rég nem csak az emberi életet közvetlenül kímélő, bomba-hatástalanító robotokról van szó, a harctéri mesterséges intelligencia ennél nagyságrendileg veszélyesebb játékForrás: Anadolu Agency/2015 Anadolu Agency/Stringer

Idén sem sikerült

Megállapodás nélkül ért véget a múlt héten az ENSZ fegyverkezési szabályozásokkal foglalkozó konferenciája Genfben. A több mint 80 ország küldötte nem tudott egyezségre jutni abban, hogyan is kellene a fegyverek és a fegyverkezés legalapvetőbb fogalmait, jellemzőit meghatározni, egyáltalán, rendszerezni mindazt, amit fegyverek alatt ért és ismer a világ. Ez már 2013 óta így megy, amikor az erre vonatkozó kezdeményezések és egyeztetések elindultak.

A probléma azonban valószínűleg nagyobb, mint egyszerű kudarca a közös szemantika megtalálásának. Miközben nem sikerül dűlőre jutni a meghatározásban, addig mérvadó tudósok szerint ezzel az emberiség saját maga alatt vágja a fát. Ha ugyanis nem jön létre hamarosan konszenzus a nyitott kérdésekben,

a világ vezető katonai hatalmai számára nyitva marad a kapu, hogy saját elképzeléseik szerint robotizálják a harctéri feladatok ellátását,és mind fejlettebb, mesterséges intelligenciával felszerelt fegyverrendszereket fejlesszenek.

Többről van itt szó, mint például az emberi életet kímélő aknahatástalanító robotokról. Pusztító eszközök fejlesztését kellene keretek közé szorítani, ami egyelőre nem akar összejönni a globális világ meghatározó szereplőinek.

A gépek lázadásához egy elhúzódó vita is elég lehetForrás: AFP/Photo12/Archives du 7e Art/C-2 Pictures
Autonóm Halálos Fegyverek – amikor maguktól megnyomják a piros gombot
Angolszász nyelvi környezetben 'lethal autonomous weapons', azaz LAWs névvel és annak rövidítésével illetik azokat a katonai robotokat, amelyek emberi beavatkozás nélkül is képesek kiválasztani és megsemmisíteni célpontjukat. Az évek óta zajló definíciós viták egyik sarokpontja az – röviden –, hogy a jelenlegi technológiák és hadrendbe állított fegyverek mellett, nem lehet egyértelmű határvonalat húzni az önálló/autonóm, illetve az automata rendszerek és eszközök között. A világ harcászata 2016-ban úgy állt, hogy még a legfejlettebb, „legönállóbb" eszközöknél is szükség volt valahol az emberi közreműködésre, általában a csapásmérés vagy támadás megerősítésében. S persze rögtön akad kivétel is: egyes, kizárólag védekezésre kifejlesztett automata rendszereknél már most sem szükséges az emberi közreműködés a feladat végrehajtásához, mégsem tekintik azokat autonómnak.
A nemzetközi közösséget most már az foglalkoztatja, hogy a technológiai fejlődés miatt igen hamar olyan támadórendszerek jelenhetnek meg a harctéren, amelyeknél már szintén nem lesz szükség az emberi beavatkozásra, hanem teljes önállósággal hoznak hadászati és harctéri döntéseket. Ezeket várhatóan olyan fejlesztések hordoznák, amelyeket mesterséges intelligenciának lehet nevezni.

Az országokra van bízva

A definíciós vita neuralgikus pontja ezért tehát az, milyen eszközök fejlesztését, illetve alkalmazását tilthatják a közeli jövőben a nemzetközi megállapodások. A világpolitikai színtéren nehezíti az álláspontok közelítését, hogy a témának vajmi kevés a tudományos referenciája – azaz a döntéshozók a sok más kérdésben biztos fogódzót nyújtó tudományos álláspontokhoz sem tudnak nyúlni.

Föld-levegő rakétarendszer: a védelmi eszközök jelentős része már autonómnak tekinthető, noha működtetésüket úgy alakítják, hogy az emberi közreműködésre még szükség legyenForrás: AFP/Vasily Maximov

Sok ország számára az ad okot az aggodalomra, hogy egyes, feltörekvő ázsiai országokról kiderült, a korábban feltételezettnél vagy jelzettnél jóval előbbre járnak az önállóan harcoló megoldások fejlesztésében. Így aztán – híján a nemzetközi megállapodásoknak –

az egyes országok önállóan döntenek, hogyan szabályozzák az automata, illetve a LAWs rövidítés alá tartozó fejlesztéseket.

Ázsiában például három országról tartják úgy, hogy fejlettsége révén képes LAWs eszközök fejlesztésére és hadrendbe állítására. Ezek közül Dél-Korea az ENSZ-hez 2015-ben beadott állásfoglalásában azt jelezte, mind civil, mind katonai célú robotikai és mesterséges intelligencia fejlesztéseken dolgozik, de a kettőt elkülöníti egymástól. Katonai fejlesztésekre az életek védelme miatt van szüksége Dél-Koreának – állítják. Japán szintén ugyanebben az évben állásfoglalásában azt tette közé, hogy nincs tervük olyan robottechnológiák fejlesztésére, melyek emberi közreműködés nélkül, önállóan kell hogy képesek legyenek életek kioltására.

Orosz fejlesztésű robottank egy bemutatónForrás: Sputnik/Valeriy Melnikov

A harmadik ország Kína, amely 2015-ben 215 milliárd dollárt költött fegyverekre, és azt nyilatkozta, reális annak veszélye, hogy ezek a modern rendszerek képtelenek megkülönböztetni egymástól a civileket és a katonákat. Így óvatosságra szólítják fel az országokat ilyen eszközök használata tekintetében, különösen a civil lakosság védelme miatt. Idén októberben Kína már lágyította két évvel korábbi álláspontját, és azt kérte az országoktól, a LAWs eszközök alkalmazásában is tartsák tiszteletben az ENSZ alapokmányát és a fegyveres konfliktusokra vonatkozó legalapvetőbb szabályokat.

A cikk folytatásában arról olvashat, hogyan áll a kérdéshez a politikai színtéren túl a tudományos és a gazdasági élet néhány szereplője, és miért veszélyes, ha nem lesz hamarosan megállapodás a nyitott kérdésekben. Lapozzon!

Előző
  • 1
  • 2
Következő