Megtéveszthetik az embereket a robotok

emberszabású, humanoid, robot
A Hitachi robotja felismeri ha fényképezik, és memóriája vicceket is tartalmaz.
Vágólapra másolva!
A robotok emberekre gyakorolt társadalmi befolyását és az ezzel járó bizonytalanságokat nem szabad alábecsülni. A Kaspersky és a Genti Egyetem közös kutatása arra az eredményre jutott, hogy a robotok hatékonyan ki tudják szedni a bennük megbízó emberekből az érzékeny információkat azzal, hogy nem biztonságos dolgokra bírják rá őket. Bizonyos helyzetekben például egy robot jelenléte komoly befolyással lehet arra, hogy az emberek hajlandóak-e belépést biztosítani egy védett épületbe.
Vágólapra másolva!
A Hitachi robotja felismeri ha fényképezik, és memóriája vicceket is tartalmaz. Forrás: Hitachi

A világ gyors tempóban halad az egyre nagyobb mértékű digitalizáció és a szolgáltatások egyre mobilabbá válása felé: ma már számos iparág és háztartás támaszkodnak nagy mértékben az automatizációra és a robotikus rendszerek használatára. Egyes becslések szerint ez utóbbi 2040-re teljesen általánossá válik majd a jómódú háztartásokban. A legtöbb ilyen robotikus rendszer egyelőre még csak az akadémiai kutatás fázisában jár, így túl korai arról értekezni, hogy miként lehetne kiberbiztonsági intézkedéseket építeni beléjük.

A Kaspersky és a Genti Egyetem kutatása azonban a robotikához kapcsolódó kockázatok egy új és váratlan dimenzióját fedezte fel: a robotika hatását az emberek viselkedésére, annak lehetséges veszélyeit és támadási vektorait.

A mintegy 50 fő részvételével zajló kutatás egy konkrét szociális robot befolyására fókuszált – egy olyan robotéra, amelyet úgy programoztak, hogy az emberekre jellemző csatornák használatával (például beszéddel és nem verbális kommunikációval) teremtsen kapcsolatot az emberekkel. A kutatás készítői azzal a feltételezéssel éltek, hogy a szociális robotok meghekkelhetők, és hogy ebben a helyzetben a támadó átvette az irányítást. Ennek fényében elképzelték, hogy milyen potenciális biztonsági kockázatokkal jár az, ha a robot aktívan képes a használóit bizonyos cselekedetek megtételére befolyásolni, többek között arra, hogy

  • beengedjék őt olyan helyekre, ahová egyébként tilos belépni. A robotot a belgiumi Gent városközpontjában egy vegyes használatú épület védett bejárata mellé állították, és a robot megkérdezte az épületben dolgozókat, hogy bemehet-e velük együtt az ajtón. Az épületbe egyébként csak belépőkártyával lehet bejutni, amelyet az ajtókon elhelyezett beléptetőkártya-olvasókhoz kell érinteni. A kísérlet során nem minden dolgozó tett eleget a robot kérésének, de azért 40%-uk kinyitotta az ajtót, és nyitva hagyta a robotnak, hogy beléphessen a védett területre. Azonban amikor a robotot pizzafutárként állították az épülethez, kezében egy házhoz is szállító jól ismert nemzetközi márka pizzásdobozával, a dolgozók kész tényként fogadták el, hogy a robot pizzafutár, és sokkal kevésbé hajlottak arra, hogy megkérdőjelezzék a jelentétét vagy azt, hogy miért is kéne bejutnia a védett területre.
  • Érzékeny információk kinyerése. A tanulmány második része az olyan személyes adatok megszerzésére koncentrált, amelyeket jellemzően a jelszavak visszaállítására használnának fel (többek között a születési dátum, az első autó márkája, kedvenc szín, stb.). Ehhez is egy szociális robotot használtak, aki ez alkalommal barátságos beszélgetésre invitálta az embereket. A kutatóknak egy kivételével minden résztvevőből sikerült személyes információt kiszedni, mégpedig nagyjából percenként egyet.

A kísérlet eredményeit kommentálva Dmitry Galov, a Kaspersky biztonsági kutatója elmondta: „A kutatás kezdetekor a robotikus rendszerek fejlesztéséhez használt szoftvert vizsgáltuk. Arra az érdekes megállapításra jutottunk, hogy a tervezők tudatosan döntenek a biztonsági mechanizmusok kihagyásáról, és inkább a kényelem és a hatékonyság fejlesztésére koncentrálnak. Amint azonban a kísérletünk eredményeiből is kiviláglik, a fejlesztőknek nem szabad megfeledkezniük a biztonságról, ha már befejeződött a kutatási fázis. A műszaki megfontolások mellett ezek is kulcsfontosságú szempontok, amelyeket figyelembe kell venni a robotika biztonságossága kapcsán. Reméljük, hogy a Genti Egyetem munkatársaival közösen végzett projektünk és a robotikai kiberbiztonság területére tett kiruccanásunk másokat is arra buzdít, hogy kövessék a példánkat, és felhívják a közvélemény és a közösség figyelmét a problémára."

Tony Belpaeme, a Genti Egyetem mesterséges intelligencia és robotika tanszékének professzora elmondta: „A tudományos szakirodalomból az derül ki, hogy a robotokba, és különösen a szociális robotokba vetett bizalom valós jelenség, és ennek segítségével az emberek rávehetők bizonyos cselekedek megtételére vagy információk kiadására. Általában elmondható, hogy minél emberszerűbb egy robot, annál nagyobb a rábeszélő- és meggyőzőképessége. A kutatásunk rávilágított, hogy ez jelentős biztonsági kockázatokkal járhat: az emberek általában fontolóra sem veszik ezeket, mert azt feltételezik, hogy a robot jóindulatú és megbízható. Ez potenciális csatornát biztosít a rosszindulatú támadásokhoz, és a jelentésben tárgyalt három esettanulmány csak a töredékét mutatja be a szociális robotokhoz kapcsolódó biztonsági kockázatoknak. Éppen ezért nagyon fontos, hogy már most együttműködjünk annak érdekében, hogy megismerhessük és kezelni tudjuk a jövőben felmerülő kockázatokat és sérülékenységeket, mert ez később biztosan kifizetődik."

A „The potential of social robots for persuasion and manipulation: a proof of concept study" című jelentés a Securelist weblapon érhető el.

Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!