Felhasználói információkat is látnak a szövegátírók.

Az elmúlt hetekben kétszer is botrány tört ki a hangasszistensek környékén, miután kiderült, hogy az Amazon Alexa és a Google Asszisztens által rögzített felvételek egy kis százalékába belehallgatnak a vállalatok szerződéses partnerei. Ez olyan esetekben történik meg, mikor az asszisztensek parancsra vagy véletlenül aktiválódnak, de nem képesek értelmezni a beszélő által mondott szöveget. A felvételeket megpróbálják hallás után leírni a dolgozók, így tanítva a beszédfelismerő rendszereket.

Forrás: Apple

A The Guardian beszámolója szerint a riválisokhoz hasonlóan az Apple is igénybe veszi ezt a módszert a Siri tanítására, és a sejthetőnek megfelelően gyakran téves aktiválások hangfelvételei jutnak el a szövegleírással foglalkozókhoz. Állítólag még cipzárok felhúzása is képes véletlenül aktiválni az asszisztenst, nem csak a „Hey, Siri" utasításhoz hasonló zajok keltik fel tévesen.

Az anonim forrás szerint rengeteg olyan felvétel van, amelyek során orvosok és páciensek közti beszélgetésekbe, tárgyalásokba, valószínűleg bűncselekményekbe, vagy szexbe hallgatnak bele a szövegleírással foglalkozók.

Ez várható volt, az ügyet az teszi igazán kellemetlenné, hogy a forrás szerint az Amazontól és a Google-től eltérően az Apple nem anonimizálja teljesen a felvételeket, így a szövegleírók látják például a felhasználók

egyes kapcsolattartási információit, továbbá a felvételek keletkezésének földrajzi koordinátáit is.

Az Apple tájékoztatása szerint a szövegátírók nem látják a felhasználók Apple ID-jét, naponta pedig a Siri által rögzített felvételek kevesebb, mint egy százalékába hallgatnak bele. Emellett persze titoktartási szerződést is alá kell írniuk, nem beszélhetnek a felvételeken hallottakról.

Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!