Gyilkost csinált egy ártatlan emberből a ChatGPT

Több mint két év telt el azóta, hogy a ChatGPT berobbant a világszínpadra, és bár az OpenAI sok tekintetben előrelépett, még mindig van néhány komolyabb hibája. Az egyik legnagyobb probléma: a hallucinációk, vagyis a hamis információk tényként való feltüntetése. Most a Noyb osztrák érdekvédelmi csoport már másodszor nyújtott be panaszt az OpenAI ellen ilyen hallucinációk miatt, megnevezve egy konkrét esetet, amikor a ChatGPT állítólag - és tévesen - azt állította, hogy egy norvég férfi gyilkos.
Hogy a helyzetet valahogy még rosszabbá tegye, amikor ez a férfi megkérdezte a ChatGPT-t, hogy mit tud róla, az állítólag azt állította, hogy 21 év börtönre ítélték, mert megölte két gyermekét, és megpróbálta megölni a harmadikat. A hallucinációt valódi információkkal is megszórta, többek között a gyermekei számával, nemükkel és a szülővárosának nevével.
Noyb azt állítja, hogy ezzel a válasszal az OpenAI megsértette a GDPR-t. „A GDPR egyértelmű. A személyes adatoknak pontosnak kell lenniük. Ha pedig nem azok, a felhasználóknak joguk van ahhoz, hogy megváltoztassák azokat, hogy a valóságnak megfeleljenek” – jelentette ki Joakim Söderberg, a Noyb adatvédelmi ügyvédje. „A ChatGPT felhasználóinak egy aprócska nyilatkozatot mutatni arról, hogy a chatbot hibázhat, nyilvánvalóan nem elég. Nem lehet csak úgy hamis információkat terjeszteni, és a végén hozzáadni egy kis disclaimer-t, hogy minden, amit mondott, lehet, hogy éppen nem igaz...”.
A ChatGPT hallucinációinak egyéb figyelemre méltó esetei közé tartozik, hogy egy férfit csalással és sikkasztással, egy bírósági tudósítót gyermekbántalmazással, egy jogászprofesszort pedig szexuális zaklatással vádoltak meg, amint arról több kiadvány is beszámolt.
Noyb első panasza az OpenAI-hoz a hallucinációkról, 2024 áprilisában, egy közszereplő pontatlan születési dátumára összpontosított (tehát nem gyilkosság, de akkor is pontatlan). Az OpenAI visszautasította a panaszos kérését, hogy törölje vagy frissítse a születési dátumát, arra hivatkozva, hogy nem tudja megváltoztatni a rendszerben már meglévő információkat, csak letiltja azok használatát bizonyos kéréseknél. A ChatGPT eddig egy nyilatkozattal válaszolt a megkeresésre, mely szerint „előfordulhatnak hibák”.
Igen, van ebben a témában több mondás is, például, hogy mindenki hibázik, ezért tesznek radírt a ceruzára. De amikor egy hihetetlenül népszerű, mesterséges intelligenciával működő chatbotról van szó, vajon tényleg érvényes ez a logika? Mindenesetre érdekes kérdés, hogy az OpenAI reagál-e és hogyan reagál Noyb legújabb panaszára.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!