Megint a bíróságon használták a ChatGPT-t, nagy hiba volt

ChatGPT
Vágólapra másolva!
Az Avianca kolumbiai légitársaság ellen indított perben egy beadvány hat olyan esetre hivatkozott, amelyek nem léteznek, de a felperesnek dolgozó ügyvéd azt mondta a bíróságnak, hogy a ChatGPT szerint ezek valódiak.
Vágólapra másolva!

A kolumbiai Avianca légitársaságot perlő ügyvédek egy olyan korábbi ügyekkel teli beadványt nyújtottak be, amelyeket a ChatGPT csak kitalált - írta meg a The New York Times. Miután az ellenérdekű ügyvédek rámutattak a nem létező ügyekre, Kevin Castel amerikai kerületi bíró megerősítette: "A benyújtott ügyek közül hat hamis bírói döntésnek tűnik, hamis idézetekkel és hamis belső hivatkozásokkal", és meghallgatást rendelt el, mivel szankciókat fontolgat a felperes ügyvédjei számára.

ChatGPT Forrás: Search Engine Journal

Steven A. Schwartz ügyvéd eskü alatt tett nyilatkozatában elismerte, hogy kutatásaihoz az OpenAI chatbotját használta.

Az esetek ellenőrzésére azt a nem túl ésszerű módszert találta ki, hogy megkérdezte a chatbotot, hogy hazudik-e.


Amikor pedig a forrás után érdeklődött az ügyvéd, a ChatGPT ragaszkodott ahhoz, hogy az ügy valós, mondván, hogy megtalálható a Westlaw és a LexisNexis oldalakon. Ekkor az ügyvéd elégedetten megkérdezte, hogy a többi ügy hamis-e, mire a ChatGPT fenntartotta, hogy mindegyik valódi.

Az ellenérdekű fél fájdalmas részletességgel hívta fel a bíróság figyelmét a kérdésre, amikor elmesélte, hogy a Levidow, Levidow & Oberman ügyvédek beadványa egy hazugságokkal teli beadvány volt. Az egyik példában, a Varghese v. China Southern Airlines Co., Ltd. nevű, nem létező ügyben a chatbot látszólag egy másik valós ügyre, a Zicherman v. Korean Air Lines Co., Ltd.-re hivatkozott, de a dátumot (és más részleteket) tévesen adta meg, azt állítva, hogy az eredeti, 1996-os döntés után 12 évvel később született.

Schwartz azt mondja:

Ez ismét rávilágít arra az abszurditásra, hogy a chatbotokat kutatásra használják anélkül, hogy máshol kétszer (vagy háromszor) ellenőriznék a forrásaikat, hiszen ezek a rendszerek még nagyon gyerekcipőben totyognak. Jó példa erre a Microsoft Bing debütálása mára hírhedté vált a pofátlan hazugságokkal és érzelmi manipulációval. Vagy a Bard, a Google AI chatbotja, ami az első bemutatójában kitalált egy minen alapot nélkülöző tényt a James Webb űrteleszkópról. A Bing még azt is hazudta, hogy a Bardot leállították tavaly márciusban. Szóval csak óvatosan ezekkel a rendszerekkel!

Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!