A mesterséges intelligencia veszélyt jelenthet a közbiztonságra

Sam Altman
Vágólapra másolva!
Fórumot hoz létre az OpenAI, a Microsoft, a Google és az Anthropic a biztonságos és felelős AI-fejlesztés érdekében.
Vágólapra másolva!

Az OpenAI, a Microsoft, a Google és az Anthropic egy olyan fórumot hoznak létre, amelynek célja, hogy támogassa a biztonságos és felelős AI-fejlesztéseket. Összehangolják a biztonsági kutatásokat és a legjobb gyakorlatokat, főleg az olyan AI-modelleknél, amelyek túlmutatnak a jelenleg létezők képességein.

Sam Altman Forrás: The New York Times

Minderre azért van szükség, mert olyan sokoldalú és sokat ígérő modellekről van szó, amely iparági vezetők szerint komoly kockázatot jelent a közbiztonságra is. Ezeket a technológiákat ugyan sok mindenre fel lehet használni, de az USA, az EU és sok AI-vezető attól tartanak, hogy igen komoly kockázatokat rejtenek, ezért mielőbbi szabályozásokat sürgetnek. Kanada szerint pedig lehangoló, hogy mire használják az emberek az AI-t (várható módon zsarolásra, csalásra, átverésre, adatlopásra).

A Microsoft elnöke szerint az AI-t fejlesztő cégek felelősségre biztosítani, hogy a technológia biztonságos és emberi irányítás alatt marad. A fórum a hatóságokkal és szakemberekkel is együtt dolgozik majd, információkat is megoszt – de lobbitevékenységet nem végez.

Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!