A rohamosan fejlődő ChatGPT és riválisai a vállalatok működését is hatékonyabbá tehetik, ugyanakkor adatvédelmi és adatbiztonsági kockázatokat is felvetnek. Erről ír hasznos összeállítást a Biztonságportál.
A nagy nyelvi modellek (LLM), például a ChatGPT képesek értelmezni és megválaszolni a felhasználók kérdéseit. Azonban minden alkalommal, amikor kapcsolatba lépünk egy ilyen rendszerrel, vagy akár az azokra épülő chatbotokkal, és információt kérünk, akkor fennáll a veszélye, hogy érzékeny adatokat osztunk meg. Éppen ezért lehet, hogy míg egyes cégek kifejezetten támogatják, addig mások tiltják a ChatGPT használatát a munkahelyi eszközökön.
Az ESET kutatói felhívták a figyelmet arra, hogy amikor egy chatbotnak kérdést teszünk fel, akkor a beírt adatok “nyilvánossá” válhatnak. Ez persze nem jelenti azt, hogy a rendszerek azonnal felhasználnák a tőlünk megszerzett információt másnak adott válaszokhoz. Az LLM szolgáltató vagy partnerei azonban hozzáférhetnek ezekhez az adatokhoz, és beépíthetik a technológia következő verzióiba. Ezen aggályok miatt az OpenAI, a ChatGPT mögött álló vállalat bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a felhasználói adatokat az OpenAI a mesterséges intelligencia modelljeinek tanítására és fejlesztésére használja fel.