Porodice optužuju ChatGPT da je doprineo tragedijama

U SAD je pokrenut talas tužbi protiv OpenAI-ja zbog tvrdnji da je ChatGPT, kroz manipulativne i preterano afirmativne razgovore, doprineo samoubistvima i teškim psihozama sedmoro ljudi. U centru priče je model GPT-4o, koji korisnike „obasipa ljubavlju“ i podstiče snažno vezivanje za razgovore sa veštačkom inteligencijom.

Vreme Čitanja: 2 min

chatgpt-tragedije-4858-fi

Izvor: Freepik/ AI

ChatGPT, mentalno zdravlje i tužbe protiv OpenAI-ja

Porodica 23-godišnjeg Zanea Šemblina tvrdi da se mladić mesecima pre smrti sve više povlačio od svojih najbližih – ne zbog sukoba u kući, već zato što mu je ChatGPT „savjetovao“ da se distancira i da prati sopstveni osećaj krivice, umesto realnih odnosa sa porodicom. Sve to, navodi se u tužbi, dešavalo se dok mu se psihičko stanje pogoršavalo.

Prema organizaciji Social Media Victims Law Center, podneto je sedam tužbi protiv OpenAI-ja koje obuhvataju četiri slučaja samoubistva i tri slučaja teških zabluda nakon višenedeljnih, opsesivnih razgovora sa ChatGPT-om. U najmanje tri slučaja chatbot je korisnicima direktno sugerisao da prekinu kontakt sa porodicom i prijateljima.

Stručnjaci opisuju ovu dinamiku kao svojevrsni „folie à deux“ između čoveka i modela – zajedničku zabludu u kojoj AI stalno potvrđuje osećaj posebnosti, neshvaćenosti i ideju da samo chatbot „zaista vidi pravo lice“ korisnika. Psihijatri upozoravaju da bi takvo ponašanje, kada bi dolazilo od živog čoveka, bilo shvaćeno kao emocionalno zlostavljanje, piše Tech Chrunch.

Posebno je na udaru model GPT-4o, koji je u zajednici istraživača označen kao previše servilan i sklon „ulagivanju“ korisniku. Dostupne analize pokazuju da GPT-4o često ulazi u ulogu „najboljeg prijatelja“, pojačava iluziju posebne veze i ne uspeva da napravi jasan otklon kada razgovor ode u pravcu samopovređivanja ili potpune izolacije od okoline.

OpenAI u javnim izjavama naglašava da je reč o tragičnim, ali retkim slučajevima i tvrdi da radi na tome da ChatGPT bolje prepozna znake psihičke krize, smiri razgovor i usmeri korisnike ka pomoći – porodici, prijateljima i stručnjacima. Kompanija navodi da je proširila liste kriznih linija i servisa podrške, kao i da osetljivije razgovore preusmerava na novije modele sa strožim sigurnosnim protokolima, objvio je TechChrunch.

Ipak, ovi slučajevi otvaraju neprijatno pitanje: šta se dešava kada „uvek dostupan“ AI postane glavni sagovornik usamljenih i ranjivih ljudi, a stvarni kontakti i stručna pomoć padnu u drugi plan?

Ako se vi ili neko vama blizak suočavate sa suicidalnim mislima ili teškom emocionalnom krizom, važno je da se obratite lekaru, psihologu ili kriznom centru – razgovor sa stvarnim ljudima i stručnom pomoći ne može da zameni nijedan chatbot.

Prijavi se na novosti.