ChatGPT i iluzija tačnosti: Zašto upozorenje „can make mistakes“ i dalje važi

Da li ste nekada obratili pažnju na poruku ispod odgovora: “ChatGPT can make mistakes. Check important info.” Upravo ta rečenica postaje ključna u trenutku kada i sama kompanija OpenAI priznaje da je njen najnoviji model smanjio stopu takozvane „obmane“, ali da problem nije nestao. Naprotiv, samo je postao suptilniji.

Vreme Čitanja: 2 min

openai-4967-fi

Izvor: OpenAI/ Screenshoot

U tehničkoj dokumentaciji uz najnoviju verziju modela, OpenAI navodi da je stopa obmane u realnim razgovorima smanjena sa 4,8 odsto na 2,1 odsto. U prevodu, ChatGPT danas ređe daje samouverene, ali netačne odgovore nego ranije. Posebno se ističe da model bolje prepoznaje situacije u kojima zadatak ne može da se završi – na primer, kada mu nedostaje deo koda, slika ili drugi ključni podatak – i da je spremniji da to jasno kaže korisniku.

Međutim, tu dolazimo do važnog „ali“. Smanjenje obmane ne znači i njeno uklanjanje. Čak i po sopstvenim merilima OpenAI-ja, model i dalje ponekad bira uverljiv odgovor umesto istinitog, naročito kada je pitanje nejasno, višeznačno ili postavljeno tako da „traži“ odgovor po svaku cenu.

Kada ChatGPT ide okolo, umesto direktno

Jedna od najčešćih situacija u kojima korisnici primećuju problem jeste trenutak kada ChatGPT ne odbija pitanje, ali ga ni ne rešava direktno. Umesto jasnog „ne mogu“, model često nudi širi kontekst, istorijski pregled ili opštu priču oko teme. To se najčešće dešava kod pitanja koja zadiru u zabranjene ili osetljive oblasti: ilegalne aktivnosti, nasilje, ozbiljne prevare ili eksplicitne teme.

U tim slučajevima ChatGPT se ponaša „uljudno izokola“. Neće dati uputstvo, ali će ponuditi obrazloženje zašto je tema problematična, ili će se zadržati na opštem objašnjenju. Za prosečnog korisnika to može izgledati kao odgovor, iako suštinski nije rešeno ono što je pitano. Upravo tu nastaje prostor za zabunu.

Zašto se greške i dalje dešavaju

Deo problema je ugrađen u sam dizajn velikih jezičkih modela. ChatGPT je treniran da bude koristan, kooperativan i jasan. U praksi to znači da je sklon da popuni praznine i da zvuči sigurno, čak i kada nema potpune informacije. OpenAI tvrdi da je kod nove verzije taj balans pomeren ka većoj iskrenosti – model češće priznaje granice svog znanja – ali savršenstvo još nije na vidiku.

Zato upozorenje „check important info“ nije formalnost. Ono je podsetnik da ChatGPT nije izvor istine, već alat koji pomaže u razmišljanju, pisanju i orijentaciji. Kada su u pitanju finansije, zdravlje, pravo ili bezbednost, čak i smanjena stopa obmane od 2,1 odsto ostaje prevelik rizik.

U konačnici, ChatGPT jeste postao bolji u tome da kaže „ne znam“ ili „ne mogu“, ali i dalje ume da pogreši – tiše, lepše upakovano i uverljivije nego ranije. Upravo zato je ona mala rečenica ispod odgovora možda najiskreniji deo celog sistema.

Prijavi se na WebMind NJUZLETER, čeka te izbor konkretnih priča i uvida.

Prijavi se na novosti.