OpenAI ističe tri konstante koje sada vode ponašanje modela u osetljivim situacijama. Prvo, ton odgovora je eksplicitno empatičan i neosuđujući: cilj je da se emocije korisnika prepoznaju i validiraju umesto da se umanjuju ili relativizuju. Drugo, ChatGPT nudi konkretne i bezbedne korake koji se mogu preduzeti odmah — od jednostavnih tehnika smirivanja do predloga kome i kako se obratiti za pomoć. Treće, kada postoji rizik (npr. pominjanje suicida, planova samopovređivanja ili simptoma akutne psihoze), model brže i jasnije upućuje korisnike ka ljudskoj podršci: porodici, prijateljima, lokalnim službama i stručnjacima.
Promene nisu samo „u glavi“ modela, već i u proizvodu. Uvedeno je vidljivije isticanje kriznih kontakata, kao i diskretni podsetnici da se prave pauze tokom dugih sesija, jer iscrpljenost lako produbljuje anksioznost. U pozadini, postoji i rutiranje: razgovori koji ulaze u rizične okvire preusmeravaju se na profil ponašanja modela podešen na veću opreznost i strožu usklađenost sa pravilima.
Središnja inovacija je saradnja sa kliničarima. Stotine lekara i psihologa učestvovale su u kreiranju „idealnih“ odgovora i evaluacija, kako bi se izbegle dve klasične zamke: hladna, birokratska poruka koja deluje kao odbijanje, i suviše „intimno“ savetovanje koje može da sklizne u nebezbedne preporuke. Rezultat je balans: ChatGPT ne glumi terapeuta, ali ume da prepozna kritične signale, da ostane uz korisnika u teškom trenutku i da predloži realne, lokalno smislenije korake, objavio je OpenAI.
OpenAI naglašava i transparentnije praćenje napretka. Umesto generičkih obećanja, objavljuju se bazne brojke i poređenja verzija modela na skupovima koji simuliraju krizne scenarije. Poruka je jasna: reč je o retkim, ali visokorizičnim razgovorima, u kojima i mali pad učestalosti pogrešnih odgovora može da znači veliku razliku u praksi.



