Prema njihovoj analizi, iako ChatGPT može biti koristan za planiranje putovanja, učenje jezika ili pisanje programskog koda, ima ozbiljna ograničenja kada je reč o osetljivim, ličnim ili pravno i medicinski važnim temama.
Postavljanje zdravstvenih dijagnoza
ChatGPT se ne bi smeo koristiti za postavljanje dijagnoze simptoma jer postoji rizik od pogrešnih ili alarmantnih odgovora. AI ne može da pregleda pacijenta niti da naruči laboratorijske analize, a greške mogu izazvati nepotrebnu paniku ili odlaganje prave medicinske pomoći.
Mentalno zdravlje
Kao zamena za terapeuta, ChatGPT nije pouzdan jer ne poseduje empatiju, iskustvo ni profesionalnu licencu. AI može ponuditi osnovne tehnike smirivanja, ali ozbiljnije mentalne krize zahtevaju stručnu ljudsku pomoć i odgovornost koju AI nema.
Hitne bezbednosne situacije
U hitnim slučajevima, poput curenja gasa ili požara, ChatGPT ne može da detektuje opasnost niti da pozove hitnu službu. Svaki sekund proveden u kucanju upita može ugroziti bezbednost.
Poresko i finansijsko planiranje
Iako može objasniti osnovne pojmove, ChatGPT ne zna finansijske detalje korisnika niti je upoznat sa ažurnim poreskim zakonima. Zbog toga ne može zameniti kvalifikovanog knjigovođu ili finansijskog savetnika.
Rukovanje poverljivim podacima
Poverljivi podaci, poput medicinske dokumentacije ili poslovnih ugovora, ne bi trebalo da se unose u ChatGPT, jer se podaci šalju na servere trećih strana, čime mogu postati deo obuke AI modela ili meta bezbednosnih pretnji.
Izvođenje ilegalnih radnji
Korišćenje AI alata za bilo šta nezakonito je očigledno neprihvatljivo i protivzakonito, pa je izlišno to detaljno objašnjavati.
Varanje na ispitima i zadacima
Sve više obrazovnih institucija koristi alate za prepoznavanje AI generisanog sadržaja. Stručnjaci upozoravaju na to da varanje pomoću ChatGPT-a nosi rizik od suspenzije, gubitka diplome ili profesionalne licence.
Praćenje aktuelnih vesti i informacija u realnom vremenu
Iako ChatGPT sada ima mogućnost da pretražuje internet, ne ažurira podatke automatski, već svaki novi upit zahteva ručni unos. Za hitne vesti, zvanični izvori i mediji ostaju pouzdaniji.
Kockanje
ChatGPT se ne može koristiti kao garant za tačne sportske prognoze ili klađenje jer AI može da „halucinira“ netačne podatke o statistikama ili povredama igrača.
Pisanje testamenta ili drugih pravnih dokumenata
Pravno obavezujući dokumenti moraju biti usklađeni s lokalnim zakonima. ChatGPT ne može garantovati pravnu validnost teksta niti proveriti sve uslove koje zakon propisuje.
Stvaranje umetnosti
Kao poslednju preporuku, autori teksta navode lični stav da se AI ne bi trebalo koristiti za stvaranje umetničkih dela koja se potom potpisuju kao originalna. ChatGPT može pomoći u fazi ideja, ali ne bi trebalo da bude zamena za ljudsku kreativnost.
Na kraju, CNET podseća da je njihova matična kompanija „Ziff Davis“ u aprilu podnela tužbu protiv OpenAI-a, upravo zbog navodnog korišćenja njihovih autorskih materijala za obuku modela. Ovo dodatno potvrđuje važnost opreznog odnosa prema unosu osetljivih i originalnih sadržaja u veštačku inteligenciju.



