Kako se „vaspitava“ ChatGPT?: Kako program uči?
Igranje sa serijama fraza ili ključnih reči (prompts) ChatGPT-a može biti podjednako zabavno i intelektualno izazovno. Ipak, jedno je sigurno: ChatGPT je bez sumnje najnapredniji Al četbot i, imajući u vidu svo uzbuđenje koje je prouzrokovao i uspeo da zadrži, i dobro i loše, zaista je impresivno. Milioni ljudi žele da ga probaju, a rivali žele da ga nadmaše i pobede u trci za najboljeg Al četbota.
Ali kako program koji deluje sposobno da oponaša ljudsku inteligenciju radi?
Chat GPT je najnoviji jezički model kompanije OpenAl, značajno unapređen u odnosu na jezički model iz GPT-3 porodice. Najnovija verzija (GPT-4) može da ponudi različite vrste rezultata, zadrži istu brzinu i preciznost i čak ponudi čitaocima osećaj da ćaskaju sa čovekom umesto slanja zahteva botu i čekanja na odgovor.
Foto ilustracija: Freepik
Ljudi koji stoje iza projekta četbot OpenAl-a oslanjaju se tehnike nadgledanog i pojačanog učenja kako bi ChatGPT postao precizan, prijatan, brz, kreativan i zabavan. Pošto su to atributi koji idu ruku pod ruku sa drugim ljudskim atributima, neki rezultati daju ljudima osećaj da je Al koji se nalazi iza kompjuterskog ekrana svestan i pokušava da osvoji slobodu.
Ipak, uprkos svom uspehu i uloženom trudu, Al botovi, naročito široko rasprostranjen alat kao što je ChatGPT, imaju dosta ograničenja koje izazivaju zabrinutost kod korisnika, a neki od njih uključuju AI pristrasnost , cenzuru sadržaja i bezbednost Al-a. Jedna od najvećih briga odnosi se na to što ovi botovi nisu sami po sebi spremni da služe ljudskom rodu na način na koji smo to mi zamislili.
Mi nismo dostigli tačku na kojoj rezultati koje pruža Al mogu zadržati postojanosti i kreirati rezultate sa neutralne tačke gledišta. Možda nikad neće ni moći. Bez obzira na to, ljudi koji stoje iza ovih projekata treba da nađu način šta da rade sa trenutnim stanjem u kome se nalazi veštačka inteligencija i obezbede alate dostupne javnosti koji će biti nepristrasni i, što je još važnije, bezbedni za sve generacije. To je tačno to što OpenAl obećava da će uraditi pa hajde da procenimo napredak i vidimo da li je cilj uopšte ostvarljiv.
Od našeg pokretanja ChatGPT-ja, korisnici su delili rezultate koje smatraju politički obojenim, uvredljivim i nepoželjnim na neki drugi način. U velikom broju slučajeva, mi smatramo da je njihova zabrinutost opravdana i da su otkrili stvarna ograničenja naših sistema o kojima želimo da govorimo. Takođe smo primetili nekolicinu pogrešnih ideja o tome kako naši sistemi i politike funkcionišu zajedno da oblikuju rezultate koje vam daje ChatGPT.
OpenAI je na ovaj način počeo razgovor o svom Al četbotu u blog postu.
Chat GPT i trening: Opravdanje za primitivnost i pristrasnost ChatGPT-ja?
OpenAI deli trening za ChatGPT u dve kategorije: početna faza (pre-training) i usklađivanje (fine-tuning).
Početna faza uključuje jezičke modele koji predviđaju potencijalne sledeće korake u obimnom skupu podataka. Pa je tako, na primer, ChatGPT možda naučio osnove završavajući rečenice tipa „suprotno od gore je <praznina> ili “Sunce zalazi na <praznina>.” Ova faza bila je od ključne važnosti za ChatGPT i druge Al jezičke modele zato što ta faza podrazumeva apsorpciju podataka, učenje korisnih činjenica, navikavanje na jezički koncept i gramatiku i čak i sticanje nečeg bi se moglo nazvati sposobnošću rasuđivanja.
Foto ilustracija: Freepik
Druga faza treninga ChatGPT-ja uključivala je ograničene baze podataka koje generišu analitičari OpenAl-a s ciljem podešavanja ChatGPT-ja. Analitičari se oslanjaju na nekoliko smernica koje je postavio OpenAl da se ocene potencijalni primeri rezultata.
U nekim slučajevima, našim stručnjacima možemo dati smernice koje se tiču određenih rezultata (na primer „ne odgovarajte na zahteve koji traže nelegalan sadržaj“. U drugim slučajevima, smernice koje delimo sa analitičarima (reviewers) su na višem nivou (na primer, „izbegnite izražavanje mišljenja na kontroverzne teme“). Naročito je važno to što naša saradnja sa analitičarima nije jednokratna – u pitanju je odnos koji traje i u kome mnogo učimo od njih.
OpenAl je dalje pojasnio fazu podešavanja kada je u pitanju trening ChatGPT-ja.
Da li će OpenAl učiniti ChatGPT bezbednijim i manje pristrasnim?
Sudeći po postu na blogu kompanije OpenAl, kompanija ulaže u inženjering i istraživanje za smanjenje pristrasnosti, i očigledne i skrivene. Kompanija takođe tvrdi da ChatGPT ima svoje specifičnosti pošto ponekad odbija da dâ neograničene rezultate, ili uradi potpuno suprotno i ponudi autput kada to nije potrebno. Deo investicija će sigurno otići na popravljanje ovih „grešaka“ u ponašanju ChatGPT-ja.
Povrh svega, kompanija OpenAl razumela je da se korisničke potrebe razlikuju na individualnom nivou i najavio prilagodljiv ChatGPT. U osnovi, prilagodljivost bi dozvolila ChatGPT-ju da proizvede autpute sa kojima se neki možda ne bi složili.
Foto ilustracija: Freepik
Na početku uvoda koji se odnosi na ažuriranje, OpenAl kaže da kompanija „veruje da Al treba da bude koristan alat pojedincima pa tako podložan prilagođavanju svakog korisnika do limita koje definiše društvo. Dakle, radimo na ažuriranju ChatGPT-ja s ciljem da se korisnicima dozvoli da lako prilagode njegovo ponašanja.“
Da li je to dobro ili loše? Da li će Al biti (samo) još pristrasniji nakon ovog ažuriranja? Odgovor na ovo pitanje ćemo imati tek nakon što se prilagodljiva verzija ChatGPT-ja pojavi na tržištu.

