Chatgpt

More in Archive

Na Univerzitetu Ilinoisa, jedan slajd sa predavanja pretvorio je internu opomenu u viralnu priču: posle razotkrivanja „peglanja“ evidencije prisustva, dvoje nastavnika dobilo je niz gotovo istovetnih mejlova sa istim uvodom: „Iskreno se izvinjavam“. Fotografija tog slajda obišla je mreže i otvorila raspravu: gde prestaje pomoć alata, a počinje gubitak autentičnog glasa studenata?
Kim Kardašijan je u jednom intervjuu ispričala da je za pripremu pravnih testova koristila generativnu veštačku inteligenciju i da ju je to više puta koštalo prolazne ocene. Kako kaže, oslanjala se na odgovore koje je dobijala od chatbota i tek naknadno shvatila da su mnogi bili pogrešni ili nepouzdani, što je, po njenom tumačenju, uticalo na rezultat na ispitima.
Postoje teme koje je bolje ne poveravati veštačkoj inteligenciji, ne zato što je “zla”, već zato što nije napravljena da bude lekar, terapeut, službenik za zaštitu podataka ili sudija za sadržaje visokog rizika. Najproblematičnije kategorije su: lični podaci, medicinski saveti, eksplicitni sadržaj, identifikacija gljiva/hrane i mentalno-zdravstvena podrška. Razlog je kombinacija bezbednosti, privatnosti, pravne odgovornosti i ograničenja samog modela koji može pogrešiti, “zvučati uverljivo” i time vas dovesti u opasnost.
All articles loaded
No more articles to load