Ne varate ako koristite ChatGPT kao podršku
Ljubiša Bojić iz Instituta za filozofiju i društvenu teoriju smatra da je etički koristiti ChatGPT pri formulisanju misli za naučne radove.
„Na taj način postajemo kompetentni kada je u pitanju pisanje, naročito imajući u vidu da mnogim autorima engleski nije maternji jezik. Takođe, istraživanje ideja kroz jezičke tehnologije je praksa koja može biti korisna pri formulisanju pregleda literature i pisanju naučnih radova“, rekao je Bojić.
On smatra da se na taj način pospešuje kreativnost i moć pretraživanja literature, pošto se, kako kaže, često dešava da ChatGPT generiše korisne teorijske okvire koje mi ne znamo, kao i samu literaturu koja će biti korisna da potkrepimo svoje misli, ideje i nalaze.
Jedina neetična stvar, kaže Bojić, jeste potpuno generisanje naučnih radova bez ikakvog razmišljanja.

„Uglavnom to nije ni moguće uraditi a da ne bude primećeno, jer AI generatori sadržaja koriste nabrajanja, zvezdice u tekstu, neke karakteristične reči, kao i reference koje nisu tačne. Takođe, AI generiše uglavnom kratke sadržaje. Znači, pisanje sastava za školu je mnogo lakše na ovaj način, jer su naučni radovi dugački, specifični i uglavnom zahtevaju istraživanja. Napredniji modeli, kao što su O1 američke kompanije OpenAI ili R1 kineske kompanije DeepSeek, mogu se koristiti i za inicijalne analize sadržaja, kao što su kvalitativna analiza teksta ili numerička analiza. Ovi modeli pokazuju visok nivo simulacije misaonih procesa“, objasnio je on.
ChatGPT nema problem sa idejama – on kuburi sa inovativnim pristupom
Jedna od glavnih moći ovog alata jeste unapređenje procesa pisanja. Njemu neće biti teško da umesto vas traženu reč zameni sinonimom, preformuliše misao ili čak ceo pasus preoblikuje tako što će ga „ojačati“ adekvatnim izrazima.
ChatGPT se koristi za generisanje ideja, strukturiranje rada (definisanje uvoda, razrade i zaključka), objašnjenje složenih pojmova (nejasni izrazi ili koncepti) ili za pripremu nacrta – koji može biti dobra polazna tačka.
Naravno, imajte u vidu da ovi jezički modeli mogu kreirati pogrešna objašnjenja, tako da je potrebno proveravati informacije iz više izvora.
Chief AI Officer u Smartocto Goran S. Milovanović kaže da ne vidi problem u korišćenju ChatGPT-a prilikom organizovanja velike količine materijala potrebne za teorijsku ili istorijsku podršku nekom akademskom radu, ali naglašava izostanak kreativnosti alata.
„Svi koji očekuju da će ChatGPT doprineti nečemu kreativnom i biti osnovna alatka u samom stvaranju akademskog rada, gorko će se razočarati. Sve što biste dobili ako biste pokušali tako nešto biće uniformno, slično već viđenim stvarima i neće dostizati onaj nivo kvaliteta i kreativnosti koji se u akademskoj zajednici očekuje“, rekao je Milovanović, koji radi u kompaniji SmartOcto i predsednik je Mašinerije.
Oni koji zloupotrebljavaju snose sankcije
Neetičko korišćenje ChatGPT-a u akademskom okruženju može imati dalekosežne i ozbiljne posledice po studente koji budu uhvaćeni u varanju. Oni se suočavaju sa strogim akademskim sankcijama, uključujući poništavanje rada, smanjenje ocena, ponavljanje ispita, pa čak i trajno izbacivanje sa fakulteta, što može ugroziti njihovu akademsku i profesionalnu budućnost.
Osim toga, gubitak poverenja profesora i kolega može imati dugoročne posledice, otežavajući dobijanje preporuka, akademskih priznanja i profesionalnih prilika. U pojedinim slučajevima, korišćenje AI alata za plagijat ili lažiranje istraživanja može dovesti i do pravnih posledica, uključujući optužbe za kršenje autorskih prava ili intelektualne svojine.
Najveći problem leži u tome što studenti koji se oslanjaju na AI umesto na sopstveno znanje i veštine propuštaju priliku za stvarni intelektualni razvoj, čime sabotiraju sopstvenu budućnost i postaju nespremni za profesionalne izazove koji ih očekuju.
Kako otkrivamo da je tekst pisala veštačka inteligencija?
Goran Milovanović objašnjava da kompanije koje razvijaju velike jezičke modele, a koji stoje u osnovi asistenata kao što su ChatGPT i njegova konkurencija, ujedno razvijaju i modele čiji je zadatak diskriminacija sintetičkog od ljudskog teksta.
„Meni je, kao zaista iskusnom ekspertu od samog početka generativne AI revolucije, veoma teško da na osnovu tek subjektivne procene shvatim da li je tekst sintetički ili ljudski. Uglavnom mi je potrebno neko vreme da nekog GenAI chatbot-a propitujem i vodim kroz kompleksne staze dijaloga da bih ga doveo u stanje u kojem mogu na osnovu njegovih grešaka ili nedoslednosti jasno da tvrdim da je u pitanju GenAI bot, a ne čovek“, objašnjava ovaj stručnjak.
On je mišljenja da alati za proveru upotrebe AI imaju oko 80 odsto tačnosti u prepoznavanju veštački generisanih tekstova.
Alati koji detektuju korišćenje veštačke inteligencije
Alati poput Content at Scale, Hive, GPT Zero i Copyleaks služe za detekciju tekstova generisanih veštačkom inteligencijom, analizirajući stil pisanja i strukturu kako bi procenili da li je sadržaj kreirao AI ili čovek. Iako se njihova tačnost razlikuje, Hive se pokazao kao najpouzdaniji, dok su GPT Zero i Copyleaks u nekim slučajevima netačno procenili poreklo teksta, što ukazuje na potrebu za kombinovanjem više metoda pri verifikaciji sadržaja.