Kako se navodi u istraživanju koje je objavio portal New Scientis alatke zasnovane na veštačkoj inteligenciji, uključujući Perplexity i GPT-4 kompanije OpenAI, često daju jednostrane odgovore na sporna pitanja i svoje tvrdnje ne potkrepljuju pouzdanim izvorima.
AI modeli u kojima ton prevlada proverljivost
AI sistemi koji umesto liste linkova nude “konačan odgovor“ – platforme koje kombiniju modele jezika sa web-indeksom – ulaze u sferu u kojoj ton često nadvlada proverljivost. Studija je koristila okvir za proveru argumentacije koji na nivou pojedinačne rečenice proverava da li izvor zaista podržava tvrdnju. U toj granularnoj proveri istraživači su identifikovali širok raspon problema: od netačnih parafraza i izvlačenja zaključaka koje izvor ne sadrži, do potpunog izostanka citiranja gde je ono nužno. Kada se svi nalazi saberu, oko trećine izjava pokazalo se kao „nepotkrepljeno“.
Metodologija je važna jer menja fokus sa prostog „navođenja linka“ na suštinsko pitanje – da li citirani tekst stvarno nosi težinu onoga što AI izgovara. Okvir procene obuhvata više dimenzija: tačnost i temeljnost citiranja, pristrasnost u okviru odgovora, udeo relevantnih izjava naspram sporednih, kao i pojave preterane samouverenosti (kada model kategorički tvrdi nešto za šta postoje ograničeni ili kontradiktorni podaci). Posebno je problematično što su „dublji“ režimi rada – agenti koji obećavaju višestepeno istraživanje i sintezu – u proseku pravili više grešaka, što sugeriše da složeniji zavisni lanci rezonovanja još uvek nisu pouzdano utemeljeni u izvorima.
Za korisnike, posledice su jasne. Ako se AI odgovor doživljava kao krajnja istina, a ne kao početna tačka, rizik od prenosa netačnih ili neosnovanih informacija raste u oblastima od svakodnevnog informisanja do poslovnog odlučivanja. To je posebno kritično u temama koje su vremenski osetljive, sporne ili visoko specijalizovane, gde nijanse u tumačenju izvora imaju realne posledice. Praktično, korisnici bi trebalo da traže jasne navode izvora, da porede više referenci i da budu oprezni kad sistem zvuči previše sigurno u oblastima koje su inherentno neizvesne.
Za industriju, studija nudi konstruktivne smernice. Prvo, potrebno je insistirati na granularnim citatima – na nivou rečenice ili pasusa – kako bi bilo transparentno tačno na šta se model poziva. Drugo, korisne su oznake stepena sigurnosti i eksplicitna upozorenja kada podataka nema dovoljno. Treće, prednost bi trebalo dati ekspertskim i primarnim izvorima (naučni radovi, zvanične baze, regulatorni dokumenti), uz mehanizme koji kažnjavaju „izmišljanje“ referenci. Tehnički, to znači bolju kontrolu nad pretraživanjem i dohvatanjem dokaza, kao i verifikacione korake pre generisanja odgovora.
Šira slika govori o starom sukobu brzine i verodostojnosti. AI sistemi dramatično skraćuju vreme do informacije, ali brzina ne sme da zameni proveru. Dok se standardi ne podignu na nivo „pokaži rad, dokaži tvrdnju i priznaj neizvesnost“, odgovornost ostaje podeljena: na proizvođačima da uvedu strože prakse citiranja i kontrole, i na korisnicima da zadrže zdravi skepticizam i rutinu provere pre nego što AI tvrdnje pretvore u odluke.




