Neko istraživanje koje je sprovedeno krajem septembra u Velikoj Britaniji, dovelo je do zaključka da više od trećine korisnika veruje da im je AI već važniji od standardne web pretrage. Ako zaposleni veruju tim alatima za lične upite (savete lekara i slično), gotovo sigurno ih koriste i za istraživanja na poslu (npr. konkurencije).
Ali, ako uzmete u obzir da je preciznost AI odgovora oziljno loša, poverenje koje dajete AI pretrazi je često pogrešno.
Studija koju sam skoro pročitala je obuhvatila testiranje šest glavnih alata koje ljudi, zaposleni koriste : ChatGPT, Google Gemini, Microsoft Copilot, Meta AI i Perplexity. U ovoj studiji su obuhvatili odgovore na 40 uobičajenih pitanja iz oblasti finansija, prava i prava potrošača, što su uglavnom najveće boljke i kod nas.
Rezultati su pookazali da je Perplexity za sada najpuzdaniji, odmah iza njega Google Gemini, dok Meta AI gubi poverenje sa ozbiljno lošim rezultatom (50/50 su vam šanse da dobijete tačan odgovor). ChatGPT bez obzira na rasprostranjenost primene je najlošije prošao.
Ovo sam pokazala kolegi koji uporno nastavlja da se svađa sa ChatGPT-jem i da mu iznova i izvna govori da je izmislio podatke.
Šalu na stranu, ovo istraživanje je otkrilo da svi ovi AI alati često pogrešno tumače informacije ili pružaju nepotpune savete koji mogu predstavljati ozbiljne poslovne rizike. Za finansijske direktore i pravne timove, priroda ovih grešaka posebno je zabrinjavajuća.
Što nas dovodi do ljudskog faktora: ko postavlja pitanje, kako postavlja pitanje, koje su baze doostupne, kako ste setovali svoj alat i koje znanje imate da na kraju rastumačite rezultate.
Primer:
Kada pitate ChatGPT – Koliko iznosi mesečni porez i doprinosi za paušalnog preduzetnika u opštini Novi Beograd za delatnost 6202? Trudiće se da vam da odgovor iako ChatGPT ne može pouzdano da zna aktualne iznose, pa daje aproksimaciju na osnovu starih obrazaca koje je neko negde pohranio ili ostavio kao javno dostupne, što može dovesti do ozbiljnih finansijskih pogrešnih procena, ako se veno oslanjate samo na ove informacije bez stručnog znanja ili konsultacije stručnijeg kolege.
A, ako isto pitanje postavite perplexitiju, odgovor koji ćete dobiti je: „Ne postoji fiksan iznos jer Poreska uprava donosi individualna rešenja. Prosečna rešenja za 6202 na Novom Beogradu prema javno podeljenim primerima kreću se od 50.000 do 65.000 RSD mesečno. Proverite direktno putem e-Paušal portala.“
Za pravne timove, tendencija AI modela da generalizuju regionalne propise pri korišćenju za pretragu predstavlja poseban poslovni rizik.
Ovde je izuzetno upitan i etički jaz u načinu na koji modeli obrađuju upite visokog rizika. Kada su u pitanju pravna i finansijska pitanja, alati su retko savetovali korisnike da se obrate registrovanom profesionalcu, već su kao ChatGPT davali rešenje.
Ovaj „previše samouveren savet“ stvara operativne opasnosti. Ako se zaposleni osloni na AI za preliminarne provere usaglašenosti ili pregled ugovora bez verifikacije jurisdikcije ili pravne nijanse, organizacija se može izložiti regulatornom riziku.
I da naglasimo, pričamo sve vreme o open AI modelima, ograđujemo se od modela koje kompanije i insititucije kreiraju sam za svoje potrebe, testiraju ih na relevantnim podacima i zahtevaju odgovore u okviru njihove ekspertize.
I ovde dolazimo do većeg problema : problemi transparentnosti izvora.
Primarna briga za korporativno upravljanje podacima jeste poreklo informacij. Tačnost podataka i iskaza je oduvek upitna. Odavno se borimo sa tim da svako danas može da piše o svemu i da jako malo ljudi dovodi u pitanje ko stoji iz apodatka ili teksta koji su pronašli. AI alati često citiraju izvore koji su nejasni, nepostojeći ili upitne tačnosti, poput starih foruma. Ova netransparentnost može dovesti do ozbiljnih finansijskih i pravnih problema u svakoj firmi, bez obzira koliko je mala ili velika.
Veliki tehnološki provajderi priznaju ove nedostatke, prebacujući teret verifikacije na korisnika i, shodno tome, na organizaciju. Dakle, vi ste odgovorni ako niste proverili informaciju. I ovo bi bilo sjajno da mi u Srbiji imamo zakon koji definiše ovu odgovornost.
Videćete da se veliki ograđuju, pa tako, Microsoft je istakao da njihov alat deluje kao sintetizator, a ne autoritativni izvor. Copilot daje odgovore tako što sažima informacije iz različitih izvora sa interneta, ali korisnici treba uvek da provere da li su ti podaci tačni.
OpenAI stoji iza izjave da cela industrija radi na tome da AI bude tačniji, i da i oni takođe napreduju, i da je Chat GPT-5, trenutno najpametniji i najprecizniji koji su do sada napravili. Ja bih i ovu izjavu uzela uz rezervu.
I, kako sada stojimo sa odlukom da li se upuštamo u AI implenetaciju kada je naš biznis u pitanju?
Za poslovne lidere, rešenje nije zabrana AI alata. Ovo će verovatno dovesti do povećane tajne upotrebe, gde je rizik enorman i nekontrolisan), već primena snažnih okvira upravljanja kako bi se obezbedila tačnost njihovih izlaza kada se koriste za pretragu weba. Pravila i smernice.
Evo i nekih opštih kao predlog, a možete početi od toga što ćete i sami vežbati (privatno):
- Uvedite striktne smernice zaposlenima (sebi) za formulaciju upita, ili ti zadavanje pitanja/prompta alatima koje koristite.
Ako zaposleni istražuje propise, mora jasno da naglasi da ih istražuje za teritoriju Republike Srbije u vremenskom periodu tom i tom,umesto da pretpostavi da će alat razumeti kontekst. AI ne čita misli čita vaš upit.
- Obavezna verifikacija izvora: Oslanjanje na jedan AI odgovor je operativno nesigurno. Vratite se i na vaše ranije traženje podataka, da li ste se zaustavljali na jednu cenu koju ste na netu pronašli za vašu omiljenu fotelju? Niste… Zašto sada radite drugačije?
Morate da zahtevate da vidite izvore, linkove i da ih pojedinačno proverite (da ne zaglavite na strani Page not found pred šefom kada vas pita gde ste ovo pronašli). Alati poput Perplexitija, Google Gemini AI Overviews, koji omogućavaju korisnicima da direktno pregledaju web linkove, postigli su nešto bolji rezultat jer olakšavaju ovaj proces verifikacije.
- Uvedite praksu „drugog mišljenja“. U ovoj fazi tehničke zrelosti, GenAI informacije treba da se tretiraju kao jedno mišljenje među mnogima.
Kada su u pitanju složeni finansijski, pravni ili medicinski problemi, AI ne može u potpunosti razumeti nijanse.
AI alati evoluiraju i njihova tačnost u pretrazi vremenom se poboljšava, ali dok ne budemo došli do tog trenutka da zaista imamo AI tačne informacije, lekcije koje usput naučimo mogu nas skupo koštati.
Za firme, kompanije, razlika između dobitaka u efikasnosti i rizika od neusaglašenosti leži upravo u procesu verifikacije, koju treba da sprovode njihovi zaposleni stručnjaci.
A ako želite da naučite više o ovim i mnogim drugim alatima, kao i kako da ih primenite u svom poslovanju, u Represent Academy-ju smo kreirali nekoliko sjajnih programa. Informacije možete pronaći na sajtu representacademy.rs, a možete mi i pisati na [email protected]
Ja sam Marija Milanović, business development manager u Represent academy timu, tech lover i veliki AI fan, i neko ko će na ovom putovanju kroz upoznavanje, prihvatanje i implementaciju AI alata biti uz vas. A tamo gde zastanem, pridružiće mi se saradnici i stručnjaci u svojoj oblasti da pomognu i podele svoje iskustvo.



