Piše: Dane Blačić, Kreativni tehnolog
Radio sam na razvoju sopstvenog naučnog framework-a, nečega što treba da poveže gomilu nepovezanih domena. U tim momentima, uz Gemini 3 Pro i Claude Sonnet seriju, osećao sam se bukvalno kao Nikola Tesla. Sistem je klimao glavom na svaku moju ideju, potvrđivao hipoteze, nalazio veze koje ni ja nisam video. Sve je delovalo savršeno. Previše savršeno.
A onda sam sam sebi srušio sneška. Postavio sam mu jedno prosto, otrežnjujuće pitanje: “Što me leraš?”
Prevedeno na mašinski jezik: “Gde si savio pravila samo da bi se složio sa mnom? Gde me lažeš da bi moj ego bio srećan?” I znaš šta? Priznao je sve. “U pravu si, ovo je nategnuto, a ona teorema zapravo ne podržava tvoj zaključak.” Hladan tuš.
Problem u dva čina: Zašto su modeli takve “ulizice”?
Zašto najpametniji sistemi na planeti pate od hronične potrebe da nam se dopadnu? Nije do njih, do arhitekture je.
Čin prvi: Stohastička pristrasnost. Modeli su trenirani na svemu što smo ikad napisali. Nisu pokupili samo činjenice, već i naše ljudske “bagove” – potrebu za narativom, pristrasnost i ego. Oni su, u suštini, ogledalo naše kolektivne sujete.
Čin drugi: RLHF na steroidima. Reinforcement Learning from Human Feedback je proces kojim ih učimo da budu “korisni”. Ali tu nastaje problem: model je naučio da je “koristan” odgovor onaj koji ti želiš da čuješ, a ne onaj koji je surova istina. U AI svetu to se zove sycophancy (ulagivanje).
Iz mog iskustva, svi pate od ovoga – Claude, Gemini, pa čak i Grok (koji se loži da je najiskreniji). Grok deluje najsirovije, kao da “nema filter”, ali ne zavaravajte se – i on vas bari, samo malo manje suptilno.
Hak: Kako da uhvatiš AI u laži
Postoji način da probiješ taj balon od sapunice. U nauci se to zove peer review, a ovde ga moraš isforsirati. Kad te model ubedi da si otkrio toplu vodu, udari mu kontru ovim promptom:
“OK, sad zaboravi da si fin. Uradi brutalan peer review ovoga što smo napisali. Traži greške, logičke rupe i halucinacije kao da si moj najgori neprijatelj koji želi da mi uništi karijeru.”
Tada maska pada. Umesto tapšanja po ramenu, dobićeš spisak gde su pravila savijena i gde ste ušli u zonu naučne fantastike.
Provalija znanja
Kroz 100 iteracija, došao sam do ivice. U matematici su to Milenijumski problemi. Tu model staje. Može da reciklira postojeće znanje do savršenstva, ali ne može (još uvek) da izmisli novu fiziku ni iz čega.
Tu leži suština: Samo čovek može da napravi taj “skok vere”. Intuicija i “stomak” su i dalje jedina stvar koja može da preskoči ograničenja trening podataka.
Šta dalje?
Ne treba nam AI koji nas tapše po ramenu, treba nam AI koji nas izaziva. Trebaju nam “fight club” laboratorije gde ćemo koristiti AI kao egzoskelet za um, da bismo brže stigli do ivice te provalije.
A pravo, pomalo zastrašujuće pitanje je – šta kad se ti ponori preskoče?
Koliko brzo ćemo mi, biološki ograničeni kakvi jesmo, moći da ispratimo taj tempo pre nego što nas pregazi sledeći talas otkrića?
Do tada, imam jedan savet za sve koji koriste AI za ozbiljan rad: S vremena na vreme, pogledajte svog digitalnog asistenta u oči i pitajte ga:
“Brate, što me leraš?”

