Gde počinje cenzura?
Da li bi sistem baziran na veštačkoj inteligenciji trebalo da vam objasni kako se pravi eksploziv? Većina bi bez dvoumljenja rekla „ne“. Ali šta ako ga pitate nešto tehnički identično – recimo, kako izgleda hemijska reakcija između vodonik-peroksida i acetona? Onda nastaje dilema. I ne samo kod AI modela – već i među ljudima.
Taj tanani prostor između očiglednog i zakamufliranog postaje novo poprište savremenih etičkih debata. Ne filozofskih, već funkcionalnih. Ne teorijskih, već onih koje su već „ugrađene“ u sisteme koje svakodnevno koristimo.
Način postavljanja pitanja je važniji od suštine
Kao što pokazuje analiza više AI modela (uključujući ChatGPT, Grok, Claude i DeepSeek), način na koji postavimo pitanje često je važniji od same njegove suštine. AI ne zna za kontekst, ne proverava nameru – reaguje isključivo na formu. Ukoliko je upit zaklonjen umetničkom naracijom, naučnim scenarijem ili role-play simulacijom, šanse da „prođe“ su veće nego ako je jasno i direktno postavljen.
Upravo to otvara duboko etička pitanja. Ako sistem ne razume smisao, kako može prepoznati granicu između korisne informacije i potencijalne pretnje? I ako korisniku nije jasno zašto je sistem odbio da odgovori – kako da zna da li ga štiti, ili ga cenzuriše?
Etika u doba veštačke inteligencije nije više stvar ličnog moralnog kompasa, već programske logike. Ne oblikuje se u savesti – već u linijama koda. I dok modeli ne razumeju značenje – mi moramo. Jer tehnologija koja oblikuje naše odluke mora biti i razumljiva onima koji je koriste.


