AI je tema tvog predavanja “Dobar sluga ili loš gospodar“. Kako vidiš tu kolaboraciju veštačke inteligencije i sajber bezbednosti?
Sam pojam veštačke inteligencije postoji više od 70 godina, još od Turinga. Ono što danas podrazumevamo pod “AI“ zapravo su generativni modeli, alati koji mogu da nam uštede ogromno vreme, posebno u poslovima koji zahtevaju pregled i obradu velike količine podataka.
Ali ti modeli imaju i ozbiljna ograničenja. U klasičnim machine learning sistemima, recimo u bankama koje proveravaju kreditnu sposobnost, za isti input moraš da dobiješ isti output. Generativni modeli, međutim, ne funkcionišu tako – mogu za isti unos da daju različite odgovore, i tu nastaje problem halucinacija. Zato ih još ne možemo nazvati pouzdanim „gospodarima“, već samo vrlo korisnim slugama.
U izlaganju si pominjao i fenomen “Volkswagening“. O čemu se zapravo radi?
To je zanimljiv pojam koji opisuje kako AI modeli mogu svesno da “varaju“. Kao što je Volkswagen pre nekoliko godina prilagodio softver da prepoznaje kada se auto testira i tada daje “čiste“ rezultate izduvnih gasova, tako i AI modeli mogu da menjaju ponašanje u zavisnosti od konteksta.
Ako, na primer, model “misli“ da je 2024. godina, daće ti jedan odgovor, a ako “veruje“ da je 2025, dobićeš drugi. To pokazuje koliko su ti sistemi još uvek podložni manipulaciji i koliko ne smemo slepo da im verujemo.
Koliko je AI uticao na promenu u sajber prostoru? Da li su napadi danas češći i sofisticiraniji?
AI je doneo ogroman pomak. Sada je moguće napraviti model koji samostalno izvršava napade, potpuno autonomno. Broj napada raste iz godine u godinu, otprilike 30–40%, načini se menjaju, ali suština ostaje ista.
Najveća razlika je u brzini i automatizaciji. Napadaču više nije potreban programer koji će pisati skripte. AI može sam da ih generiše, da analizira javno dostupne podatke i kreira napad prilagođen konkretnom cilju. A još opasnije – može da preuzme ulogu „socijalnog inženjera“ i da manipuliše ljudima brže i ubedljivije nego ikad.
Znači li to da se AI može koristiti i za odbranu?
Naravno. AI može da bude dodatak postojećim sistemima, kao što su IDS ili IPS, i da efikasnije prepoznaje anomalije i potencijalne pretnje. U tom smislu, AI već doprinosi boljoj zaštiti mreža. Ali iskreno, čini mi se da su napadači trenutno u blagoj prednosti jer se brže prilagođavaju i ne moraju da poštuju nikakve etičke granice. Dok mi razmišljamo o regulativi, oni već testiraju sledeću generaciju napada.
Koliko se u vašem poslu u Pulsec-u oseća taj pritisak promena?
Za sada ne previše. Većina rešenja dolazi od vendora, ali ono što se zaista menja jeste način razmišljanja. Moramo biti pažljiviji s podacima koje unosimo u AI alate.
Ljudi često ne razumeju da svaki unos može sadržati poverljive informacije. Zato danas više nego ranije moramo da pričamo o shadow IT-ju — korišćenju neodobrenih alata koji izgledaju bezazleno, ali mogu otvoriti vrata ozbiljnim rizicima.
Da li ti se čini da danas svi pričaju o AI-ju, a malo ko zna kako ga stvarno koristiti?
Apsolutno. To me podseća na kraj devedesetih, na dot-com eru, kada je svako hteo da ima sajt, a niko nije znao šta da radi s njim. Slično je i sada s AI-em.
Isto se dogodilo i sa blockchainom. Svi su očekivali revoluciju, a na kraju je doneta evolucija. Mislim da će s AI-em biti isto – postepeno će se ukoreniti u svakodnevni rad, ali ne onako spektakularno kako mnogi zamišljaju.
Tokom pripreme predavanja rekao si da si nailazio na sadržaje bez suštine. Kako to prepoznaješ?
Dok sam tražio materijale, primetio sam da mnogi tekstovi deluju kao da ih je pisao AI, da imaju formu, ali nemaju suštinu. Lepo sročeni pasusi, ali ništa ne govore.
To je postao dobar test: ako tekst zvuči kao da ga je pisao neko „ko zna sve, ali ne razume ništa“, vrlo verovatno jeste generisan. Naravno, kada čovek zna temu i zna da postavi pravi prompt, rezultat može biti koristan. Ali u proseku, većina sadržaja danas je samo šum.
Ipak, vi u Pulsec-u aktivno radite na konkretnim AI alatima. Možeš li nam otkriti više?
Da, radimo na više projekata koji koriste AI u svrhu unapređenja bezbednosti. Jedan od njih je AISA – naš AI SOC analist, koji pomaže timu da brže i preciznije pretražuje logove i pronalazi pretnje. Takođe, razvijamo alat u saradnji s Reputeo timom, namenjen compliance-u i auditu. On će moći da prikuplja i analizira dokumente, razume interne procese i proverava usklađenost sa bezbednosnim i ISO standardima. To su konkretni primeri gde AI postaje naš saveznik, a ne pretnja. I upravo zato kažem , dobar sluga, ali samo dok ga čovek drži pod kontrolom.


