Facebook grupe sa hiljadama članova, od ljubitelja Pokemon karata do foruma posvećenih roditeljstvu i berzanskim savetima, neočekivano su se našle pod udarom algoritma koji je, kako navodi Meta, „nenamerno detektovao prekršaje zajednice“.
Greška u algoritmu za automatsko moderisanje izazvala je trenutno deaktiviranje hiljada grupa. Mnogi administratori navode da su dobili obaveštenja o „kršenju pravila zbog terorizma, nasilja ili eksplicitnog sadržaja“ — uprkos tome što nijedan zabranjeni sadržaj nije objavljen.
Korisnici širom sveta počeli su da dele svoja iskustva na Redditu i drugim forumima. U jednom postu se navodi:
„Naša grupa o štednji za roditelje je ugašena jer je navodno širila nasilni sadržaj. To je besmislica. Najgore je što žalba automatski ide kroz AI koji je i napravio grešku – i odmah biva odbijena”, objavio je TechChrunch.
Meta reaguje, ali bez konkretnih rokova
Iz kompanije Meta je potvrđeno da se radi o „tehničkoj grešci“ i da su u toku radovi na njenom otklanjanju. Savet koji daju administratorima je da ne podnose žalbe odmah, jer bi to moglo da dodatno zakomplikuje slučaj. Umesto toga, preporučuje se da sačekaju do 72 sata, kada bi grupe trebalo da budu automatski vraćene.
Portparol Mete je za američki TechCrunch izjavio da se „intenzivno radi na rešavanju problema i vraćanju pogođenih zajednica u funkciju“.
Šira kriza poverenja u AI moderaciju
Ovo nije prvi slučaj da automatizovani sistemi izazivaju kolateralnu štetu. Slične epizode beležene su i na platformama kao što su Instagram, Pinterest i Tumblr. I dok Pinterest tvrdi da su u pitanju ljudske greške, a ne veštačka inteligencija, Meta još uvek nije precizirala šta je tačno izazvalo problem na Facebooku.
U međuvremenu, pokrenute su i online peticije sa više od 12.000 potpisa, a neki administratori najavljuju i potencijalne tužbe protiv kompanije, ukazujući na štetu nanesenu zajednicama koje su gradili godinama.

