Kina piše nova pravila za „AI saputnike“: Upozorenja na zavisnost i stroži nadzor nad chatbotovima

Kineska Uprava za sajberprostor (CAC) objavila je 27. decembra nacrt pravila koji bi pooštrio nadzor nad AI uslugama koje oponašaju ljudsku ličnost i ulaze u emotivnu interakciju sa korisnicima. Predlog je otvoren za javne komentare i signalizira da Peking želi da usmeri ubrzano širenje potrošačkih AI proizvoda – ali uz strože bezbednosne i etičke zahteve.

Vreme Čitanja: 2 min

ai-saputnici-5078-fi

Ilustracija: DALL-E3

Nacrt se odnosi na proizvode i usluge dostupne široj javnosti u Kini koji prikazuju „simulirane“ osobine ličnosti, obrasce razmišljanja i stil komunikacije, a sa korisnicima komuniciraju kroz tekst, sliku, zvuk, video ili kombinaciju formata. Drugim rečima: sve ono što liči na chatbota koji „razume“, na virtuelnog asistenta koji deluje kao osoba ili na aplikaciju koja se predstavlja kao digitalni prijatelj.

Ključna novina je naglasak na prekomernoj upotrebi i potencijalnoj zavisnosti. Pružaoci usluga bi morali da upozoravaju korisnike na rizike preteranog korišćenja, ali i da reaguju kada se pojave znaci zavisničkog ponašanja. Nacrt posebno otvara pitanje psiholoških posledica: kompanije bi trebalo da identifikuju stanje korisnika, procene emocije i nivo „vezanosti“ za uslugu, i da preduzmu mere intervencije ako korisnik pokazuje ekstremne emocije ili obrasce koji ukazuju na zavisnost.

Regulator traži i širi paket obaveza kroz ceo životni ciklus proizvoda: preuzimanje odgovornosti za bezbednost, uspostavljanje sistema za pregled algoritama, kao i jačanje zaštite podataka i ličnih informacija. U praksi, to znači više procesa, više dokumentacije i više prostora za kontrolu – posebno za servise koji se brzo lansiraju i iteriraju na osnovu korisničkih razgovora, objavio je Reuters.

Kao i u drugim kineskim pravilnicima za digitalne platforme, povučene su i crvene linije za sadržaj: AI sistemi ne smeju da generišu materijal koji ugrožava nacionalnu bezbednost, širi glasine ili promoviše nasilje i opscenost. Time se, praktično, od „empatije“ u razgovoru dolazi do pitanja odgovornosti: ko i kako drži pod kontrolom model koji može da bude ubedljiv, uporan i stalno dostupan.

Ovaj nacrt se uklapa u širi kineski pristup regulisanju generativne veštačke inteligencije, u kojem su bezbednost i kontrola sadržaja jednako važna tema kao i tehnološki napredak. Za domaće i strane kompanije to može da znači dodatne troškove usklađivanja, detaljnije interne procedure i pažljiviji dizajn funkcija koje podstiču „prisnost“ sa korisnikom. A za korisnike, barem na papiru, više zaštitnih mehanizama u trenutku kada AI iz alata sve češće prelazi u naviku. Javna rasprava sada treba da pokaže koliko će pravila biti stroga i kako će se sprovoditi u praksi.

Prijavi se na novosti.