LinkedIn koristi vaš sadržaj za obuku AI modela – evo kako da isključite tu opciju

LinkedIn je najavio da će od 3. novembra 2025. svi javni sadržaji korisnika automatski postati deo obuke njegovih generativnih AI modela. Opcija je uključena po defaultu, što znači da, ukoliko ne promenite podešavanja, vaš profesionalni profil, objave i komentari mogu biti iskorišćeni za razvoj novih alata. Lazar Jovanović, Chief Digital and AI Officer u agenciji Represent System, smatra da je najbolje da korisnici odmah provere podešavanja i donesu odluku

Vreme Čitanja: 2 min

linkedin-4527-fi

Izvor: Freepik

Koje podatke LinkedIn koristi i zašto je to važno

Promene u User Agreement i Privacy Policy otkrivaju da LinkedIn planira da koristi širok spektar javno dostupnih podataka korisnika za treniranje svojih AI sistema. Tu spadaju objave, komentari, članci, ankete i fotografije, ali i interakcije poput lajkova i reakcija. Platforma navodi da će se ovi podaci koristiti za unapređenje alata poput asistenta za kreiranje sadržaja i drugih generativnih funkcija.

Iako privatne poruke nisu obuhvaćene, rizik za korisnike i kompanije je očigledan. Znanje, iskustvo ili poslovni primeri koje pojedinci dele u javnim objavama mogu nenamerno postati deo šireg skupa podataka kojim se obučavaju modeli. To posebno brine organizacije koje posluju pod ugovorima o poverljivosti ili imaju stroge interne politike čuvanja podataka.

Jedan od problema je i „default-on“ pristup: korisnici nisu aktivno pitali za saglasnost, već je opcija uključena automatski. Drugim rečima, ukoliko ne reagujete, LinkedIn računa da ste saglasni sa tim da se vaši javni podaci koriste. To je izazvalo zabrinutost u poslovnoj zajednici, naročito u industrijama koje su visoko regulisane, kao što su finansije, zdravstvo ili pravne usluge.

Regulatorni okvir dodatno komplikuje situaciju. U Evropskoj uniji, Velikoj Britaniji i drugim regionima sa strogim zakonima o zaštiti podataka, pritisak na platforme da obezbede transparentnost i pravo korisnika na prigovor sve je veći. Organizacije će morati da dokumentuju da su obavestile zaposlene o ovoj opciji i omogućile im da sami odluče da li žele da učestvuju u obuci AI modela. U suprotnom, postoji rizik od pravnih posledica, ali i reputacionih problema, objavljeno je na portalu Malwarebytes.

Za pojedince, ovo je i pitanje lične kontrole – koliko želite da vaše ideje, uvidi i iskustva budu deo „kolektivne obuke“ alata koji možda neće uvek raditi u vašu korist.

Kako da to isključite? Savet Lazara Jovanovića

Lazar Jovanović, Chief Digital and AI Officer u agenciji Represent System, smatra da je najbolje da korisnici odmah provere podešavanja i donesu odluku. „Ukoliko niste sigurni kako će LinkedIn koristiti vaše podatke, preporuka je da što pre uradite opt-out dok interno ne definišete politiku i standarde javnog objavljivanja,“ ističe on.

Proces je relativno jednostavan: uđite u Settings & Privacy → Data privacy → Data for Generative AI Improvement i isključite opciju “Use my data for training content creation AI models.” Na taj način sprečavate buduće korišćenje vaših podataka, ali imajte na umu da se ono što je već obrađeno neće retroaktivno izbrisati.

Jovanović savetuje i kompanijama da ovu temu uvrste u interne AI politike i onboarding procesa za zaposlene. „Potrebno je jasno odvojiti sadržaje za employer branding od onih koji sadrže elemente poslovnih procesa ili klijentske informacije,“ naglašava on. Dodaje da edukacija timova o rizicima javnih objava postaje deo šire digitalne pismenosti.

„Cilj nije stvaranje panike, već odgovorno upravljanje podacima. Kompanije i pojedinci treba da nastave da koriste prednosti AI alata, ali i da postave jasne granice kako bi zaštitili ono što im je zaista važno,“ zaključuje Jovanović.

Prijavi se na novosti.

Prijavi se na novosti.