Tehnološki divovi ne poštuju smjernice EU: Nisu zaustavili širenje dezinformacija

17. lipnja 2024.
Tehnološki divovi ne poštuju smjernice EU: Nisu zaustavili širenje dezinformacija 1

Iako dezinformacije, posebno one koje su generirane umjetnom inteligencijom postaju sve veći problem, velike online platforme (Facebook, Instagram, TikTok, X i YouTube) tijekom 2024. primijenile su relativno malo novih politika kako bi detektirale i uklonile manipulative sadržaje sa svojih stranica a koje su trebali primijeniti sukladno novim preporukama. 

Pokazao je to izvještaj o načinu na koji su velike tražilice i online platforme upravljale dezinformacijama tijekom kampanje za Europske izbore, koji je početkom lipnja objavila EU Disinfo Lab - organizacija specijalizirana za istraživanje i analizu dezinformacija diljem Europe.

Istraživanje EU Disinfo Laba, koje je obuhvatilo razdoblje od rujna 2023. do lipnja  2024., pružilo je uvid u načine na koje se dezinformacije moderiraju na velikim tražilicama online platformama. Cilj istraživanja bio je razumjeti kako velike platforme reagiraju na nove izazove AI-manipulativnog i AI-generiranog sadržaja, uklanjaju li ga ili samo detektiraju.

Prema posljednjem Reutersovom digitalnom godišnjem izvješću, koje analiza globalne trendove konzumacije vijesti, online platforme glavni su izvor informiranja za 47% građana i građanki Republike Hrvatske. Podaci pokazuju da se za informiranje najviše koriste platforme Facebook (49%) i YouTube (24%).

Iako je potreba za informiranjem građana i građanki u padu, pa tako i putem velikih tražilica i online platformi, postavlja se pitanje kvalitete sadržaja na tim platformama. Tako je još u lipnju 2023., Europska komisija zatražila od potpisnica Kodeksa dobre prakse o suzbijanju dezinformacija, označavanje AI-manipulativnog i AI-generiranog sadržaja na online platformama. Potpisnice su se u većoj ili manjoj mjeri obećale poduzeti ažurirane strategije svake godine kako bi se bili u koraku izazovima lažnih vijesti i dezinformacijskih sadržaja.
Ojačani Kodeks uređen je kao smjernica koja će se primjenjivati u skladu sa Zakonom o digitalnim uslugama, pravno obavezujućim regulacijama na koji velike tražilice i online platforme trebaju postupati s nezakonitim ili štetnim sadržajem

Analiza EU Dinsinfo Lab-a donosi pregled pridržavanja obavezujućih i neobavezujućih smjernica, te načine na koji se velike platforme pridržavaju uputa u borbi protiv lažnih i manipulativnih sadržaja kreiranih alatima umjetne inteligencije. Primarne kategorije uključuju označavanje AI sadržaja, što bi trebalo doprinijeti jasnoći i transparentnosti sadržaja objavljenog na velikim tražilicama i online platformama. Razvojem alata umjetne inteligencije, izazovi su se povećali - kreiranje manipulativnog sadržaja, lažnih tekstova, slika ili audio zapisa koji izgledaju stvarno mogu uzrokovati štetu ili zavaravanje, navode stručnjaci. Nove strategije i politike velikih tražilica i online platformi trebale bi odgovori na izazove moderiranja kako bi korisnici razlikovali legitimnu upotrebu od zlonamjerne. Važno je razumjeti kako VLOP-ovi, zajednički ili individualno, pristupaju AI-manipulativnom i AI-generiranom sadržaju u svojim uvjetima korištenja, istražujući kako se bave potencijalnim rizikom da taj sadržaj postane dezinformacija ili manipulativna strategija.

Meta (Instagram i Facebook)
Meta (Facebook i Instagram) je u 2024. najavila unaprjeđenje politika u borbi protiv AI-manipulativnog sadržaja uvođenjem oznake “kreirano uz pomoć AI-ja”. Prema Metinom objašnjenju, ova oznaka bi mogla doprinijeti detekciji sadržaja koji obmanjuje javnost. Stručnjaci upozoravaju da se oznaka odnosi samo na kreatore sadržaja, koji mogu detektirati AI sadržaj prije objavljivanja, ali ne mogu je koristiti Metini korisnici. Što se tiče uklanjanja sadržaja, ono se isključivo odnosi na sadržaje koji narušavaju ostale Metine politike ili standarde zajednice.

YouTube
YouTubova najavljene strategije unaprjeđenja odnosila su se na označavanje AI-manipulativnog sadržaja ali ne i na uklanjanje potencijalnog AI-manipulativnog i AI-generiranog sadržaja. Kreatori mogu označiti potencijalni AI sadržaj prije samog objavljivanja. Nova pravila nalažu da nije potrebno označiti sadržaj koji je očito nerealan, animiran, uključuje specijalne efekte, ili je koristio AI alata samo za pomoć pri produkciji.

TikTok
Najavljene strategije TikToka najviše se odnose na označavanje AI sadržaja. TikTok potiče korisnike da označe AI-generirani sadržaj koji prikazuje "realistične scene", kako bi se pripremili za očekivani val AI-manipulativnog sadržaja. Pravila su ažurirana u ožujku 2023., a sada bi se trebala pojačati provedba s dodatnom oznakom za AI-generirani sadržaj koju kreatori mogu aktivirati prilikom objavljivanja. Dodatna oznaka odnosi se na osjetljivi sadržaj koji prikazuje sukobe, prirodne katastrofe ili ljudsku patnju te ima za cilj smanjiti rizik od štete za gledatelje. Kreatori koji ne označe potencijalni AI sadržaj mogu biti podvrgnuti suspenziji iz YouTube Partner Programa.

X
Iako se platforma X povukla iz Kodeksa, ona i dalje mora poštovati odredbe Zakona o digitalnim uslugama. Sve ostale platforme imaju obvezu obraćati pažnju i opravdavati sredstva koja koriste u borbi protiv dezinformacija.  Prema novih politikama, potencijalni manipulativni sadržaj koji krše politiku dobit će oznaku i/ili poruku upozorenja umjesto da budu uklonjeni. X će pritom poslati obavijest s pojašnjenjima, dok će se za ozbiljna kršenja politike, uključujući obmanjujuće medije koji predstavljaju ozbiljan rizik za pojedince ili zajednice, X će zahtijevati od korisnika da uklone taj sadržaj.

Tehnološki divovi su se obavezali još 2023. godine na unapređenje politika koje će omogućiti lakše i jednostavnije detektiranje AI sadržaja i njegovo uklanjanje. Istraživanje navodi da su velike platforme ažurirale svoje politike usmjerene na uklanjanje i/ili razotkrivanje AI sadržaja, no pojedine politike, kao što su one koje je usvojio YouTube, datiraju prije objavljivanja tih smjernica. Povećali su se izazovi moderiranja sadržajem koji su na velikim tražilicama i online platformama omogućili stvaranje prostora za širenje lažnih tekstova, slika i audio zapisa koji ne izgledaju lažno, čime je došlo do manipulacije sadržajem. U slučaju Republike Hrvatske, gotovo polovica građanki koristi upravo društvene mreže kao izvor informiranja što postavlja pitanje kvalitete sadržaja.

EU Disinfo Lab upozorava da neobvezujuće smjernice ostavljaju prostora za nedovoljno jasno moderiranje sadržaja. Označavanje AI-manipulativnog i AI-generiranog sadržaja u slučaju Mete (Facebooka i Instagrama) ne predstavlja dovoljno regulacije jer se odnosi samo na kreatore ali ne i na korisnike platformi. Stručnjaci navode da označavanje AI sadržaja, treba nadopunjavati druge mjere moderiranja, što otvara brojna pitanje - do koje mjere će označavanje AI sadržaja spriječiti druge, strože mjere? Tehnološki divovi trebali bi osigurati da AI sadržaj ne bude samo označen, već da kreatori budu primorani ukloniti taj sadržaj kako bi se smanjila potencijalna manipulacija lažnog sadržaja.

Tehnološki divovi ne poštuju smjernice EU: Nisu zaustavili širenje dezinformacija 2
chevron-right