Tražimo nadzor nad algoritmima najvećih internetskih platformi

22. rujna 2021.
Foto: Pixabay

Zajedno sa 50 europskih organizacija civilnog društva, Gong je uputio otvoreno pismo Odboru za unutarnje tržište i zaštitu potrošača EU-a, čiji je cilj poboljšati Zakon o digitalnim uslugama EU-a (DSA) u području uporabe algoritama te informiranosti i zaštićenosti korisnika i njihovih osobnih podataka. 

Algoritmi, koje koriste velike internetske platforme, značajna su pomoć u korištenju internetskog prostora, traženju informacija i generiranju sadržaja. Međutim, način na koji algoritmi, i oni zaduženi za njihovu kontrolu, koriste osobne informacije svojih korisnika može biti štetan. 

Potpisnice ovog pisma podržavaju prijedloge koji uključuju: detaljnije informiranje korisnika o tome što su algoritmi i čemu sve služe, otvaranje pristupa podacima novinarkama i organizacijama civilnog društva, neovisne procjene rizika algoritamskih sustava te snažniju zaštitu osobnih podataka korisnika i mogućnost da oni sami utječu na preporuke koje im algoritmi generiraju.   

Podsjetimo, početkom rujna Gong je zajedno s organizacijama civilnog društva, istraživačima, novinarkama, akademicima i aktivistkinjama iz cijelog svijeta pozvao EU zakonodavce da uzmu u obzir preporuke usmjerene na ograničavanje proizvoljnih akcija najvećih platformi i strože mjere transparentnosti za internetske platforme.

PRIJEVOD PISMA NA HRVATSKI:

Poštovani članovi i članice Odbora za unutarnje tržište i zaštitu potrošača (IMCO),

dok raspravljate o stavu Europskog parlamenta o Zakonu o digitalnim uslugama, dolje potpisane organizacije pozivaju vas da osigurate učinkovit nadzor nad algoritmima koje koriste velike internetske platforme koje utječu na našu percepciju svijeta. Potrebna nam je odgovornost za pojedinačne i društvene učinke ovih tehnologija, da osiguramo njihov pozitivan utjecaj na naše živote.

U ovom pismu objašnjavamo osnovne probleme ovlaštenja nad algoritmima i ključna područja za koja vjerujemo da zahtjevaju izmjene prijedloga Komisije o DSA. Toplo vam preporučujemo da:

1. Zahtijevate informiranje korisnika i korisnica o svim ključnim karakteristikama algoritama.

2. Proširite pristup podacima potrebnim za praćenje uporabe algoritama na organizacije civilnog društva, novinarke i novinare.

3. Zadužite neovisne revizore za procjene rizika algoritama.

4. Uvedete zadanu zaštitu korisnika i korisnica od nametljive uporabe njihovih osobnih podataka i obmanjujućih sučelja

5. Povećate korisničku kontrolu nad radom sustava preporuka (eng. recommendation systems).

6. Omogućite korisnicima i korisnicama da odaberu željene sustave preporuka trećih strana, neovisno o mogućnostima koje nudi platforma.

Crna kutija iza ekrana

Internetom dominiraju platforme koje prilagođavaju našu izloženost sadržaju algoritamskim odabirom. Javnu raspravu i životne mogućnosti značajno oblikuju njihove odluke o tome što će pokazati, kome i kada. Uz veliku moć trebala bi doći i velika odgovornost, ali umjesto toga logika algoritamskih izbora ostaje netransparentna. Poslovni model većine platformi, čini oglašavanje temeljeno na nadzoru, a ovi su komercijalni prioriteti u koliziji s interesima pojedinca_ki i javnog dobra. Ova je reforma važna jer se odnosi na ono što građani dobivaju kao rezultat kolizije prava na privatnost i komercijalnih interesa oglašivača. 

Rizici targetiranja na temelju zaključivanja i nedostatak korisničke kontrole

Facebook, Youtube i druge platforme se oslanjaju na sustave oglašavanja zasnovane na nadzoru kako bi povećale vrijeme koje korisnica provodi na platformi i odabrale korisnike koji će odgovoriti na način koji je odredio oglašivač. No, poticanje djelovanja može rezultirati neželjenim “upadima”. To se događa kada platforme o vrlo osjetljivim podacima svojih korisnika i korisnica, a koje im ovi nisu sami odlučili dati, zaključuju na temelju modela strojnog učenja. Korisnice možda ne žele otkriti svoj spol, rod, vjeru ili tjeskobe, ali podaci o načinu na koji koriste neku uslugu mogu generirati predviđanja o tim njihovim osobinama. Ti su atributi uglavnom neotkriveni i ne mogu se mijenjati u korisničkom profilu, već postoje kao latentno znanje, koje se koristi za poboljšanje predviđanja o tome što će korisnik najvjerojatnije kliknuti, pa ih stoga tjera da provode više vremena na platformi. Takvi zaključci, bili oni točni ili ne, mogu negativno utjecati na korisnike i korisnice.

Diskriminacijski učinci i poplava senzacionalističkog sadržaja

Pokazalo se da algoritmi za prikazivanje oglasa, koji odabiru publiku iz bazena onih koji ispunjavaju uvjete, diskriminiraju ljude na temelju spola, rase ili dobi s obzirom na pristup poslu ili stambenoj ponudi. To može biti posljedica korištenja povijesnih zapisa koji odražavaju nejednakosti u društvu, približnih vrijednosti zaštićenih obilježja (npr. vrijeme provedeno na platformi može biti pokazatelj dobi ili zaposlenja), tržišnih čimbenika ili prethodnog intenzivnijeg sudjelovanja članova grupe. Oglašivači možda nemaju namjeru diskriminirati zaštićene društvene grupe, ali fiksacije algoritama na ciljeve i mete kampanja mogu imati taj učinak. Iako je ishod ponekad nenamjeran, diskriminacija je značajna.

Sustavi preporuka imaju slične nedostatke. Potraga za uspoređivanjem korisnika i korisnica sa sadržajem koji bi ih mogao zanimati može rezultirati i porastom količine sadržaja koji izaziva reakcije iz pogrešnih razloga, jer provocira, nepouzdan je ili senzacionalistički. Također može korisnicama sugerirati sadržaj koji ugrožava njihovo fizičko ili mentalno zdravlje. Kada priče o tome dođu u medije, platforme pokušavaju ublažiti svaki takav slučaj, ali se ciklus neizbježno ponavlja. Te tvrtke tada daju jamstva, ali ne daju nikakav uvid u algoritam ili način na koji je on izmijenjen, niti dopuštaju pristup podacima na razini sustava za procjenu razmjera štete i pozivanja platformi na odgovornost. Zamislite slučaj izlijevanja nafte u kojem ne znate zašto se nesreća dogodila ili kolika je veličina mrlje.

Platforme poput Facebooka, kao uvjet pristupa usluzi, zahtijevaju od korisnika i korisnice da se odreknu kontrole nad svojim podacima. Oni koji su nezadovoljni privatnošću svojih podataka trenutno su stjerani u kut. Teško je odreći se usluga, a korisničke kontrole su neučinkovite, osobito kada je u pitanju targetiranje na temelju zaključaka o korisnicima.

Bitna područja za izmjene i dopune

Prijedlog Europske komisije za DSA ne rješava na odgovarajući način nedostatak informacija oko algoritama koji se koriste za generiranje i personalizaciju sadržaja. Ne štiti korisnike i korisnice od diskriminacije niti stvara uvjete za stvarnu konkurenciju i izbor korisnika na tržištu za sustave preporuka. Pozivamo vas da napravite sljedeće izmjene:

1. Proširite zahtjeve transparentnosti

Algoritamski rizik zahtijeva pažljiv nadzor, ali to je otežano nedostatkom informacija o dizajnu algoritma. Članak 24. (oglašavanje) i članak 29. (sustavi preporuka) zahtijevaju ograničeno otkrivanje podataka od subjekata koji koriste takve sustave i - u slučaju oglašavanja - usredotočuju se samo na karakteristike oglašivača, a ne na izbore platforme. Oni se moraju proširiti kako bi obuhvatili sve ključne informacije o algoritmu: posebne ciljeve za koje je sustav optimiziran (npr. vrijeme gledanja na Youtubeu), ključne parametre na koje se sustav oslanja, njihov utjecaj na sadržaj koji se prikazuje i kako podaci o ponašanju korisnica utječu na preporuke i targetiranje oglasa.

2. Proširite pristup podacima civilnom društvu i novinarkama

Članak 31. propisuje pristup podacima, na razini sustava, regulatornim tijelima i provjerenim akademskim istraživačima radi revizije algoritamskih operacija i učinaka. Ova bi se odredba trebala proširiti na istraživačke novinare i nadzorne skupine, koji su se već pokazali ključnim u otkrivanju štetnih posljedica algoritama i nastavit će biti ključni akteri u ispitivanju utjecaja ovih sustava. Pristup podacima mora biti u skladu s GDPR -om.

3. Samoocjenjivanje rizika u drugom koraku povjerite i neovisnim revizorima

Prema članku 26. od velikih internerskih platformi (eng. very large online platforms, VLOPs) bi se trebala zahtijevati procjena potencijalnih rizika za sva temeljna prava i društvene učinke njihovih sustava. Samoocjenjivanje neće biti važeće ako ga ne provjere i neovisne treće strane, bile one javne ili ih predlože regulatori. Nadzorna bi tijela trebala izraditi smjernice o tome kako bi te procjene i revizije trebale izgledati.

4. Zaštitite korisnice i korisnike prema zadanim postavkama od nametnutih pretpostavki i tzv. “tamnih uzoraka” (eng. dark patterns)

Korisnice bi trebale biti zaštićene od prisilnog pristajanja na uvjete korištenja novom odredbom koja nalaže da zadani način pristupa uslugama platforme isključuje upotrebu podataka i za preporuke i za oglašavanje. Osim toga, postavkama pristanka za korištenje podataka trebalo bi upravljati putem sučelja prilagođenog korisniku neovisno o platformi. Treba zabraniti upotrebu vizualno varljivih sučelja za manipuliranje ili narušavanje korisničkog izbora, 'tamnih uzoraka'.

5. Omogućite korisnicama izmjenu sustava preporuka

Članak 29. trenutačno zahtijeva mogućnost odabira sustava preporuka koji se ne temelji na profiliranju. Kao što je gore navedeno, ovo isključivanje prema zadanim postavkama trebalo bi biti uključivanje. Osim toga, platforme mogu ponuditi svoje postojeće algoritme na principu “sve ili ništa”. No, to bi izričito trebali zahtjevati, a ne samo nuditi kao opciju korisnicima kod izbora parametara algoritama.

6. Osnažite korisnike kroz inovacije ekosustava

U konačnici, algoritamski učinci trebali bi biti teren na kojem se subjekti, komercijalni i neprofitni, natječu za osnaživanje korisnica i korisnika. Predlažemo promjenu članka 29. koja bi korisnicama dala na izbor da koriste preferirani sustav preporuka trećih strana, za koji bi platforma morala jamčiti interoperabilnost.

To bi značilo razdvajanje funkcija hostinga i kuriranja koje su trenutno centralizirane na platformama. U telekomunikacijskom sektoru, konkurentske usluge natječu se unutar iste infrastrukture - u kontekstu platforme postojeći pružatelji usluga bi nastavio nuditi sadržaj, ali bi treće strane mogle ponuditi usluge koje se na taj sadržaj nadograđuju. To bi također pritisnulo operatere platformi da reagiraju na kritike.

Konačno, čak i najsavršeniji regulatorni plan nema smisla bez odgovarajuće strukture provedbe, od vitalnog je značaja da nadzorna tijela imaju potrebnu stručnost i da su vezana proceduralnim pravilima koja osiguravaju pravovremenu intervenciju i učinkovite korektivne mjere.

DSA je jedinstvena prilika za stvaranje inovativnih rješenja za digitalni svijet koji je izgubio svoju nedužnost, ali u kojem su mogućnosti za građanke i građane još uvijek velike. Pozivamo vas da usvojite ove prijedloge koji mogu osigurati da se europska digitalna budućnost gradi na temeljnim pravima, zaštiti potrošačica i inovacijama koje su od koristi društvu.

S poštovanjem,

Zaklada Panoptykon i potpisnice

Zaklada Panoptykon iz Poljske osnovana je 2009. godine na inicijativu skupine društveno angažiranih odvjetnika sa ciljem zaštite slobode i ljudskih prava u društvu.

Gong je korisnik operativne potpore – strukturne podrške europskim think-do-thanks u cjelini “Demokratska i građanska participacija” u sklopu programa Europa za građane.

Gong je Centar znanja u području građanskog aktivizma i izgradnje demokratskih institucija društva u okviru Razvojne suradnje s Nacionalnom zakladom za razvoj civilnoga društva.

chevron-right