Že večkrat so me vprašali_e, zakaj neki sem se začela zanimati za seks robote ali spolne robote, eno od temnih ogledal obstoječih družbenih razmerij in identitet. Nekoč sem si svoj interes za objektifikacijo in programiranje vedenja že racionalizirala. Od svojega šestega leta sem namreč naličena plesala na visokih petah in v bolj ali manj sijočih oblekah ter sledila vodenju moškega plesalca. Velikokrat so mi med vajami očitali, da vodim, in pri mojih rosnih desetih se je trenerka na generalki zadrla, naj bom bolj seksi. Naučila sem se biti seksi na ukaz in se na plesnih tekmovanjih postrani smehljala, kadar so mi so mi vsaj sedemcentimetrske pete tekmic stopile na prste.
Z leti se smejem manj pogosto in neprisiljeno. Zavedam pa se, da zdaj še okornih naprav za merjenje obraznih odzivov in čustvovanj ne uporabljajo le v potrošniški sferi in oglaševalski industriji, v rabo jih prevzemajo že javne institucije. Tako upam, da dovoljenje za gibanje po javnem prostoru ne bo nekega dne od mojega obraza počivajoče psice zahtevalo (poleg imunosti in dovolj nizke temperature) tudi oblasti ustrezajoče mimike.
Prehajanje meja (s)pola
Evropska unija je lani testirala iBorderCtrl, projekt, v katerem za prehajanje meja preverjajo biometrične podatke – prstne odtise, vene v dlaneh in obraze posameznic_kov. Projekt so do avgusta 2019 testirali na madžarskih, grških in latvijskih mejnih prehodih, namenjen pa je bil državljanom_kam tretjih držav, ki bi radi vstopili_e na schengensko območje. Že pred prehodom meja so se morali prosilci_ke za vstop prijaviti prek spleta, ob odgovarjanju na vprašanja virtualnega agenta pa je računalniški vid preverjal njihove neverbalne mikrogeste in meril stopnjo tveganja, da prosilke_ci z odgovori zavajajo oziroma lažejo. Če so bili označeni_e za bolj tvegane, so jih na meji dodatno obravnavali, sicer pa so jo lahko prešli_e brez dodatnih pregledov.
Virtualni carinik je tako prek spletne kamere uporabnika_ce preverjal obrazne in očesne premike, kar naj bi omogočilo prepoznavo laži. Ray Bull, profesor kriminalističnega preiskovanja na Univerzi v Derbyju, je na portalu The Intercept zatrdil, da metode projekta iBorderCtrl niso verodostojne, saj ni dokazov, da bi bilo spremljanje obraznih mikrogest ustrezen način za ugotavljanje laganja.
Binarnost in črno-belo logiko informacijskih sistemov ob vsakem prehodu meja občutijo transspolne, interspolne in nebinarne osebe. Računalniške tehnologije za avtomatsko prepoznavanje spola so sicer že razvite, a za zdaj so človeški operaterji_ke oziroma človeška inteligenca tista, ki na letališčih izbere, ali detektor prečka moški ali ženska. Strojna nadzorovalna inteligenca pa prepoznava dva spola in priznava le izbrani kategoriji. Tudi če se oseba identificira za nebinarno, naprava za skeniranje teles letalskih potnikov_ic od operatorja zahteva, da pred vstopom v skener izbere, ali gre za moškega ali žensko. In tako obveza izbire – da bi stroj lahko prebral – izniči kontekstualnost, avtonomijo in fluidnost.
Past (ne)vidnosti
V nekaterih primerih je stremljenje k strojni neberljivosti nespametno ali nemogoče. V ZDA nekatere zdravstvene zavarovalnice sledijo nakupom hrane. Če razberejo nakupovanje zdrave hrane, osebam pritičejo nižje zavarovalne premije. Če pa osebe kupujejo nezdravo, jih doletijo višje premije. Kot piše Os Keyes, ki živi v Washingtonu – če nakupuje v trgovini Trader Joe, ki ima delujoč in posodobljen informacijski sistem, bo njihovo kupovanje zdrave hrane v očeh zavarovalnice zabeleženo, če pa gre v majhno živilsko trgovino, ki ni del verige, ta ne shranjuje podatkov, saj nima delujočega informacijskega sistema. In to bo vplivalo na zavarovalne premije, saj teh nakupov zavarovalnica ne bo zaznala.
Ameriško podjetje Palantir s svojimi storitvami, ki omogočajo aretacijo stotin ljudi naenkrat, pospešuje uspešnost deportacij nezakonitih priseljencev v ZDA. Na začetku leta 2019 je sklenilo partnerstvo s Svetovnim programom za hrano (World Food Programme, WFP). Slednji na leto razdeli hrano 91,4 milijona ljudem iz več kot 80 držav, Palantir pa je zloglasno podjetje za podatkovno analizo, ki je udeleženo v javno-zasebnih partnerstvih v ameriških mestih in zveznih državah, sodeluje pa tudi z obveščevalnimi agencijami. Na dogodku »Tehnologija, inovacija in konec lakote« aprila 2019 sem šefa inovacij pri WFP Roberta Oppa javno vprašala, ali se mu zdi Palantir primerno podjetje za analizo podatkov. Odgovoril je, da jim pomagajo z analizo »le logističnih« podatkov, in poudaril, da jim je Palantir prijazno ponudil petletno pro bono analizo.
Neki obiskovalec se je navezal na moje poizvedovanje. Oppa je vprašal, zakaj trdi, da gre za podatke, ki niso občutljive narave, če je pa v predstavitvi rekel, da bodo ob distribuciji hrane identiteto posameznikov_ic preverjali s skeniranjem šarenice. V promocijskih materialih, ki sem jih dobila na otvoritveni razstavi dogodka, je pisalo, da je biometrična identifikacija pomembna za učinkovitejšo in varnejšo distribucijo, večjo zasebnost podatkov in hitrejšo dostavo pomoči. Opp je na dilemo o (ne)občutljivosti podatkov odgovoril z rafalom praznih besed, kot so transparentnost, odgovornost in prepričanost, ter s slogani, kot je »Najranljivejši potrebujejo največ zasebnosti in zaščite«.
Le nekaj mesecev po začetku sodelovanja Palantirja z WFP je pridobivanje hrane pri WFP postalo pogojeno z dajanjem biometričnih podatkov. In le nekaj tednov nazaj je sodelovanje s Palantirjem za reševanje pandemije COVID-19 sklenil tudi britanski nacionalni zdravstveni sistem ali NHS, ponovno za odlično ceno – le enega funta. Podatke se pač poplača s podatki.
Zasebnost kot strojna neberljivost
Koronakriza nas je hitro približala Kitajski, tudi z vidika vpeljave nadzorovalnih in omejevalnih tehnologij. Že nekaj let Kitajska vzpostavlja socialni kreditni sistem, katerega glavni namen je ocenjevanje ugleda državljanov. Ustrezno vedenje naj bi posameznikovo_čino oceno zvišalo, neprimerno pa znižalo in onemogočilo dostop do ugodnosti, na primer potovanj ali kreditov.
Berljivost naših življenj se še bolj zahteva po začetku pandemije COVID-19. Neustrezno vedenje je trenutno močno vezano na neupoštevanje socialne distance v javnem prostoru, in tudi pri nas, ne le na Kitajskem, vodi v odvzem pravic, za zdaj le do pravice do gibanja.
Podjetje Landing AI je nedavno objavilo demonstracijo svojega detektorja socialne distance, ki naj bi bil uporab(lj)en na delovnih mestih. Posameznik_ca je na diagramu predstavljen_a kot točka, ki se obarva rdeče, ko se preveč približa drugi osebi.
Kaj nam zagotavlja, da takšnih tehnologij ne bodo sprva predlagali, nato pa premikanje po javnem prostoru pogojevali z njihovo rabo? Glede na to, da nas Splošna uredba EU o varstvu podatkov ne varuje pred mandatom skrbi za javno varnost, se bomo morali za pravico do neberljivosti v javnem prostoru še boriti. V Sloveniji še čakamo odgovor ustavnega sodišča v zvezi z nedavnimi neproporcionalnimi zahtevami po nadzoru državljanov. Informacijska pooblaščenka je izdala nekaj mnenj, v nedavnem odprtem pismu pa je zapisala, da jo skrbi sprejeto besedilo 103. člena Zakona o interventnih ukrepih, saj »bodo na njegovi podlagi represivni organi, med katere sodi policija, pridobivali osebne podatke za povsem nejasno opredeljene namene, množično in na zalogo. Gre za t.i. ribarjenje po podatkih brez vnaprejšnjega suma kršitve –»fishing expedition«, ki tovrstnim organom glede na sodno prakso niso dovoljene.«
Slovenija sicer sledi ostalim državam Evropske unije in naj bi nekega dne vpeljala aplikacijo za sledenje posameznikom s COVID-19 in njihovih bližin. Če že mora obstajati, naj bo aplikacija prostovoljna, decentralizirana, delujoča in učinkovita. Ne vem, ali je ob tolikih neznankah in premajhnemu testiranju obolelih grajenje aplikacij dobra ideja – je pa sledenje toku. Prehajanje meja bo morda kmalu pogojeno s sledljivostjo in nekužnostjo, wanderlust pa beseda nekega izteklega obdobja.
Umetna ali nadzorovalna inteligenca je velikokrat nevidna, ko pa jo vidimo, se pogosto kaže kot skrb – kot sledenje stikov okuženih, ki naj bi povečalo zaupanje med državljani. Toda odločiti se je treba, komu želimo zaupati. Strojem, njihovim lastnikom ali skupnosti(m)? Ko nas enkrat stroji berejo, nas namreč lahko njihovi lastniki s pridobljenimi podatki tudi lažje nadzorujejo in z nami manipulirajo. In si tako poleg strojev lastijo tudi nas.
Smo se za zdravje in varnost res pripravljene_i odpovedati zasebnosti? In če je zasebnost preveč abstrakten pojem, poizkusimo drugače: bomo pristali na strojno berljivost vsega, kar nas tvori? Glasovi, geste in dotiki so vezivo skupnosti. Boriti se moramo za njihovo – s tem pa našo – strojno neberljivost, za naše resnice.
***
Članek je nastal v sodelovanju s Feminističnim seminarjem, ki ga organizirata Katja Čičigoj in Klara Otorepec v sodelovanju s KUD-om Anarhiv in Mestno knjižnico Ljubljana (Trubarjevo hišo literature).
***
Prispevek je del projekta Spol in družba 2020, ki ga podpira Ministrstvo za kulturo.