Berljivost teles

Že večkrat so me vprašali_e, zakaj neki sem se začela zanimati za seks robote ali spolne robote, eno od temnih ogledal obstoječih družbenih razmerij in identitet. Nekoč sem si svoj interes za objektifikacijo in programiranje vedenja že racionalizirala. Od svojega šestega leta sem namreč naličena plesala na visokih petah in v bolj ali manj sijočih oblekah ter sledila vodenju moškega plesalca. Velikokrat so mi med vajami očitali, da vodim, in pri mojih rosnih desetih se je trenerka na generalki zadrla, naj bom bolj seksi. Naučila sem se biti seksi na ukaz in se na plesnih tekmovanjih postrani smehljala, kadar so mi so mi vsaj sedemcentimetrske pete tekmic stopile na prste.

Moje tekmovanje v latinskoameriških plesih, nekje na začetku 21. stoletja. Vir: osebni arhiv.

Moje tekmovanje v latinskoameriških plesih, nekje na začetku 21. stoletja. Vir: osebni arhiv.

Z leti se smejem manj pogosto in neprisiljeno. Zavedam pa se, da zdaj še okornih naprav za merjenje obraznih odzivov in čustvovanj ne uporabljajo le v potrošniški sferi in oglaševalski industriji, v rabo jih prevzemajo že javne institucije. Tako upam, da dovoljenje za gibanje po javnem prostoru ne bo nekega dne od mojega obraza počivajoče psice zahtevalo (poleg imunosti in dovolj nizke temperature) tudi oblasti ustrezajoče mimike.


Prehajanje meja (s)pola

Evropska unija je lani testirala iBorderCtrl, projekt, v katerem za prehajanje meja preverjajo biometrične podatke – prstne odtise, vene v dlaneh in obraze posameznic_kov. Projekt so do avgusta 2019 testirali na madžarskih, grških in latvijskih mejnih prehodih, namenjen pa je bil državljanom_kam tretjih držav, ki bi radi vstopili_e na schengensko območje. Že pred prehodom meja so se morali prosilci_ke za vstop prijaviti prek spleta, ob odgovarjanju na vprašanja virtualnega agenta pa je računalniški vid preverjal njihove neverbalne mikrogeste in meril stopnjo tveganja, da prosilke_ci z odgovori zavajajo oziroma lažejo. Če so bili označeni_e za bolj tvegane, so jih na meji dodatno obravnavali, sicer pa so jo lahko prešli_e brez dodatnih pregledov.

Virtualni carinik je tako prek spletne kamere uporabnika_ce preverjal obrazne in očesne premike, kar naj bi omogočilo prepoznavo laži. Ray Bull, profesor kriminalističnega preiskovanja na Univerzi v Derbyju, je na portalu The Intercept zatrdil, da metode projekta iBorderCtrl niso verodostojne, saj ni dokazov, da bi bilo spremljanje obraznih mikrogest ustrezen način za ugotavljanje laganja.

carina

Virtualna carina. Vir >>

Binarnost in črno-belo logiko informacijskih sistemov ob vsakem prehodu meja občutijo transspolne, interspolne in nebinarne osebe. Računalniške tehnologije za avtomatsko prepoznavanje spola so sicer že razvite, a za zdaj so človeški operaterji_ke oziroma človeška inteligenca tista, ki na letališčih izbere, ali detektor prečka moški ali ženska. Strojna nadzorovalna inteligenca pa prepoznava dva spola in priznava le izbrani kategoriji. Tudi če se oseba identificira za nebinarno, naprava za skeniranje teles letalskih potnikov_ic od operatorja zahteva, da pred vstopom v skener izbere, ali gre za moškega ali žensko. In tako obveza izbire – da bi stroj lahko prebral – izniči kontekstualnost, avtonomijo in fluidnost.


Past (ne)vidnosti

Skener teles.

Skener teles.

V nekaterih primerih je stremljenje k strojni neberljivosti nespametno ali nemogoče. V ZDA nekatere zdravstvene zavarovalnice sledijo nakupom hrane. Če razberejo nakupovanje zdrave hrane, osebam pritičejo nižje zavarovalne premije. Če pa osebe kupujejo nezdravo, jih doletijo višje premije. Kot piše Os Keyes, ki živi v Washingtonu – če nakupuje v trgovini Trader Joe, ki ima delujoč in posodobljen informacijski sistem, bo njihovo kupovanje zdrave hrane v očeh zavarovalnice zabeleženo, če pa gre v majhno živilsko trgovino, ki ni del verige, ta ne shranjuje podatkov, saj nima delujočega informacijskega sistema. In to bo vplivalo na zavarovalne premije, saj teh nakupov zavarovalnica ne bo zaznala.

Ameriško podjetje Palantir s svojimi storitvami, ki omogočajo aretacijo stotin ljudi naenkrat, pospešuje uspešnost deportacij nezakonitih priseljencev v ZDA. Na začetku leta 2019 je sklenilo partnerstvo s Svetovnim programom za hrano (World Food Programme, WFP). Slednji na leto razdeli hrano 91,4 milijona ljudem iz več kot 80 držav, Palantir pa je zloglasno podjetje za podatkovno analizo, ki je udeleženo v javno-zasebnih partnerstvih v ameriških mestih in zveznih državah, sodeluje pa tudi z obveščevalnimi agencijami. Na dogodku »Tehnologija, inovacija in konec lakote« aprila 2019 sem šefa inovacij pri WFP Roberta Oppa javno vprašala, ali se mu zdi Palantir primerno podjetje za analizo podatkov. Odgovoril je, da jim pomagajo z analizo »le logističnih« podatkov, in poudaril, da jim je Palantir prijazno ponudil petletno pro bono analizo.

eye-2771183_1920

Biometrija očesa. Vir >>

Neki obiskovalec se je navezal na moje poizvedovanje. Oppa je vprašal, zakaj trdi, da gre za podatke, ki niso občutljive narave, če je pa v predstavitvi rekel, da bodo ob distribuciji hrane identiteto posameznikov_ic preverjali s skeniranjem šarenice. V promocijskih materialih, ki sem jih dobila na otvoritveni razstavi dogodka, je pisalo, da je biometrična identifikacija pomembna za učinkovitejšo in varnejšo distribucijo, večjo zasebnost podatkov in hitrejšo dostavo pomoči. Opp je na dilemo o (ne)občutljivosti podatkov odgovoril z rafalom praznih besed, kot so transparentnost, odgovornost in prepričanost, ter s slogani, kot je »Najranljivejši potrebujejo največ zasebnosti in zaščite«.

Le nekaj mesecev po začetku sodelovanja Palantirja z WFP je pridobivanje hrane pri WFP postalo pogojeno z dajanjem biometričnih podatkov. In le nekaj tednov nazaj je sodelovanje s Palantirjem za reševanje pandemije COVID-19 sklenil tudi britanski nacionalni zdravstveni sistem ali NHS, ponovno za odlično ceno – le enega funta. Podatke se pač poplača s podatki.

Zasebnost kot strojna neberljivost

Koronakriza nas je hitro približala Kitajski, tudi z vidika vpeljave nadzorovalnih in omejevalnih tehnologij. Že nekaj let Kitajska vzpostavlja socialni kreditni sistem, katerega glavni namen je ocenjevanje ugleda državljanov. Ustrezno vedenje naj bi posameznikovo_čino oceno zvišalo, neprimerno pa znižalo in onemogočilo dostop do ugodnosti, na primer potovanj ali kreditov.

Berljivost naših življenj se še bolj zahteva po začetku pandemije COVID-19. Neustrezno vedenje je trenutno močno vezano na neupoštevanje socialne distance v javnem prostoru, in tudi pri nas, ne le na Kitajskem, vodi v odvzem pravic, za zdaj le do pravice do gibanja.

Podjetje Landing AI je nedavno objavilo demonstracijo svojega detektorja socialne distance, ki naj bi bil uporab(lj)en na delovnih mestih. Posameznik_ca je na diagramu predstavljen_a kot točka, ki se obarva rdeče, ko se preveč približa drugi osebi.

Kaj nam zagotavlja, da takšnih tehnologij ne bodo sprva predlagali, nato pa premikanje po javnem prostoru pogojevali z njihovo rabo? Glede na to, da nas Splošna uredba EU o varstvu podatkov ne varuje pred mandatom skrbi za javno varnost, se bomo morali za pravico do neberljivosti v javnem prostoru še boriti. V Sloveniji še čakamo odgovor ustavnega sodišča v zvezi z nedavnimi neproporcionalnimi zahtevami po nadzoru državljanov. Informacijska pooblaščenka je izdala nekaj mnenj, v nedavnem odprtem pismu pa je zapisala, da jo skrbi sprejeto besedilo 103. člena Zakona o interventnih ukrepih, saj »bodo na njegovi podlagi represivni organi, med katere sodi policija, pridobivali osebne podatke za povsem nejasno opredeljene namene, množično in na zalogo. Gre za t.i. ribarjenje po podatkih brez vnaprejšnjega suma kršitve –»fishing expedition«, ki tovrstnim organom glede na sodno prakso niso dovoljene.«

Slovenija sicer sledi ostalim državam Evropske unije in naj bi nekega dne vpeljala aplikacijo za sledenje posameznikom s COVID-19 in njihovih bližin. Če že mora obstajati, naj bo aplikacija prostovoljna, decentralizirana, delujoča in učinkovita. Ne vem, ali je ob tolikih neznankah in premajhnemu testiranju obolelih grajenje aplikacij dobra ideja – je pa sledenje toku. Prehajanje meja bo morda kmalu pogojeno s sledljivostjo in nekužnostjo, wanderlust pa beseda nekega izteklega obdobja.

Umetna ali nadzorovalna inteligenca je velikokrat nevidna, ko pa jo vidimo, se pogosto kaže kot skrb – kot sledenje stikov okuženih, ki naj bi povečalo zaupanje med državljani. Toda odločiti se je treba, komu želimo zaupati. Strojem, njihovim lastnikom ali skupnosti(m)? Ko nas enkrat stroji berejo, nas namreč lahko njihovi lastniki s pridobljenimi podatki tudi lažje nadzorujejo in z nami manipulirajo. In si tako poleg strojev lastijo tudi nas.

Smo se za zdravje in varnost res pripravljene_i odpovedati zasebnosti? In če je zasebnost preveč abstrakten pojem, poizkusimo drugače: bomo pristali na strojno berljivost vsega, kar nas tvori? Glasovi, geste in dotiki so vezivo skupnosti. Boriti se moramo za njihovo – s tem pa našo – strojno neberljivost, za naše resnice.

Članek je nastal v sodelovanju s Feminističnim seminarjem, ki ga organizirata Katja Čičigoj in Klara Otorepec v sodelovanju s KUD-om Anarhiv in Mestno knjižnico Ljubljana (Trubarjevo hišo literature).

Prispevek je del projekta Spol in družba 2020, ki ga podpira Ministrstvo za kulturo.

2916

Utopije iz ugrabljenih teles

Epstein_2013_mugshot

Jeffrey Epstein (vir:
Wikipedia)

Filantrop Jeffrey Epstein[1] je bil obsojen zaradi pedofilije in trgovanja z mladoletnicami, po njegovi smrti pa so se začela odpirati vprašanja o njegovih finančnih in drugih vplivih na vplivne institucije.

Med drugim se je razkrilo, da je dolga leta doniral MIT Media Labu,[2] eni pomembnejših raziskovalnih institucij, ki gradijo utopije in infrastrukture naših digitalno mediiranih življenj. To razkritje je po letih pridobljene, a polagoma izgubljajoče se vere v svobodo interneta in kiberprostorov odprlo vprašanja o njihovi (ne)demokratičnosti. Pripeljalo je do razprave o privilegijih in motivih tistih, ki financirajo zgodbe o virtualni svobodi.

V času tega razkritja je bil poleg odstopa direktorja MIT Media Laba Joija Ita in nekaterih zaposlenih[3] še posebno poveden govor[4] danah boyd, ene najbolj znanih medijskih teoretičark anglofonskega sveta. Ne glede na njene male začetnice in začetke je boyd uspelo prebiti stekleni zid in pred leti postati ena osamljenih žensk na tem področju. Boyd je študirala na MIT Media Labu v letih 1999–2002, v času, ko ga je že financiral Epstein.

Ob prejemu prestižne nagrade Barlow/Pioneer je v govoru povedala, da je v času delovanja na tej instituciji videla toliko nadlegovanja in trpinčenja, da je zanjo postalo nekaj običajnega. Izpostavila je tudi, da se je njeno prijateljevanje z Johnom Perryjem Barlowom, po katerem je nagrada poimenovana, zaključilo prav zaradi njegovega prepričevanja, da naj pozabi na spolno predatorstvo, ki ga je doživela od njegovega prijatelja:

»Nagrado, poimenovano po Barlowu, prejemam slab teden za tem, ko je Joi odstopil s položaja v instituciji, ki me je skoraj uničila, potem ko se je družil z znanim pedofilom in od njega prejemal denar. Jasna bom – to je zame globoko destabilizirajoče. Danes sem tukaj zato, ker sem imela koristi od velikodušnosti moških, ki so tolerirali in s tem omogočali neetične, amoralne in kriminalne moške. In prav zaradi tega privilegija sem lahko napredovala, medtem ko je bila kolateralna škoda patriarhata utišanje številnih drugih glasov okoli mene.«

***

Prvi zapis na blogu je danah boyd objavila leta 1997, še preden je vedela, da bo takšno delovanje nekega dne poimenovano bloganje. Zapis je bil o spolnem napadu, ki ga je doživelo njeno lastno telo.

danah boyd

danah boyd (vir:
Wikipedia)

Demokratizacija interneta, ki je oziroma naj bi omogočila objavljanje in deljenje takšnih izpovedi ter pomenila opolnomočenje za tiste, ki niso beli, izobraženi, bogati in cis moški, se v veliki meri pač ni zgodila. V pomembni meri zato, ker so bili beli, izobraženi, bogati in cis moški tisti, ki so pisali najpogosteje brane in slišane povesti o svobodi internetne utopije. In ker med drugim tudi pedofili in ugrabitelji teles financirajo (so financirali?) široko sprejete ideje o demokraciji, ki naj bi jo vzpostavljali internet in njegovi kiberprostori.

Ta demokratizacija za nekatere je povezana z univerzalizmom, kakršnega prepoznamo v mnogih preteklih in sedanjih tekstih, ki podpirajo internetne, digitalne, tehnološke ideologije in utopije.

***

Univerzalizem, simptom tistih, ki prepričujejo z »mi«, se bere med vrsticami.

John Perry Barlow, po katerem je poimenovana nagrada, ki jo je prejela danah boyd, je avtor Deklaracije o neodvisnosti kiberprostora (1996).[5] Ta pomembni tekst opredeljuje kiberprostor kot področje, ločeno od klasičnih oblastniških struktur, ki si lastijo naša telesa.

Nekaj odlomkov iz deklaracije:

»Svet, ki je povsod in hkrati nikjer, pripada nam in je daleč od sveta, v katerem živijo telesa.«

»Ustvarjamo svet, v katerega lahko vstopi vsakdo brez privilegijev in predsodkov o rasi, bogastvu, vojaški sili ali mestu rojstva.«

»Naše identitete nimajo teles, zato v nasprotju z vami ne moremo vzdrževati reda s fizično prisilo.«

Barlowova kiberutopija ni vzpostavila prostora, v katerem bi lahko delovale ali bile vzpostavljene infrastrukture, ki bi delovale ne glede na identitetne označevalce. Misel, da je vzpostavitev takšnih infrastruktur in parasvetov sploh mogoča, je lažna. Njena lažnost pa je morda bolj vredna zasledovanja od sledenja lažnim novicam, katerega najpomembnejša vloga je morda le večanje vloge tistih institucij, ki si lažnost lahko privoščijo računsko – analitično – izslediti, utopije pa graditi iz profitov sužnjelastništva.

***

Biti young, gifted and black je fact, ki ga mediirajo in rangirajo brskalniki, iskalniki in platforme, ki jih najredkeje gradijo nebele ženske. Search engine optimization (SEO) optimizira v korist tistih chief executive officerjev (CEO), ki plačujejo za SEO, v nezanemarljivi meri motor optimizacije zatiranja.

Povod, da je Safiya Umoja Noble napisala knjigo Algorithms of opression: how search engines reinforce racism (2018),[6] je bila poizvedba v Googlovem iskalniku. Zanimalo jo je, kaj bi lahko zanimalo njeno pastorko in nečakinje, in ob iskanju ključne besede »black girls« je bil prvi zadetek HotBlackPussy.com.

 

Od objave te knjige do danes so Googlovi algoritmi postali nekoliko manj rasistični: ukinjen je na primer autocomplete na »Women should not« ali »Women cannot«. V moji verziji Googlovega iskalnika ključni pojem »Slovenian women« kot prvi zadetek ponudi povezavo na stran Slovenian Women For Marriage – Russians Brides,[7] ključni pojem »Slovenian men« pa usmeri na 25 reasons why you should NEVER visit Slovenia.[8] Morda je vaša personalizirana izkušnja malce drugačna.

slovenke

 

A ker infrastrukturo javnih knjižnic 21. stoletja – spletne iskalnike – prepogosto gradijo tisti, ki niso bili na lastnem telesu soočeni z nasiljem kategorizacij, si morda delimo vsaj izkušnjo tega, da nam feministične ali antirasistične objave iskalniki predočijo pozno ali nikoli.

***

Vizije za iskalnike, platforme in motorje prihodnosti prihajajo od ustvarjalnih institucij, kot je MIT Media Lab. Institucij, ki jih v pomembni meri financirajo posamezniki, kot je Epstein. Ti pogosto izjavljajo univerzalistični »mi«, ki obljublja demokracijo, skupnost, svobodo v kiberprostoru.

Toda razen skupnosti družbe nadzora, v katero so nas zvabile prepričujoče tehnologije, takšne infrastrukture ne vzpostavljajo prostorov svobode brez razrednih pregrad. V pomembni meri namreč kiberprostor ostaja – tako kot v svojem izvoru – militariziran, rasističen in seksističen infrastrukturni projekt. In kot izdaja zgodba o vplivu Epsteina, utopičen projekt, grajen s profiti iz ukradenih teles.

[1] https://www.mladina.si/192560/moz-ki-je-prevec-vedel/ (30. 10. 2019).

[2] https://www.theguardian.com/commentisfree/2019/sep/07/jeffrey-epstein-mit-funding-tech-intellectuals (30. 10. 2019).

[3] https://medium.com/@EthanZ/on-me-and-the-media-lab-715bfc707f6f (30. 10. 2019).

[4] https://onezero.medium.com/facing-the-great-reckoning-head-on-8fe434e10630 (30. 10. 2019).

[5] https://zofijini.net/modrost_deklaracija/ (30. 10. 2019).

[6] Safiya Umoja Noble, Algorithms of opression: how search engines reinforce racism, New York University Press, New York, 2018.

[7] https://russiansbrides.com/slovenian-women/ (30. 10. 2019).

[8] https://www.total-slovenia-news.com/travel/231-25-reasons-why-you-should-never-visit-slovenia (30. 10. 2019).