INTERVISTA A PALOMA LLANEZA: I PREGIUDIZI DEGLI ALGORITMI

Sottovalutate la privacy perché pensate che non avete nulla da nascondere? Le migliaia di dati prelevati con o senza consenso hanno ricadute nella vita di tutti i giorni. Una famosa avvocatessa spagnola, esperta di nuove tecnologie ed impegnata in diversi enti normativi internazionali, spiega il valore della conoscenza tecnologica.

Paloma LLaneza - Datanomics

Sono comodi gli aspirapolvere con telecamera e sensori che fanno pulizia da soli, mappando ogni punto della casa. Peccato che siano connessi e che riprendano tutto. Si compra un aspirapolvere, ma si regalano le informazioni di casa che valgono molto di più.

Aggiungiamoci la passione per WhatsApp, la puntuale cronistoria dei propri movimenti e pensieri sui social, la paresi che incolla lo smartphone al palmo della mano camminando, guidando e persino in bagno ed otterremo il nostro doppio digitale che ha una sua vita, fuori dal nostro controllo.

Quando qualcuno fa notare l’esagerata esposizione alle connessioni, la risposta standard della maggioranza delle persone è: “A chi vuoi che interessino i miei dati, non sono importante“. La propaganda a favore della raccolta dei dati arriva ad accusare chi difende la privacy di essere ostinatamente ancorato al passato o di voler nascondere qualcosa.

Paloma Llaneza

(c) Julian Fallas

Paloma Llaneza è un’avvocatessa spagnola specializzata in tecnologia, CEO di Razona LegalTech, fondatrice di The Llaneza Firm, direttrice tecnica per l’eIDAS in CERTICAR (il regolamento eIDAS fornisce una base normativa per le interazioni elettroniche fra cittadini, imprese e pubbliche amministrazioni nell’Unione Europea), editrice internazionale per ISO (Organizzazione Internazionale per la Standardizzazione), ETSI (Istituto Europeo per gli Standard nelle Telecomunicazioni), CEN-CENELEC (Comitati europei di normazione e normazione elettronica), arbitro della Camera di Commercio di Madrid. Una vera autorità nel settore delle nuove tecnologie, nelle comunicazioni digitali, nei servizi elettronici ed in cybersecurity.

Copertina Datanomic di Paloma Llaneza

Nel 2019 ha pubblicato Datanomics dove spiega come imprese e governi utilizzino i dati delle persone.

Nel libro si legge come i dati siano un sottoprodotto delle nostre attività e si vive con l’illusione che siano analizzati da algoritmi neutrali fondati su criteri di parità. Non è così. Ci sono algoritmi trasparenti che mostrano quali elementi entrano e l’output generato, permettendo di discutere su come è stata presa una decisione, altri sono delle scatole nere.

Perché una banca nega un prestito o perché si è rifiutati ad una certa università?

Uno studio, della Commissione Federale del Commercio degli Stati Uniti, ha scoperto che alcuni individui non accedevano al credito non in base alla propria storia, ma perché un’analisi, usando un modello matematico e big data, era arrivata alla conclusione che chi comperava in un determinato negozio aveva un’alta probabilità di non pagare i debiti. La reputazione sociale (rating) di un individuo era stata misurata con algoritmi che classificavano tutti gli acquirenti di un negozio come persone inaffidabili per un prestito.

Questi sono i big data e gli algoritmi imperfetti. Una macchina non ragiona per eccezioni a meno di non incrociare i dati. La società standardizzata diventa anonima con diritti preclusi perché un algoritmo lo ha deciso.

La gente preferisce evitare di affrontare certi problemi sentendosi protetta dalla giustificazione del “così fan tutti“, ma la signora Llaneza mette in guardia sul fatto che i modelli matematici siano contagiosi, come i virus, perché sono esportabili ad esempio da un sito social ad un altro contesto per valutare il rating di una persona. Chi è pericoloso? Chi è suscettibile di creare un problema? Chi è degno di studiare? Chi è un buon cittadino? Questa non è futurologia, ci sono già nazioni che adottano decisioni sulla vita dei propri cittadini in base a pregiudizi insiti negli algoritmi.

Mesi fa avevamo scritto che la tecnologia del controllo s’insinua approfittando di situazioni in cui una causa scatenante suscita un’emotività generalizzata. Questo è un momento dove un evento globale ha fatto emergere una diffusa disorganizzazione con il rischio di far passare messaggi poco chiari. E’ in queste circostanze che è utile il parere di persone esperte come la signora Llaneza.

Di recente è stata pubblicizzata un’iniziativa del MIT (Safe Paths) che può aiutare a risolvere il coronavirus segnalando i contatti con persone positive al test garantendo la privacy. In pratica il programma accede al diario personale dell’utente, lo geolocalizza e trae i suoi contatti incrociando le informazioni con il database della Sanità Pubblica che cederebbe i dati all’estero. Come si maturano gli anticorpi a questo tipo d’attacchi contro la privacy?

“Sorprende che iniziative di questo tipo siano presentate come rispettose della privacy quando, in realtà, espongono chi le usa alla vigilanza tecnologica. Colpisce che il MIT consideri la cifratura sinonimo di privacy e che non sia cosciente della mancanza di garanzie sulla condivisione dei dati con le autorità sanitarie, né il loro impatto su altre libertà derivanti da quest’auto-imputazione.

Domanderei trasparenza su chi raccoglie i dati, ma sappiamo che questa condizione non si regala e che enti pubblici e privati sono riluttanti ad essere trasparenti soprattutto in tempo di crisi. Temo che la legge in questo periodo sia sufficiente per dar copertura nell’Unione Europea alle app di tracking, ma sia scarsa per seguire cosa si farà di questi dati nel futuro.

Sono convinta che solo la tecnologia possa trovare una soluzione ai problemi che la stessa tecnologia causa, probabilmente dovremo pianificare mezzi tecnici per impedire il tracking.”

E’ ancora presto per avere tutti i dati per un’analisi corretta del fenomeno, ma si è già fatta un’idea sulla gestione di questa crisi sanitaria?

“In Spagna, quando è stata presa la decisione del lockdown, c’erano 400 persone infettate. Nessun politico prevede di dover bloccare un’intera popolazione distruggendo il tessuto produttivo di un paese. Era evidente che la pandemia sarebbe arrivata e mancavano i mezzi, test ed altre risorse per mitigare il fenomeno e quest’impreparazione non può essere scusata. I motivi sociali e la struttura famigliare non spiegano la gran differenza fra i morti in Italia e Spagna in rapporto alla Germania. E’ evidente che qualcosa sia stato fatto male.

Ricorrere alla vigilanza elettronica sul modello della dittatura cinese è una reazione sproporzionata tipica di qualcuno che sa di aver sbagliato e copia qualsiasi ricetta funzionante di un altro paese, qualunque sia la nazione.”

I giornali italiani e spagnoli hanno parlato delle cosiddette Arche di Noè, dei luoghi dove isolare tutte le persone asintomatiche in nome della salute pubblica. Una concentrazione di malati potrebbe portare più danni che benefici. Ci sono  spazi per difendere il Diritto di fronte ad un concetto di Salute Pubblica teorica e modellabile a seconda del tipo di governo?

“La misura sarebbe presa per evitare nuovi picchi. Secondo l’Imperial College britannico sembra però che gli infettati che abbiano in un modo o nell’altro superato la malattia e che potrebbero essere immuni in paesi fortemente colpiti come Italia o Spagna, ci avvicinerebbero all’immunità del gregge.

Quando alla domanda sul Diritto, in Spagna le norme per recludere qualcuno contro la sua volontà sono molto severe e richiedono l’intervento di un giudice.”

Le persone sono bombardate d’informazioni in ambito sanitario o tecnologico e riprendono formule semplicistiche senza essere messe in grado di approfondirle. Esistono rimedi contro i mantra “… Se i dati sono aggregati … Se è per una questione di salute pubblica … Se c’è un interesse scientifico”? In generale perché le persone svalutano la privacy?

“La gente non dà importanza alla privacy perché il racconto dei politici ha terrorizzato fino al punto che si farebbe di tutto per non morire. Quando tutto sarà finito, saranno più preoccupati dalle conseguenze economiche che ci aspettano. Si pensa ai diritti solo quando si perdono.

Scendendo nel dettaglio, un dato aggregato può non essere più anonimo se si tratta con altri dati. Uno studio statunitense, del 2019, ha dimostrato che con 15 dati statistici anonimi è possibile identificare il 99,9% della popolazione, con 3 dati fino ad un 64%. E’ evidente che ogni Stato ha molti nostri dati, anonimi o no. Il dato disaggregato non assicura l’anonimato, dipende da chi, come e quante informazioni sono trattate.

Inoltre bisogna fare una distinzione fra le app di autodiagnosi che catturano il geoposizionamento sulla base legale data dall’interesse generale, conforme al Regolamento Generale di Protezione dei Dati dell’Unione Europea di concerto con il Garante della Privacy nazionale, dall’uso di dati anonimi e disaggregati delle aziende di telecomunicazione che, inizialmente, non sono soggette per il loro carattere anonimo al regolamento e possono usarsi senza limitazioni.

La Legge Generale sulla Salute Pubblica spagnola, inoltre, fornisce una base legale per utilizzare i dati dei malati con la finalità di far terminare un’epidemia, senza il consenso. Le app di autodiagnosi con dati medici controllerebbero solo una parte molto piccola della popolazione.”

A livello europeo ci sono programmi che offrono una reale tutela? Facebook in una delle numerose policy richiede l’accesso alle videocamere, in Italia ci sono compagnie di servizi che vendono, pur non avendo l’autorizzazione, dati come il numero del cellulare ad aziende esterne che le rivendono per fini pubblicitari. Se c’è una legislazione, perché nessuno la rispetta?

“La legislazione si basa sull’ottenimento del consenso da parte degli utenti che lo danno senza leggere le condizioni. Sarebbe semplice dar loro la colpa, ma in realtà in molti casi si subisce la pressione del gruppo. Avere l’ultimo social di moda procura un condizionamento ed impedisce un comportamento responsabile e razionale. Inoltre non aiuta il fatto che noi avvocati, ricevendo un incarico dai clienti, siamo obbligati a proteggerli redigendo clausole sulla privacy incomprensibili per un cittadino medio.”

L’Unione Europea si divide sempre quando si parla di economia con alleanze nord/sud. Ci sono linee strategiche diverse anche sulla privacy?

“Guardando la legislazione precedente al Regolamento, Germania e Spagna erano le nazioni più rigorose e caute. Questo non significa che un tedesco non accetti con la stessa allegria le condizioni di FB di uno spagnolo.”

Ci sentiamo protetti quando ci dicono che il controllo serve per assassini o pedofili, ma si rischia di arrivare a giustificare per l’alto bene sociale, per la salute, per l’ambiente o per qualsiasi prossima causa degna di considerazione, la sorveglianza pre-crimine. Una volta si era presunti innocenti fino a prova contraria, ora, secondo le parole dell’ex-Segretario di Stato del Regno Unito, Amber Rudd, si è “persone non processate” (pag 236 Datanomics, ndr). La manipolazione passa dal paternalismo che mostra i benefici, come il presunto miglioramento della società, ma in realtà si prospettano situazioni alla Person of Interest.

Secondo la signora Llaneza bisogna pretendere che si raccolgano i dati strettamente imprescindibili, troppi dati non sono securizzabili e dunque dovrebbero essere distrutti una volta usati, nell’attesa che la tecnologia trovi la maniera di restituirci il diritto di essere lasciati in pace.

Purtroppo Datanomics non è tradotto in italiano, ma è un libro da leggere prima di parlare di IoT, tracking, social, sicurezza. E’ un’analisi nuda e cruda di come generazioni di entusiasti per la tecnologia si ritrovino scavalcate da logiche al di fuori della loro portata.

RIPRODUZIONE RISERVATA – © 2020 SHOWTECHIES Simona Braga Vietata la riproduzione totale o parziale dell’articolo senza autorizzazione scritta.

Immagini: La foto della Signora LLaneza è di JULIAN FALLAS.

20949 Persone hanno letto questo articolo

Potrebbe interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *