«Il giorno del Ringraziamento del 2016 ho scoperto di essere incinta della mia seconda figlia, e Google l’ha saputo prima dei miei genitori e di mia sorella». Inizia così il primo capitolo de I figli dell’algoritmo (Luiss University Press, pp. 188, euro 18) di Veronica Barassi, antropologa e docente universitaria italiana (insegna Scienze della Comunicazione presso la Scuola di scienze umane e sociali dell’Università di San Gallo). Da anni Barassi si occupa delle implicazioni sociali e politiche delle tecnologie dei dati e dell’intelligenza artificiale e nel volume ci prende per mano per accompagnarci in un viaggio inquietante nel quale il capitalismo della sorveglianza dimostra tutta la sua attuale forza nella raccolta dati dei bambini, praticamente da pochi istanti dopo il loro concepimento.
Nel libro Barassi analizza i metodi, il progredire delle profilazioni – dalla nascita fino all’educazione – attraverso la «sorveglianza laterale» dovuta alla volontà dei genitori di sorvegliare, a loro volta, i figli. L’autrice però non si crogiola nel pessimismo di un lavoro di ricerca estenuante e dagli esiti poco benevoli nei confronti del nostro futuro, ma lascia aperta una via di fuga, ovvero la possibilità di concepire tutta la tecnologia che oggi ci controlla in modo completamente differente. In occasione dell’uscita del libro l’abbiamo intervistata.
C’è un prima e un dopo pandemia per quanto riguarda la raccolta dei dati di bambini. Il Covid ha portato a una digitalizzazione alla quale era difficile sottrarsi. Cosa ha significato per la raccolta dati dei social?
La pandemia è stato un momento importante che ha cambiato molte cose per quanto riguarda il capitalismo della sorveglianza. Il grande cambiamento è stato il fatto che processi già messi in moto nell’ultima decade sono stati estesi e amplificati. Un primo esempio lo troviamo nella didattica a distanza. È vero che negli ultimi dieci anni i big tech hanno investito molto nel settore dell’educazione ma con la pandemia il loro potere è aumentato a dismisura, come ha dimostrato il fatto che la maggior parte delle scuole in Italia ha cominciato a utilizzare Google classroom. Nel libro ci sono molti esempi di come l’accordo tra Google e Apple per le contact tracing app o anche l’espansione di altre aziende come Palantir riguardi il campo della sanità. Un’altra cosa amplificata ed estesa è stata quella relativa all’uso dei sistemi di intelligenza artificiale per la profilazione delle persone. Infatti proprio durante la pandemia abbiamo cominciato a parlare di software che sorvegliano a distanza i lavoratori o che analizzano l’espressione degli studenti a casa.
Che fine fanno questi dati?
È una domanda da cento milioni di dollari: anche quando si prova a capire – come ho fatto negli ultimi sei anni – dove finiscono i dati dei bambini raccolti sui social. Ho provato a capirlo analizzando le privacy policy, le richieste di brevetti, seguendo le notizie su scandali di piattaforme specifiche. Ci sono delle certezze, ad esempio che le compagnie condividono i dati anche quando non lo dicono. L’altra certezza è che erano nate delle aziende di data brokers che usano i dati dei bambini. Nel mio libro faccio l’esempio dei broker dei dati dell’educazione. Grazie ad alcuni studi si è scoperto che i dati vengono venduti, perfino quelli di bambini di due anni. Da una parte c’è la certezza che i dati sono condivisi con una quantità di attori diversi; in secondo luogo ci sono aziende nel sistema del capitalismo della sorveglianza che usano questi dati per creare dei profili digitali. Infine c’è la certezza che in diversi settori, dalle risorse umane alle assicurazioni ai sistemi governativi, vengono utilizzati sistemi di Intelligenza artificiale che mettono insieme anche i dati pubblici che si possono trovare sui social o dalle bollette del telefono. La verità è che però alla fine non abbiamo la consapevolezza assoluta di come vengano utilizzati questi dati e in che mani finiscano. Quello che dice Frank Pasquale è vero: più le nostre vite diventano trasparenti, meno trasparenti diventano i modi con i quali i nostri dati vengono utilizzati.
In che modo la raccolta dei dati avviene all’interno di quella che Lyon chiama la «cultura della sorveglianza», un sistema nel quale siamo controllati ma siamo anche diventati controllori. In che modo aiutiamo la raccolta dati dei big tech in sostanza?
Siamo tutti un po’ partecipi del sistema di sorveglianza. Le nuove tecnologie ci hanno dato la possibilità di seguire la vita di altri in modi che prima erano impossibili. Quando pensiamo a questi processi di co-sorveglianza o sorveglianza reciproca è importante capirne il valore umano. La maggior parte dei genitori non sorveglia i figli perché li voglia controllare ma perché vuole lenire alcune ansie o per cercare di occuparsi di loro. Il confine tra sorveglianza per controllo e come interattività e voglia di partecipare alla vita degli altri è sottile e indefinito. È l’effetto che questa cultura può avere sui ragazzi a dover essere indagata. Nel libro faccio l’esempio del Gps tracking e di come questo possa essere deleterio per i ragazzi che si sentono controllati e deresponsabilizzati. Dobbiamo però ricordare che invece di puntare il dito contro queste pratiche è anche importante capirne l’aspetto umano e antropologico.
Nel libro cita Graeber: in che modo oggi possiamo sottrarci alle «tecnologie del dominio» come le definì Haraway?
Alla fine del libro cito Graeber per una ragione specifica: David è stato il mio relatore quando stavo finendo il mio Phd e poi per due anni sono stata la sua assistente in un corso del terzo anno e tutto quello che sono oggi in qualche modo lo devo a lui; nella mia attività utilizzo il suo lavoro per mostrare come le tecnologie che abbiamo creato potevano essere immaginate in milioni di modi diversi. Graeber fa una distinzione tra tecnologie poetiche e burocratiche e sostiene che l’uomo si è sempre basato sulla realizzazione di processi o sistemi tecnologici che erano messi in moto perché si voleva creare innovazione. Dagli anni ’70 ad oggi poi le tecnologie sono diventate sempre più burocratiche, messe in mano a quella che lui chiama la «burocrazia aziendale» e ai comparti militari. In questo modo abbiamo perso quella spinta innovativa e creatrice che avrebbe distinto il nostro uso della tecnologia. Se pensiamo alla raccolta dati dei social che lascia ben poco spazio alla nostra immaginazione – accettando le regole stringenti delle piattaforme -, le teorie di Graeber diventano fondamentali per mettere in risalto non solo questioni legate al potere ma anche la possibilità di immaginare che avremmo potuto fare tutto in modo diverso. La sua teoria, dal mio punto di vista dimostra quante occasioni abbiamo mancato: i nostri figli non sarebbero stati figli dell’algoritmo, avremmo potuto fare altre scelte.
In che modo questa materia è o meno regolata dagli Stati e dall’Unione europea? Ci sono esempi da seguire?
L’Europa si trova in mezzo tra Stati Uniti e Cina dove in modo diverso la sorveglianza è piuttosto spinta. L’Europa non è immune pur avendo delle protezioni come la Gdpr e i tentativi del parlamento europeo, che sta cercando di regolamentare alcuni utilizzi delle tecnologie di sorveglianza. L’Europa sta facendo dei passi avanti ma penso che siamo all’interno della stessa cornice del cambiamento climatico. Ci sono paesi che stanno facendo più di altri, ma siamo di fronte a un problema globale e quindi le scelte di altri impattano sul nostro sistema. Quindi da un certo punto di vista non credo che abbiamo ancora trovato una soluzione. Sui dati dei bambini sono ottimista perché si stanno facendo passi in avanti, ma come dico alla fine del mio libro queste tecnologie sono davvero nuove e non conosciamo ancora i veri pericoli e l’impatto che si manifesteranno negli anni a venire.
da il manifesto