Nella guerra in Ucraina, anche la biometria e il riconoscimento facciale hanno svolto un ruolo. In una lunga intervista con Techcrunch, il ministro della Trasformazione digitale ucraino Mykhailo Fedorov ha dichiarato che la tecnologia di riconoscimento facciale prodotta dall’azienda Clearview AI sia utilizzata per identificare i soldati russi che, non di rado, vengono inviati sul campo di battaglia senza portare con sé alcun documento identificativo. Questo veniva confermato successivamente sia alla BBC che all’agenzia di stampa Reuters dal Ceo dell’azienda stessa, Hoan Ton-Hat, il quale aggiungeva che, in pancia, Clearview AI avrebbe ben due milioni di foto provenienti da Vkontakte – il social network altrimenti noto come il “Facebook russo” – e che avrebbe potuto essere utile anche allo scopo di riunire i rifugiati ucraini separati dalle loro famiglie. Nell’intervista si aggiungeva un altro dettaglio: l’utilizzo dell’applicazione veniva fornito da Clearview in modalità gratuita alle forze armate ucraine.
In un video pubblicato da “IT Army of Ukraine”, un gruppo di attivisti hacker promosso direttamente dal governo ucraino, si vede proprio Clearview AI in azione, utilizzata per identificare e notificare la morte dei soldati russi alle relative famiglie. Secondo la BBC, la stessa azienda avrebbe confermato che Kiev utilizzerebbe la sua tecnologia anche ai checkpoint per individuare sospetti. Clearview AI non è la prima società che sviluppa un’applicazione di questo genere: molto popolari sono infatti sia PimEyes che FindClone. La seconda elencata, in particolare, ha la capacità di scandagliare il web alla ricerca di immagini anche senza che, necessariamente, il soggetto in questione abbia un account social. Oltre a questo, include nel suo database anche i risultati provenienti da VKontakte.
L’uso del riconoscimento facciale in guerra ha allarmato diversi esperti, sia per il rischio di errori che, in quel contesto, possono avere conseguenze fatali, sia per la possibilità di sdoganare anche in tempo di pace una tecnologia molto controversa. Ad esempio, l’offerta di ClearView AI al governo ucraino è stata fortemente criticata dall’ong per i diritti digitali Privacy International, secondo la quale “le aziende della sorveglianza stanno sfruttando la guerra” e in questo modo cercano di “ripulire la propria immagine”.
L’azienda Clearview AI nasce nel 2016 grazie all’idea dei suoi fondatori, Hoan Ton-That e Richard Schwartz – un tempo collaboratore dell’ex sindaco di New York, Rudolph Giuliani – con l’intento di produrre una app di riconoscimento facciale al servizio delle forze dell’ordine. Mantiene un basso profilo fino a quando finisce sul nel 2019 New York Time. L’articolo si intitolava “The secretive company that might end privacy as we know it” (L’azienda segreta che potrebbe porre fine alla privacy così come la conosciamo). Secondo l’articolo, l’applicazione era usata da ben 600 fra agenzie di polizia e una manciata di aziende private per scopi di sicurezza. Grazie poi a un articolo pubblicato nel 2020 su Buzzfeed, conosciamo anche alcune delle aziende che avrebbero usufruito del servizio. Fra queste erano citate, tra le altre, Walmart, Coinbase, Verizon, T-Mobile, Best Buy, Eventbrite. Nel corso del tempo, Clearview è andata incontro a molte critiche che ne hanno messo in rilievo i problemi relativi alla violazione della privacy. A seguito delle polemiche, piattaforme come Facebook, Twitter e YouTube hanno chiesto a Clearview AI di non utilizzare più i loro servizi come fonte per estrarre i profili facciali. Oltre a ciò, aziende in possesso di simili tecnologie – un esempio su tutti è Microsoft – hanno dichiarato che fino a che non ci sarà una legge federale negli Stati Uniti, si rifiuteranno di vendere la propria tecnologia d’intelligenza artificiale ai dipartimenti di polizia.
Per quanto riguarda specificatamente Clearview AI, conosciamo il suo funzionamento grazie a un’importante falla di sicurezza scoperta dall’ingegnere Mossab Hussein, a capo del team di cybersecurity di SpiderSilk. Hussein, nell’aprile del 2020, ebbe accesso a tutto il repository che includeva il codice sorgente delle applicazioni sviluppate per Windows, Mac, iOs e Android, cosa che gli permise di registrarsi come utente pur non avendo una licenza d’uso. Qualcosa di simile veniva anticipato qualche mese prima grazie al team di Gizmodo che, nelle sue ricerche, aveva trovato addirittura dei bucket S3 – memorie esterne gestite dal sistema cloud di Amazon – pubblicamente accessibili dall’esterno che contenevano sia il codice sorgente, sia le applicazioni compilate.
Il punto principale è però la pratica di scansionare il web e i social network alla ricerca d’immagini di profili degli utenti, che ha portato alle reazioni e sanzioni di diverse autorità nazionali, come in Francia, Italia e Regno Unito.
In particolare il Garante italiano per la privacy ha multato ClearView AI con una sanzione da 20 milioni di euro, oltre al divieto di raccogliere foto di italiani e alla richiesta di cancellare le immagini già raccolte. Per il Garante, Clearview AI “non raccoglie solamente immagini per renderle accessibili ai propri clienti, ma tratta le immagini raccolte mediante web scraping attraverso un algoritmo proprietario di matching facciale, al fine di fornire un servizio di ricerca biometrica altamente qualificata”. Come scrive Wired Italia, “le fotografie vengono elaborate con tecniche biometriche per estrarre i caratteri identificativi e associare 512 vettori che ricalcano le fattezze del volto (…). Tutti elementi che portano Piazza Venezia a concludere che le similitudini che Clearview AI associa al suo servizio con Google Search sono “del tutto destituite di fondamento”. Peraltro, il fatto che quelle foto siano disponibili in rete non autorizza la società a poterne fare uso per i suoi interessi”.
Takeo Kanade, professore presso la Carnegie Mellon University, è uno dei pionieri della computer vision. Nel suo lavoro di tesi di dottorato del 1973 intitolato “Picture processing system by computer complex and recognition of human faces” riuscì ad istruire una macchina a identificare l’esistenza di profili facciali all’interno di un gruppo di 800 immagini. Come lui stesso racconta nel suo speech – che potete trovare qui – ai tempi non esisteva un sistema per la digitalizzazione delle immagini e pertanto, durante il lavoro, dovette costruirne uno ex-novo. L’idea che sta alla base del processo d’identificazione di un volto è essenzialmente molto semplice. Servono due cose essenziali: un enorme database d’immagini che ritragga il profilo facciale di vari individui, e una immagine di confronto. Si possono utilizzare vari approcci, ma di base a ogni immagine vengono assegnati dei parametri identificativi: distanza fra gli occhi, distanza fra le narici, distanza fra la bocca e il naso, distanza fra gli occhi e la fronte e così via. Una volta assegnati a ogni immagine questi parametri, e spesso anche l’intero profilo facciale, un software d’identificazione non fa altro che scansionare quei dati con gli analoghi contenuti all’interno delle immagini di confronto. Quando il software rileva valori estremamente simili, quest’ultimo mostra all’utente l’immagine – o le immagini – che ritiene abbiano un maggiore valore di conformità.
Malgrado le sue applicazioni controverse, il “riconoscimento facciale” ha visto una crescita notevole. I dati parlano chiaro: dalle analisi pubblicate lo scorso marzo 2022 da Statista, quello delle tecnologie biometriche è ad oggi un mercato molto fiorente. Si stima infatti che, a livello mondiale, i profitti relativi ai sistemi di identificazione e autenticazione digitale nel 2027 sfioreranno cifre prossime ai 100 miliardi di dollari. Ciò crea più di un problema: non soltanto la privacy degli individui viene messa a dura prova, ma questo rischia, se in possesso di mani sbagliate, di creare un sistema discriminatorio a cui diventa estremamente difficile opporsi se non a livello politico. Ne parlava molto bene già venti anni fa la Electronic Frontier Foundation – EFF – in un articolo intitolato “Biometrics: who’s watching you?”. La discussione al riguardo ha una lunga storia.
Ad esempio, Evan Selinger, professore di filosofia presso il Rochester Institute of Technology è una sorta di istituzione nel campo dei diritti digitali. Si è molto occupato di quali siano i limiti etici della tecnologia del riconoscimento facciale. In uno dei suoi ultimi paper, “The Inconsentability of Facial Surveillance”, si occupa del problema del consenso, ovvero di quanto questo tipo di analisi non tengano conto della possibilità, per l’individuo, di scegliere se essere o non essere tracciato. E la conclusione cui arriva alla fine è che, per proteggerci dai danni del riconoscimento facciale, l’unica soluzione sia la messa al bando di questa tecnologia.
Biometria e rifugiati
Un altro possibile e controverso campo d’applicazione del riconoscimento facciale è quello dell’identificazione di migranti e rifugiati. A giugno è stato calcolato che i rifugiati ucraini registrati in tutta Europa fossero 4,8 milioni.
L’UHNCR – l’Alto Commissariato delle Nazioni Unite per i Rifugiati – ha rivelato di voler raccogliere i dati biometrici dei rifugiati per gestire in modo più funzionale il trasferimento di soldi e risorse, e che la raccolta si estenderebbe a tutti i membri di una famiglia, bambini inclusi. Questa decisione è stata criticata da alcuni osservatori come inutile (la maggior parte di ucraini è in possesso di documenti) e pericolosa dal punto di vista della sicurezza dei dati e della loro condivisione con governi (come successo in passato). Come viene riportato dal “Center for strategic and international studies” le tecnologie biometriche hanno avuto un ruolo centrale nel gestire i rifugiati ucraini, ma si tratta di un’arma a doppio taglio. “Mentre i lettori di impronte digitali sono usati nel contesto ucraino – scrive – l’UNHCR impiega un sistema multimodale di impronte, scan dell’iride e riconoscimento facciale nei suoi altri programmi di assistenza”.
La stessa agenzia ha dichiarato di fare uso delle analisi biometriche per il trasferimento di denaro agli esuli in Moldavia anche se, al momento, non sembra che il riconoscimento facciale sia una delle tecniche utilizzate.
L’uso in Russia contro critici e dissidenti
Ma a preoccupare è soprattutto l’uso di queste tecnologie da parte della Russia. Già all’inizio del 2017 l’amministrazione locale moscovita aveva annunciato l’installazione di un sistema di telecamere all’interno della metropolitana per l’analisi “live” dei transiti. Il progetto era stato appaltato all’azienda Ntechlab che successivamente, nel 2020, si è occupata di estendere il sistema di sorveglianza all’intera città. Più recentemente, e proprio a seguito delle proteste contro la guerra avvenute nella giornata del 12 giugno – festa nazionale in Russia – secondo l’organizzazione non governativa OVD-info sarebbero state arrestate 67 persone di cui ben 43 utilizzando il sistema di riconoscimento facciale.
In un articolo pubblicato da Roskomsvoboda – un gruppo di attivisti che in Russia si battono per la libertà di espressione – si narra la storia personale del programmatore e attivista Pavel. Dopo aver espresso la sua opinione anti-guerra su Vkontakte, qualche giorno dopo è stato identificato in metropolitana proprio grazie al sistema di riconoscimento facciale installato dal governo, arrestato e detenuto dalla polizia con l’accusa di aver screditato l’onore delle forze armate. Nella sua attività di protesta, aveva creato, a futura memoria, un sito contenente un database d’immagini relative a tutti i veicoli su cui era disegnata la famigerata lettera Z. Nell’articolo su Roskomsvoboda così scrive: “Insegno ai miei figli a non avere paura. Se tutti tacciono, non migliorerà mai nulla”.
Alcuni dettagli ulteriori sul sistema usato a Mosca sono emersi ad agosto, quando, secondo la BBC, sarebbero 4 le tecnologie utilizzate, tutte di aziende russe: NtechLab, Tevian FaceSDK, VisionLabs Luna Platform e Kipod. Ed è stata proprio la tecnologia di riconoscimento facciale di Kipod a essere usata dalle autorità bielorusse per individuare i partecipanti alle proteste contro Lukashenko nel 2020 a Minsk.
Questo però, come fa notare Human Rights Watch, è soltanto un piccolo tassello di un più grande puzzle. In Russia infatti esiste un database biometrico centralizzato chiamato UBS che tiene memoria di tutte le informazioni dei cittadini. Sviluppato inizialmente da RostelTelecom come una applicazione bancaria per avere accesso al proprio conto corrente attraverso i dati biometrici, già pochi mesi dopo, nel dicembre 2017, una legge del parlamento russo dava autorizzazione al FSB (i servizi segreti) di accedere al database senza richiedere alcuna autorizzazione ai diretti interessati. Non solo: secondo la testata Kommersant, ci sarebbe la volontà di espandere questo sistema di telesorveglianza anche nelle aree di confine con l’Ucraina.
Nel mentre, e malgrado le sanzioni internazionali, l’industria russa del riconoscimento facciale e della sorveglianza sembra prosperare senza particolari difficoltà. Secondo un’inchiesta di Business Insider, le sanzioni non si applicano alla già citata NTech Lab, “che sebbene benefici di denaro proveniente da fondi di investimento statali, è gestita privatamente da individui che non detengono posizioni al governo”. Così continuerebbe a esportare la sua tecnologia, FindFace, in molti Paesi, guardando soprattutto all’Asia e al Centro America (e starebbe pensando di spostare il suo quartier generale in Thailandia). Inoltre, secondo dati visionati da Business Insider, diverse grandi aziende statunitensi, almeno fino a poco tempo fa, sarebbero risultate fra i suoi clienti o fra coloro che avevano provato la sua tecnologia.
Oltre ai problemi di tipo etico, gli algoritmi di riconoscimento facciale hanno, al loro interno, dei limiti di ordine meramente tecnico ed alcuni, diciamo cosi’, di tipo “culturale”. Il primo da segnalare è certamente il cosiddetto “bias razziale”. Nello studio del 2021 intitolato “Accuracy comparison across face recognition algorithms”, una delle cose che salta più all’occhio è che gli algoritmi prodotti in occidente risultavano essere più accurati nell’analisi dei volti caucasici, mentre gli algoritmi prodotti in oriente risultavano essere più accurati sui volti asiatici. Questo, come viene scritto a chiare lettere, è un effetto ben noto negli studi di biometria col nome di ORE (other-race-effect) e che ci dimostra quanto l’occhio dell’osservatore / ricercatore sia estremamente importante nello studio effettuato. Inoltre, in un altro interessante articolo intitolato “Error rates in users of automatic face recognition software”, ci si interroga quanto l’errore umano possa aumentare o diminuire l’accuratezza dei risultati finali. Sorprendentemente, la percentuale non è del tutto trascurabile. E’ stato infatti rilevato che l’errore umano nell’inserimento e nell’analisi dei dati, in persone non opportunamente addestrate, possa incidere di un buon 50%. Al contrario, persone che abbiano ricevuto un training appropriato, possono ridurre l’errore dal 50 al 30%.