Menu

Il Viminale ci tiene all’oscuro su come e quanto usa il sistema di riconoscimento facciale

Si conosce il numero di ricerche ogni mille reati, di molto maggiore rispetto ad altri Paesi europei. Avere un dibattito pubblico sull’argomento è impossibile: i dati sono incompleti

di Riccardo Coluccini, Alice Giannini, Lorenzo Sottile da Irpimedia

In Italia non è consentito sapere come e se funziona l’infrastruttura per il riconoscimento dei volti in uso alle forze dell’ordine. È una conclusione inevitabile, quella tratta da IrpiMedia e StraLi – associazione non profit che promuove la tutela dei diritti attraverso il sistema giudiziario – da tempo impegnate in un braccio di ferro burocratico con il ministero dell’Interno, restio a fornire dati e informazioni richieste tramite l’accesso agli atti generalizzato. Questo strumento dovrebbe garantire ai cittadini la possibilità di accedere a documenti e informazioni in possesso della pubblica amministrazione.

Tuttavia a dire del Viminale, oggi retto dal ministro Matteo Piantedosi, ne sarebbero escluse le statistiche relative all’efficacia del riconoscimento facciale: informazioni aggregate che non possono certo minare l’andamento delle indagini in corso. Dall’altra, proprio queste informazioni sono tasselli indispensabili a ricostruire lo sfaccettato puzzle delle tecnologie di cui fa uso la sorveglianza di Stato in Italia e che per ora è destinato a rimanere incompleto.

L’effetto di tanto riserbo è che in Italia è impossibile garantire un dibattito pubblico informato sul riconoscimento facciale. Tanto più che l’urgenza di parlarne deriva dalle nuove riforme europee come il regolamento sull’intelligenza artificiale, che sdogana l’impiego da parte della polizia delle tecnologie biometriche.

Unico piccolo successo della società civile: per la prima volta siamo in grado di conoscere il numero esatto di ricerche effettuate dalla polizia scientifica utilizzando Sari, il sistema automatico di riconoscimento facciale sviluppato dalla società italiana Reco 3.26 e acquistato dal ministero dell’Interno nel 2017. Come vedremo, anche questo minuscolo pezzo del puzzle è significativo e ci permette di confrontare l’impiego di tecnologie biometriche in Italia con altri Paesi (che ne fanno un uso di gran lunga inferiore) come nel caso di Paesi Bassi e Germania.

Proprio in questi Paesi l’accesso a informazioni e dati dà ai cittadini il potere di conoscere e discutere di tali tecnologie che, sebbene utili sul piano investigativo, costituiscono anche un pericolo per la privacy e la libertà delle persone.

In Italia il riconoscimento facciale è sinonimo di Sari. Approvato nel 2018 dal Garante Privacy, questo software permette alla polizia scientifica di confrontare l’immagine di una persona con i volti contenuti all’interno del database Afis (Automated Fingerprint Identification System). L’archivio è gestito dal ministero dell’Interno e include persone fotosegnalate di cui sono state acquisite le impronte digitali. Il database contiene persone che hanno commesso reati in Italia, migranti irregolari, ma anche chiunque debba rinnovare o convertire il permesso di soggiorno.

Grazie a un’inchiesta di Wired del 2019 e alla risposta ottenuta da un’interrogazione parlamentare nel 2020 sappiamo che la presenza di cittadini stranieri registrati nel database è sin dall’inizio enormemente sproporzionata rispetto a quella dei cittadini italiani. Nel 2022 Afis conteneva 13.516.259 cittadini da Paesi extra-europei, 1.654.917 cittadini europei e 3.289.196 cittadini italiani.

Nel 2023 sono stati aggiunti altri 992.093 fotosegnalamenti. Secondo l’Associazione per gli Studi Giuridici sull’Immigrazione (Asgi), Afis è una banca dati discriminatoria in quanto non permette ai cittadini stranieri che ottengono la cittadinanza italiana di cancellare i propri dati se non dopo venti anni dall’inserimento, destinandoli a essere una presenza fissa in un database nato per registrare in primis persone che si sono rese responsabili di reati.

Sari funziona quindi soltanto quando nel database Afis ci sono possibili volti somiglianti a quello che si sta cercando. Il software restituisce allora una lista di foto ordinate in base alla probabilità che si tratti di un “match”. Come spesso accade quando si tratta di algoritmi, i dettagli relativi ai meccanismi di funzionamento alla base di Sari sono sconosciuti sia ai cittadini sia agli operatori che utilizzano il sistema. Questo è il primo problema per una tecnologia tanto invasiva.

La versione attualmente in uso alle forze dell’ordine è infatti Sari Enterprise, distinta da Sari Real Time in quanto quest’ultima non si limita ad associare un volto tratto da un’immagine al database, ma è in grado di riconoscere in tempo reale una persona che passa davanti a una telecamera.

Nel 2021 Sari Real Time era stato giudicato troppo invasivo dal Garante Privacy e così è rimasto teoricamente al palo. Ma, alla luce delle nuove riflessioni portate anche dalle normative europee, non è detto che le cose non possano cambiare. Tanto più in previsione di un simile scenario è indispensabile conoscere le caratteristiche tecniche di Sari e soprattutto in che modo i suoi algoritmi sono stati progettati e “addestrati”.

È questa una delle parti più fragili delle tecnologie che “imparano” sulla base dei dati che vengono loro somministrati, in quanto proiettano i pregiudizi di chi le ha programmate e le addestra. La presenza di circa otto stranieri ogni dieci identità contenute in Afis dà da pensare che un pregiudizio razziale possa nascondersi proprio nel riconoscimento facciale della polizia italiana, di cui non si conoscono i metodi e i database sui quali è stato istruito.

A quanto pare su questo fronte non ne sapremo di più molto presto.

Il controllo “diffuso” della cittadinanza sulle pubbliche amministrazioni

Grazie all’intervento degli avvocati e degli esperti di StraLi possiamo però fare un ulteriore passo avanti e conoscere i dati, sinora sconosciuti, relativi alle ricerche più recenti effettuate tramite Sari Enterprise: nell’anno 2022 si contano 79.362 ricerche, mentre nel 2023 sono state 131.023. Si registra quindi un aumento di oltre il 65% a fronte però di una situazione completamente diversa per quanto riguarda i reati commessi: nei primi sette mesi del 2023 si è registrato un calo del 5,5% rispetto allo stesso periodo nel 2022.

Cercare di ottenere informazioni e dati relativi all’operato del ministero dell’Interno, specie se nel campo delle indagini e della sicurezza pubblica, a volte può sembrare una battaglia contro i mulini a vento.

Come si è arrivati, quindi, a ottenere questi numeri?

Il nostro ordinamento ha introdotto nel 2013 un istituto molto importante per la cittadinanza: l’accesso civico generalizzato (noto anche con il nome di Foia). Comporta il diritto di tutti ad accedere a dati e documenti in possesso alle pubbliche amministrazioni, con la finalità di «favorire forme diffuse di controllo sul perseguimento delle funzioni istituzionali e sull’utilizzo delle risorse pubbliche e di promuovere la partecipazione al dibattito pubblico».

Questo diritto ha però dei limiti: tra questi, vi è la tutela dell’interesse pubblico dell’ordine e della sicurezza pubblica. Ed è proprio questa l’eccezione invocata dal ministero per motivare il rifiuto a rispondere a tre (su cinque) quesiti contenuti nelle 15 richieste di accesso civico generalizzato presentate al Viminale e ai Gabinetti Interregionali e Regionali di Polizia Scientifica per conto di StraLi e IrpiMedia.

Tuttavia il pregiudizio per la tutela dell’ordine e della sicurezza pubblica dev’essere concreto e dimostrato e non meramente accennato nelle motivazioni di respingimento. Grazie a questo principio, l’avvocata Alice Giannini, a capo del team Diritti Digitali di StraLi, ha ottenuto l’accoglimento di una richiesta di riesame in cui si concede la divulgazione del numero aggregato delle ricerche effettuate in quanto non intralcia il lavoro delle forze dell’ordine.

Una delle tessere mancanti del puzzle Sari è quando sia possibile farne uso. In teoria, secondo l’interpretazione data dal Garante e secondo quanto comunicatoci dalla Direzione centrale anticrimine della Polizia di Stato (Servizio Polizia Scientifica) nel suo diniego, sarebbe tutto chiaro: il suo utilizzo rientrerebbe nelle «attività investigative tipiche» della polizia giudiziaria, in particolare nell’identificazione delle persone sottoposte a indagini.

Lo scopo è effettuare una mera verifica dell’identità anagrafica di un soggetto e i risultati possono essere utilizzati per orientare l’attività investigativa senza che abbiano valore probatorio a dibattimento, ossia che possano considerarsi prove durante il processo.

In una sentenza della Corte di Cassazione del 2020 si possono però dedurre altri possibili utilizzi, oltre l’identificazione.

Un pubblico ministero di Milano ha utilizzato Sari per analizzare il volto di una persona coinvolta in una rissa con altri quattro soggetti, confrontando le immagini registrate da un sistema di videosorveglianza con i volti «presenti su utenze telefoniche» (verosimilmente si tratta delle foto profilo di Whatsapp). Il pm ha poi usato questo risultato a supporto della richiesta di applicazione di una misura cautelare. Tale utilizzo parrebbe appartenere ad una diversa e ulteriore attività investigativa denominata «individuazione di persone e cose», che finora era stata fatta sempre con un album fotografico e la convocazione di un testimone che doveva riconoscere la persona sospettata di aver commesso il reato.

Questo riconoscimento non è di per sé una prova: per renderlo tale serve che venga fatta anche durante il processo ed è un passaggio che nei nostri tribunali può avvenire con una certa facilità. Si tratta quindi di un’attività investigativa diversa da quella descritta dal Garante privacy.

Senza una normativa ad hoc c’è il rischio che i risultati forniti da Sari finiscano per condizionare l’individuazione di un sospettato già nella primordiale fase di indagini, per poi successivamente ricevere la conferma in dibattimento senza che la difesa possa interloquire sul punto.

Sono quindi necessarie tutele adeguate rispetto ai rischi collegati all’utilizzo di tali tecnologie e al trattamento dei dati biometrici. Ribattere a Sari è infatti impossibile, visto che non se conosce il funzionamento e il modo in cui identifica le somiglianze.

Com’è possibile, quindi, contestarne anche solo l’affidabilità scientifica?

Gli altri pezzi mancanti del puzzle 

I dati ottenuti da StraLi sono un importante passo avanti ma siamo ancora lontani dal completare il quadro. Il Viminale non ha voluto rispondere alla richiesta di dettagli sul numero di ricerche che hanno prodotto risultati operativi utili per le indagini. Non possiamo quindi capire a pieno quanto il sistema sia affidabile per le forze dell’ordine.

I Paesi Bassihanno pubblicato dati statistici sull’utilizzo di un sistema di riconoscimento facciale da parte della polizia simile a quello italiano. In questo caso, le ricerche producono un match solo tra l’8% e il 12% dei casi. In Italia questo dato non è disponibile poiché la polizia dichiara che tali dati devono considerarsi «risultati operativi» collegati a singole indagini di Polizia Giudiziaria e quindi non rilasciabili.

Inoltre, secondo le forze dell’ordine, non esiste «una percentuale minima di somiglianza dalla quale si considera attendibile il risultato ma la lista di candidati è sempre revisionata manualmente da un operatore specializzato».

Per quanto riguarda gli unici dettagli pubblici relativi all’accuratezza di uno degli algoritmi usati da Sari, questi risalgono al 2016.

Quando l’algoritmo è testato su un dataset che contiene molti volti di persone non bianche la probabilità di individuare il ricercato tra i primi dieci risultati è di circa il 77%. Come detto, non sappiamo se e come l’algoritmo sia stato aggiornato nel tempo ma il fatto che il database su cui effettua la ricerca contenga in maggioranza persone straniere dovrebbe far preoccupare.

A questo si aggiunge il normale funzionamento delle tecnologie informatiche: anche il più banale dei software o delle app per smartphone riceve decine, se non centinaia di aggiornamenti nel corso della sua vita. Questo perché il codice che compone un programma informatico è di per sé fallato e perfettibile.

Lo è anche Sari? Riceve anch’esso aggiornamenti volti a correggerne errori e bug? Quali decisioni sono state prese sulla base del riconoscimento facciale offerto da questo software prima che ricevesse un aggiornamento cruciale per il suo funzionamento?

In Italia non è dato sapere nemmeno per quali reati possa essere impiegato il riconoscimento biometrico. Nei Paesi Bassi per ogni anno sono indicate le tipologie: si va dal terrorismo e omicidio fino a varie tipologie di furti e rapine, ma anche detenzione di armi da fuoco e frodi su WhatsApp. In Italia bisogna invece ricorrere agli sporadici annunci delle questure ripresi dai giornali. Si legge di accoltellamenti in luoghi pubblici, frodi informatiche, rapine in farmacia, aggressione a pubblico ufficiale, scippi, furti in appartamento.

Questi dati sarebbero fondamentali per capire se c’è un impiego troppo esteso di questo sistema anche per reati minori e se c’è il rischio che vi sia un abuso. Ogni mille reati in Italia si effettuano 60 ricerche tramite riconoscimento facciale mentre Paesi Bassi e Germania ne fanno meno di due. I dati in Germania sono pubblici grazie alle interrogazioni parlamentari degli esponenti del partito Die Linke.

Inoltre non è possibile dare una risposta all’aumento delle ricerche effettuate: sono aumentati gli ufficiali di polizia che usano il sistema o l’uso è diventato più intenso?

L’unica altra traccia disponibile sulle ricerche di Sari è nascosta in una presentazione dell’azienda che ha sviluppato il sistema di riconoscimento facciale, la Reco 3.26. Secondo il documento fino a marzo 2019 sarebbero state effettuate 121.743 ricerche da parte di 3.207 operatori. Oggi non sappiamo quanti siano gli operatori autorizzati.

Quel che è certo è che il riconoscimento facciale sembra essere diventato parte integrante dell’attività di polizia mentre l’opinione pubblica è rimasta totalmente all’oscuro di tutto. La risposta ricevuta da StraLi dimostra per l’ennesima volta quanto sia estenuante ottenere informazioni e quanto il puzzle sia lontano dall’essere completato.

Ma si tratta anche di una nuova conferma: fino a ora i dinieghi del ministero all’accesso ai dati statistici sono stati utilizzati come uno scudo improprio per impedire ogni tentativo di comprendere qualcosa in più su una tecnologia che rischia di trasformare per sempre la nostra la società. Da oggi quello scudo inizia a mostrare i primi segni di cedimento.

 

Osservatorio Repressione è una Aps-Ets totalmente autofinanziata. Puoi sostenerci donando il tuo 5×1000 

News, aggiornamenti e approfondimenti sul canale telegram e canale WhatsApp