L’UE ha speso oltre 340 milioni di euro per la tecnologia di intelligenza artificiale per il controllo delle frontiere che la nuova legge non riesce a regolamentare
L’UE ha speso 341 milioni di euro per la ricerca sulle tecnologie di intelligenza artificiale a fini di asilo, immigrazione e controllo delle frontiere dal 2007, ma la proposta di legge sull’IA attualmente in discussione nelle istituzioni dell’UE non fornisce salvaguardie significative contro gli usi dannosi di tali tecnologie, afferma un rapporto pubblicato oggi da Statewatch.
Il rapporto, A clear and present danger: Missing safeguards on migration and asylum in the EU’s AI Act (Un chiaro e attuale pericolo: le garanzie mancanti sulla migrazione e l’asilo nell’atto sull’IA dell’UE), identifica un totale di 51 progetti che esaminano diversi potenziali usi delle tecnologie di intelligenza artificiale, compresi i robot autonomi per il controllo delle frontiere, l’identificazione biometrica e i dispositivi di verifica e sistemi automatizzati di raccolta e analisi dei dati.
Le società private hanno ricevuto più finanziamenti (163 milioni di euro) rispetto a qualsiasi altro tipo di istituzione, con società militari e di sicurezza transnazionali come Indra, Leonardo, Israel Aerospace Industries e GMV Aerospace and Defense tra i principali destinatari.
I fondi provengono dai progetti di ricerca e sviluppo dell’UE, di cui l’attuale Horizon Europa[1] è dotato di complessivamente 93 miliardi di euro e va dal 2021 al 2027. Di questi 1,4 miliardi di euro sono destinati alla “sicurezza civile” e il primo programma di lavoro mette a disposizione 55 milioni di euro per progetti sulla “gestione delle frontiere”[2][1].
Il rapporto viene pubblicato la stessa settimana in cui una coalizione di organizzazioni per i diritti umani (ONG), tra cui Statewatch, ha pubblicato proposte di modifica all’AI Act[3] che assicurerebbero che la legge fornisca tutele dei diritti fondamentali per le persone soggette a sistemi di intelligenza artificiale in asilo, immigrazione e procedure di frontiera.
“Un pericolo chiaro e presente” dimostra come numerosi usi esistenti della tecnologia avanzata – sistemi di identificazione biometrica a distanza, strumenti automatizzati di valutazione e verifica, tecnologie di profilazione integrate in banche dati dell’UE su larga scala, sorveglianza delle frontiere e sistemi di analisi predittiva – non siano sufficientemente coperti o addirittura del tutto escluse dal campo di applicazione della legge sull’IA, ponendo le persone in una posizione già vulnerabile a un rischio ancora maggiore di essere vittime di violazione dei loro diritti.
Queste richieste sono in netto contrasto con quelle avanzate dai sostenitori di un approccio più laissez-faire alla diffusione di tecnologie avanzate, come afferma un rapporto prodotto dalla società di consulenza RAND Europe per l’agenzia di frontiera dell’UE Frontex: “Legislazioni e regolamenti sembrano essere le barriere che gli sviluppatori di tecnologia dovranno superare per garantire l’uso della loro soluzione basata sull’intelligenza artificiale”[4].
Jane Kilpatrick, ricercatrice di Statewatch e coautrice del rapporto, commenta:
“Tenendo conto che ora il Parlamento presenterà emendamenti alla legge entro il 18 maggio, è sorprendente notare quanto la Commissione abbia già investito nella tecnologia dell’IA per il controllo delle frontiere che avrà un impatto diretto sulla vita e sui diritti delle persone. È fondamentale che vengano apportate modifiche significative alla legge prima che diventi legge dell’UE”.
Chris Jones, direttore di Statewatch e coautore del rapporto, ha dichiarato:
“È fondamentale che l’IA Act includa protezioni significative per le persone che attraversano i confini, che sono già soggette a un rischio sostanziale di molteplici violazioni dei diritti. Sono fortemente cruciali le tutele legali che possono essere applicate, ma anche gli attivisti e i sostenitori devono essere pronti per una lotta a lungo termine contro le tecnologie disumanizzanti e pericolose, molte delle quali vengono sviluppate con finanziamenti pubblici”.
traduzione a cura di Turi Palidda
Il rapporto completo e il set di dati sono disponibili qui.
Vedi anche A clear and present danger. Missing safeguards on migration and asylum in the EU’s AI Act (rapporto sui pericoli dell’uso dell’intelligenza artificiale nelle politiche e attuazione delle politiche di asilo e immigrazione): https://www.statewatch.org/media/3282/sw-a-clear-and-present-danger-ai-act-migration-11-5-22.pdf
[1] Horizon è il programma di ricerche europeo dotato di un budget di €95,5 miliardi, dal 2005 i bandi di ricerca prescrivono che le reti di gruppi di ricerca che aspirano al finanziamento in particolare nei bandi sulle questioni di sicurezza devono includere anche ministeri dell’interno e della difesa e imprese private. E’ quindi stata abolita la possibilità di una ricerca critica, autonoma e quindi effettivamente indipendente così come la ricerca fondamentale (non applicata) mentre tanti progetti finanziati arrivano persino a prospettare nuove modalità e dispositivi per la repressione delle migrazioni ecc. (questa deriva sicuritaria della ricerca in Europa fu denunciata già nell’introduzione del libro Conflict, Security and the Reshaping of Society: The Civilisation of War,; London: Routledge :http://www.oapen.org/search?identifier=391032, pp.7-11
[2] European Commission, ‘Horizon Europe Work Programme 2021-2022 – 6. Civil Security for Society’, C(2021)9128, 15 December 2021, https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/horizon/wp-call/2021-2022/wp-6-civil-security-for-society_horizon-2021-2022_en.pdf
[3] ‘Uses of AI in migration and border control: A fundamental rights approach to the Artificial Intelligence Act’, https://edri.org/wp-content/uploads/2022/05/Migration_2-pager-02052022-for-online.pdf
[4] ‘Artificial intelligence-based capabilities for the European Border and Coast Guard’, March 2021, https://frontex.europa.eu/assets/Publications/Research/Frontex_AI_Research_Study_2020_final_report.pdf