Menu

Lavender, l’Intelligenza Artificiale che decide chi muore a Gaza

La tecnologia della morte di Israele, l’App che indirizza caccia e truppe, decide gli obiettivi, stima il numero di civili sterminabili per ogni attacco: ecco il software della morte di Netanyahu

di Luca Casarini da l’Unità

Ci sarà stato chi ha pensato che invitare per la prima volta un papa al vertice dei potenti del mondo, valeva la pena in termini di immagine, anche a rischio di qualche sbavatura nel rodato copione che queste cose devono seguire. Trattandosi di questo papa, Francesco, di sicuro ci sarà stato anche chi avrà ragionato sul come “confinare” il suo intervento ad un tema, l’Intelligenza Artificiale, che in fondo potesse essere il meno problematico da fargli maneggiare. Un tema che parla di futuro possibile, di grandi conquiste dovute alla capacità umana, di inimmaginabili opportunità di valicare nuove frontiere. Ma in un contesto, quello della guerra globale, i grandi pensieri positivi sul futuro vengono soffocati sul nascere.

La corsa al riarmo, l’industria di morte della produzione di macchine di distruzione di massa, è il vero focus di questo G7 purtroppo. Eppure basterebbe il 3% di ciò che spendono i “grandi” per armarsi, a sfamare tutto il mondo e a cancellare il debito oppressivo della sua parte più povera, come ci ricorda Oxfam. “La violenza provocata dalle guerre mostra con evidenza quanta arroganza muove chi si ritiene potente davanti agli uomini, mentre è miserabile agli occhi di Dio” ha ripetuto il Papa nel suo Messaggio per la giornata dei poveri. E la guerra di poveri ne produce sempre di più. E la guerra contro i poveri, come quella fatta ai migranti, è all’ordine del giorno. E anche quando si parla di IA, inevitabilmente, la guerra entra in gioco, con le sue follie e il suo dominio incontrastato su questo mondo. Ogni innovazione tecnologica prodotta dall’uomo ha nell’uso che si decide di farne, la determinazione deli effetti, positivi o disastrosi, sulla vita e sul pianeta. È una intelligenza “naturale”, sulla quale ci interroghiamo sempre meno, che decide. Sarà forse anche per questo allora, che l’Osservatore Romano pochi giorni fa, ha pubblicato un interessante articolo a firma di Roberto Cetera, proprio sul rapporto tra Intelligenza Artificiale e dispositivo di guerra.

“L’IA che uccide” era il titolo, senza possibilità di equivoci. Il materiale d’inchiesta preso a riferimento dall’Osservatore Romano, deriva da una pubblicazione del Guardian e di due giornali online israeliani, e riguarda informazioni raccolte soprattutto da alti ufficiali dell’esercito di Tel Aviv. La pianificazione del massacro di Gaza, che ancora non sembra avere fine, è frutto dell’Intelligenza Artificiale. Il software utilizzato per indirizzare i caccia e le truppe d’assalto, per la scelta dei proiettili e delle armi di morte da utilizzare, per calcolare tempi, modi, strategie di uno degli eserciti più potenti del mondo, si chiama Lavender”, “Lavanda”. È un sistema sottoposto a pochissima supervisione umana. Seleziona gli obiettivi da “eliminare”, utilizzando un database di informazioni che vengono caricate dalla “control room” della guerra e riguardano profili di migliaia di “potenziali” nemici da colpire. Potenziali, perché quelli “sicuri” erano già noti e sotto il tiro.

Ma l’eliminazione dei presunti nemici, ritenuti possibili fiancheggiatori delle milizie di Hamas o della Jhiad, è avvenuta sulla base di una “profilazione” di tutta la popolazione civile eseguita dal potentissimo software. 37mila gli obiettivi individuati, e sottoposti al “processo di eliminazione”. Lavender ha calcolato tutto, e direzionato gli attacchi, su una base di parametri indicati dal comando “umano” delle operazioni. Tra questi parametri anche il costo valutato di 15-20 vittime civili innocenti per ogni miliziano eliminato, fino a cento innocenti uccisi per ogni alto funzionario colpito. L’uso dell’IA nella guerra contemporanea, segue una strada antica: le innovazioni tecnologiche sempre hanno avuto come applicazione primaria il “militare”, e questo a testimonianza di quanto sia importante per il nostro mondo “essere più bravi ad uccidere” di tutti gli altri.

La centralità della “tecnica” è spesso servita per creare alibi alle scelte, spesso efferate, prese dall’uomo. Allontanare la “coscienza” dalla “scienza”, ed affidare a quest’ultima una autonomia, una sorta di “neutralità”, allontana anche noi dal pericolo di impazzire di fronte alle mostruosità che siamo in grado di compiere. Secondo Wired, che riprende la stessa inchiesta, diffusa dal sito di “+972” e del giornale di lingua ebraica Local Call, i sei membri dell’unità dei servizi segreti israeliani conosciuta come “unità 8200” intervistati, sono fra coloro che hanno sviluppato e usato “Lavender”. Sono loro che hanno rivelato che l’operatore umano, quello che metaforicamente o concretamente, “preme il grilletto”, ha venti secondi per dare l’ok all’obiettivo indicato dal software. Con un flusso continuo di richieste di autorizzazioni a procedere, e con una velocità del genere, nessuna “analisi dell’opportunità” fatta da umani, è possibile. Pena bloccare la guerra, che invece è l’imperativo ultimo, “fino alla vittoria”.

In tempi “normali”, cioè prima della carneficina del 7 ottobre, l’identificazione degli obiettivi avrebbe richiesto l’approvazione di un consulente legale, prima di poter dare il via all’attacco. Oggi non è più così: gli attacchi sono tutti “pre-autorizzati” di default, cioè decide la macchina, compreso il sacrificio di donne, uomini e bambini in altissimo numero. Il “costo necessario” del quale parla Nethanyahu riferendosi al massacro di Gaza, passa tecnicamente dall’eliminazione di qualsiasi procedura di “discernimento” umano, troppo lento e troppo imprevedibile. La macchina, una volta impostati i parametri, procede, e senza alcun problema di “coscienza”. Chissà se in un’ipotetico processo per crimini di guerra, qualche soldato un giorno dirà che “eseguiva gli ordini della macchina”. La guerra, il processo globale che domina il mondo in questo momento, se da una parte si sviluppa come dispositivo che tende ad eliminare il più possibile la dipendenza da valutazioni umane sul “costo” di vite innocenti da far pagare al nemico, dall’altra invece valuta con sempre maggiore importanza il “costo” economico.

Ad esempio sempre dall’inchiesta, si ricava che l’esercito di Tel Aviv fa ampio ricorso anche alle cosiddette “bombe mute”, munizioni non intelligenti che causano un alto numero di vittime innocenti perché servono a distruggere completamente edifici che potrebbero essere “potenziali” nascondigli per i nemici. Queste bombe “sporche”, che vengono usate in grande quantità con effetti terribili sulla popolazione, costano molto di meno in termini di soldi. E dunque la ragione del loro utilizzo sta tutta nell’economia. Oltre a “Lavander”, la guerra è condotta da un altro software, “Gospel” ( Vangelo). Questa applicazione dell’intelligenza artificiale è anche chiamata “fabbrica di obiettivi”. Stiamo parlando di una macchina che ha raddoppiato la fornitura all’esercito di obiettivi da colpire con “bombardamenti incessanti e non chirurgici”, passando da 50 bersagli al giorno, a cento. Nessuno naturalmente spiega quali siano i dati che i profiler abbiano immesso per poi ottenere nome, cognome ed indirizzo di chi annientare. Gospel, dagli ambienti critici sull’uso di questi sistemi, è stato definito “la fabbrica degli assassinii di massa”.

Quando si parla di intelligenza artificiale, si aggiunge sempre il termine “generativa”. Un sistema di “apprendimento” della macchina, capace di elaborare una inimmaginabile quantità di informazioni che potrebbe attingere dalle fonti più disparate. Ad esempio analizzando il consumo dell’acqua e dell’energia domestica di una popolazione “da profilare”, ma anche mettendosi in rete con i sistemi di controllo della mobilità in una metropoli, oppure con le chiuse di una diga, le dorsali dei dati, le pipeline del gas e del petrolio. Tutto è in rete. Le macchine hanno certo dei padroni “ufficiali”, ma siamo sicuri che sono quelli che crediamo? Il mercato che abbiamo eletto a unico regolatore globale della vita e della morte sul pianeta, è uno spazio complesso e non trasparente per definizione. Si può comprare tutto nel mercato, e soprattutto si può vendere tutto. E dunque, l’”Intelligenza Artificiale Generativa”, grande opportunità come dicono al G7, ma anche grande, enorme problema. Dipende sempre dall’uomo, non c’è dubbio, ma che tipo di “uomo” esiste oggi?

Siamo convinti che al ritmo dei nostri salti tecnologici, non sia corrisposta anche una vera e propria mutazione antropologica riguardo a noi stessi? Può esistere l’uomo capace di discernere per il meglio, senza un nuovo umanesimo? Ancora una volta la “tecnica”, e le lodi cantate alla magnificenza dello sviluppo raggiunto, coprono i grugniti di un’uomo ridotto a corpo senz’anima. I principi, i valori, l’etica, la trascendenza, a cosa servono se l’unico senso che diamo alla vita è uccidere di più e meglio degli altri, arricchirsi di più e meglio dell’altro, sfruttare di più e meglio di ognuno? Qual è il “modello di uomo” che dovrebbe decidere come usare al meglio per noi tutti, l’Intelligenza Artificiale? Forse quell’Elon Musk che si è appena fatto accreditare uno stipendio annuale da 56 miliardi di dollari, sei milioni di dollari l’ora? È lui il Messia? Se non è lui, perché diciamo di affidarci a sistemi sociali e non ai singoli individui, la sistematica demolizione in corso di principi fondanti come quelli di “bene comune”, “collettività”, “solidarietà”, “diritti umani”, ci sta aiutando? O stiamo solo prendendo atto che, come in guerra, non c’è tempo per una decisione umana, non c’è tempo per la coscienza, e dunque pre-autorizziamo la macchina, il mercato, il denaro, a decidere per noi, ridotti a nostra volta a merce per generare profitto?

Osservatorio Repressione è una Aps-Ets totalmente autofinanziata. Puoi sostenerci donando il tuo 5×1000 

News, aggiornamenti e approfondimenti sul canale telegram e canale WhatsApp