Guerra e AI: l’assenza di norme moltiplica le vittime civili

Date:

L’Ue lascia volutamente un vuoto regolamentare sull’impiego dell’intelligenza artificiale per scopi bellici (e così faranno gli Usa che stanno lavorando a una normativa ad hoc). In questo vuoto si stanno consumando tragedie inedite, sul fronte palestinese in termini di vittime collaterali alias civili, e sul fronte russo- ucraino in un conflitto che va avanti da oltre due anni e stenta a trovare una via di risoluzione. È una questione etica profonda che finora i governi hanno nascosto come polvere sotto il tappeto, ma che va affrontata con urgenza. Perché il rischio – connaturato nell’errore sistematico che genera il processo statistico su cui l’intelligenza artificiale si basa – in questo caso equivale a morte e devastazione. E mina alla base il concetto stesso di sicurezza nazionale e di democrazia.

L’AI? Una micidiale arma da guerra. Non è una novità, ma nell’anno 2024 il fenomeno ha assunto dimensioni spaventose. Le notizie su come questa tecnologia dirompente venga impiegata per annientare il nemico, sul campo di battaglia, ma anche nelle stanze dei bottoni dove si definiscono le strategie, si susseguono come un’onda minacciosa in arrivo dai fronti ucraino e palestinese. Mettendo in luce il vero lato oscuro dell’AI, una tecnologia che in sé non va demonizzata, ma in un ambito delicato come quello geopolitico non può di certo essere lasciata senza regole e alla mercé degli obiettivi militari di governi ed eserciti.

L’uso dell’AI nella striscia di Gaza

Un’inchiesta del giornale indipendente israeliano +972 ha mostrato come, in particolare dopo l’attacco di Hamas del 7 ottobre 2023, l’utilizzo distruttivo dell’AI da parte di Israele sia stato incrementato. In particolare, sono tre gli algoritmi che fanno da copiloti di morte ai generali dell’esercito d’Israele. The Gospel, un sistema di identificazione che viene usato per individuare gli edifici fisici da bombardare e Lavender, con la sua estensione “Where is daddy?”: il primo, un software progettato per identificare e segnalare tutti i presunti operatori nei rami militari di Hamas e della Jihad Islamica Palestinese (PIJ), compresi individui di basso rango, come potenziali obiettivi. Il secondo ha la funzione di segnalare quando l’obiettivo è a casa sua, in modo da essere colpito con estrema sicurezza e maggior facilità.

Non è ancora evidente la ragione per cui l’uso dell’intelligenza artificiale in questo contesto è terrificante: e lo è perché, lungi da consentire di attuare una guerra chirurgica mirata al singolo obiettivo umano, questa prassi ha fatto aumentare a dismisura le vittime civili, o “collaterali” per esprimersi con l’urticante gergo della guerra. Come fa Lavender a individuare i potenziali obiettivi? Israele utilizza l’anagrafe della popolazione residente nella Striscia di Gaza e, dando in pasto alla rete neurale i dati relativi alle persone in oggetto, viene assegnato a ciascuna un punteggio da 0 a 100 per indicare la probabilità che faccia parte di Hamas o della PIJ. Questo punteggio si ottiene confrontando i dati attuali con una enorme mole di altri dati relativi ai terroristi acclarati. Il problema è che questa tecnologia ha un range di errore del 10%: quando si parla di vite umane è un livello inaccettabile. Nell’elenco dei 37mila terroristi individuati con le tre tecnologie descritte sono stati inseriti membri della polizia, o della protezione civile, ci sono casi di omonimia, o chi ha recuperato uno smartphone usato che era appartenuto a un miliziano.

Se l’AI diventa una fabbrica di omicidi di massa: il caso della guerra in Palestina

Quando la terza tecnologia indica che il presunto miliziano è a casa, quindi in compagnia della sua famiglia sperabilmente dal momento che cinicamente viene apostrofato come “daddy”, l’esercito può abbatterlo. E, come se non bastasse, lo fa utilizzando le cosiddette dumb bomb, bombe poco intelligenti e dunque particolarmente distruttive, che hanno l’obiettivo di garantire massima resa con minimo sforzo e con costi economici ridotti. Non essendoci revisione umana, la conseguenza di questa strategia è che ci sono state tantissime vittime civili: delle 34mila persone uccise finora un terzo sono donne e bambini. E c’è un ulteriore aspetto terrificante: l’AI è un’arma che ha la caratura simbolica della bomba atomica, con la quale peraltro condivide il triste destino di basarsi su una tecnologia potenzialmente buona, impiegata per scopi demoniaci. Prima del 7 ottobre gli algoritmi venivano usati da Israele solo per identificare gli alti vertici di Hamas e di PIJ ed era considerato accettabile avere 20 vittime “collaterali” per ogni funzionario ucciso: un parametro, quello di 20 morti civili per un leader eliminato, già di per sé eticamente inaccettabile. Oggi il livello di tolleranza è stato portato da 20 a 100  vittime civili sacrificabili per un miliziano importante e fino a 20 vittime per un miliziano di basso livello. L’effetto moltiplicatore, insieme all’utilizzo massiccio e quotidiano dell’AI, ha avuto conseguenze devastanti.

Armi smart per Zelensky: con quali effetti

Se i software di AI che combattono accanto all’esercito israeliano sono prodotti in casa, quelli che stanno consentendo al presidente ucraino Volodymyr Zelensky di resistere da oltre due anni ai poderosi attacchi russi sono tutti made in Usa. Oltre a concedere armamenti tradizionali, gli americani hanno ceduto Clearview per il riconoscimento facciale e l’annientamento di 230mila soldati russi (lo racconta qui un reportage del Time), non solo sul territorio ucraino ma anche in altre attività di guerra, inclusa la ricerca di infiltrati ai checkpoint e la localizzazione di bambini ucraini rapiti e deportati in Russia. La stessa piattaforma viene utilizzata per calcolare in maniera istantanea i cambiamenti nel campo di battaglia, a partire dall’analisi delle immagini satellitari.

Sempre il Time racconta che fu lo stesso ceo di Palantir Technologies, Alex Karp, a donare il software di AI su cui la startup si basa per sostenere la difesa dell’Ucraina. Lo fece dopo aver incontrato Zelensky a Kyev il primo giugno 2022, a tre mesi dall’inizio della guerra. Nel corso di un anno e mezzo Palantir è entrata nei meandri del governo ucraino: più di mezza dozzina di agenzie ucraine, tra cui i ministeri della Difesa, dell’Economia e dell’Istruzione, utilizzano i prodotti dell’azienda. Il software di Palantir, che si serve dell’intelligenza artificiale per analizzare immagini satellitari, dati open-source, riprese drone e rapporti dal campo è diventata la chiave di volta della maggior parte del targeting in Ucraina.

Il bug della mancanza di revisione umana

Com’è possibile che tutto questo stia avvenendo nell’assordante silenzio dei governi, anzi, con la loro complicità generale? La risposta più immediata è che non c’è (ancora) una vera regolamentazione dell’AI e quando c’è, come nel caso dell’AI ACT, che è a oggi il più evoluto regolamento su questa tecnologia, non si applica a contesti bellici, pur essendo stato scritto con il chiaro intento di facilitare un uso etico di IA. Il Regolamento europeo è, per esempio, il primo a vietare alcuni sistemi di AI, come quelli che manipolano gli aspetti cognitivi e comportamentali delle persone vulnerabili. E allora, perché questo cortocircuito in un buco che somiglia a una voragine? Perché l’Ue lascia agli Stati membri, per ragioni politiche, la gestione della materia della sicurezza nazionale: non avendo dunque competenza non regolamenta i sistemi – di qualunque tipologia – utilizzati per scopi militari e di difesa. Di fatto in questa terra di nessuno ci sono molte scappatoie che possono essere sfruttare dai Paesi membri per creare mostri IT da guerra. Lo scenario è apocalittico, anche perché gli Usa, che stanno lavorando a un regolamento similare a quello europeo, si orienteranno sulla stessa falsariga.

Dobbiamo bilanciare i rischi legati all’intelligenza artificiale e sfruttarne il potenziale. L’uso che ne viene fatto cambia radicalmente la prospettiva. L’AI ha dei limiti, come le allucinazioni che genera: può presentare informazioni erronee e fuorvianti ma con un vestito del tutto verosimile. L’AI è in grado, grazie al quantum computing, di effettuare calcoli ad altissima velocità, simulando quasi un pensiero. Tuttavia, l’errore è intrinseco in questo processo statistico, anche se i dati con cui viene addestrata l’intelligenza artificiale sono perfetti. Ma ci sono contesti – e la guerra è uno di questi – in cui margini di errore relativamente bassi non sono comunque accettabili. Perciò, è necessario mitigare i rischi sia durante il training che successivamente, tramite un monitoraggio costante. Questo è possibile solo lasciando la correzione degli errori in fase di training e la decisione finale in merito all’output in capo all’essere umano.

La combinazione di IA e quantum scuote dalla base lo stesso concetto di sicurezza, sia interna che esterna, e l’idea che abbiamo di democrazia. È una questione etica profonda che non può essere nascosta come polvere sotto il tappeto, come finora è stato fatto. E che va affrontata con la massima urgenza e responsabilità.

Foto di apertura: Andrea Baldrati, co-Founder di BSD Legal & Privacy Week

Fonte: Privacy Week

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Condividi post:

Sottoscrivi

Popolare

Articoli Correlati
Articoli Correlati

Cambiamento climatico: per il 61% degli italiani è una battaglia persa

A sottolineare la generale sfiducia in un futuro più...

Arrestate Netanyahu

La Corte dell' Aia: crimini contro l'umanità anche per...

Nasce l’Intergruppo Parlamentare “Innovazione Sanitaria e Tutela del Paziente”

Perseguire la promozione dell’innovazione nel settore sanitario, focalizzandosi sulla...

Condoni e corruzione a Roma, sei arresti: anche due ex dipendenti del Comune

Sei persone finite nel mirino dei carabinieri, sono state...