La guerra a Gaza è diventata un banco di prova senza precedenti per le nuove capacità militari basate sull’intelligenza artificiale, sollevando al contempo profonde preoccupazioni etiche. Un’indagine del New York Times, pubblicata sabato 26 aprile 2025, ha messo in luce come Israele stia sperimentando in modo estensivo queste tecnologie, con risultati che vanno dall’eliminazione di leader nemici alla tragica morte di civili innocenti.
La caccia a Ibrahim al-Bayari: un caso studio per l’AI
Verso la fine del 2023, l’obiettivo principale di Israele era l’assassinio di Ibrahim al-Bayari, un alto leader di Hamas nel nord di Gaza, ritenuto coinvolto nella pianificazione dell’attacco del 7 ottobre 2023. La difficoltà nel localizzare al-Bayari, presumibilmente nascosto in una complessa rete di tunnel sotterranei, ha spinto l’intelligence israeliana a ricorrere a una tecnologia militare avanzata potenziata dall’AI.
Questa tecnologia, sviluppata un decennio fa ma mai usata in combattimento, ha ricevuto un’accelerazione decisiva. Ingegneri dell’Unità 8200 di Israele, l’equivalente israeliano della National Security Agency statunitense, hanno integrato l’intelligenza artificiale per migliorare lo strumento. Poco dopo, Israele è riuscita a intercettare le chiamate di al-Bayari e a testare uno strumento vocale basato sull’AI che ha fornito una posizione approssimativa da cui effettuava le chiamate. Il 31 ottobre 2023, un attacco aereo ordinato da Israele ha colpito l’area, uccidendo al-Bayari. Tuttavia, secondo Airwars, un’organizzazione londinese che monitora i conflitti, l’attacco ha causato anche la morte di oltre 125 civili, evidenziando le gravi conseguenze collaterali dell’uso di tali tecnologie.
Il laboratorio di guerra di Gaza: “The Studio” e collaborazioni tecnologiche
Lo strumento audio è solo uno degli esempi di come Israele stia utilizzando il conflitto a Gaza per testare e implementare rapidamente tecnologie militari basate sull’AI a un livello mai visto prima. Funzionari della difesa americani e israeliani, che hanno parlato in condizione di anonimato, hanno rivelato che molti di questi sforzi sono il risultato di partnership tra coscritti e riservisti dell’Unità 8200, molti dei quali lavorano per giganti tecnologici come Google, Microsoft e Meta (Facebook).
L’Unità 8200 ha creato “The Studio”, un centro di innovazione concepito per far incontrare esperti con progetti di AI. Avi Hasson, CEO di Startup Nation Central, un’organizzazione israeliana no-profit, ha sottolineato come i riservisti di Meta, Google e Microsoft siano diventati un elemento chiave per l’innovazione nel campo dei droni e della fusione di dati, portando “competenze tecniche e accesso a tecnologie chiave che non erano disponibili nell’esercito”.
L’esercito israeliano ha rapidamente utilizzato l’intelligenza artificiale per potenziare la sua flotta di droni. Aviv Shapira, fondatore e CEO di Extend, un’azienda di software e droni che collabora con l’esercito israeliano, ha spiegato che gli algoritmi basati sull’AI sono stati usati per costruire droni capaci di identificare e tracciare bersagli a distanza con una precisione millimetrica.
Le implicazioni etiche e i limiti dell’AI in guerra
Nonostante la corsa allo sviluppo dell’arsenale AI, la sua implementazione ha talvolta portato a errori di identificazione, arresti ingiustificati e, come visto, alla morte di civili. Funzionari israeliani e americani hanno espresso preoccupazione per le implicazioni etiche di questi strumenti, che potrebbero aumentare la sorveglianza e il numero di vittime civili.
Hadas Lorber, direttrice dell’Istituto per la Ricerca Applicata in Intelligenza Artificiale presso l’Holon Institute of Technology di Israele, ha ammesso che, sebbene queste tecnologie offrano “vantaggi rivoluzionari sul campo di battaglia”, sollevano anche “gravi interrogativi etici”. Ha sottolineato la necessità di controlli e bilanciamenti, insistendo sul fatto che le decisioni finali debbano sempre rimanere in mano umana.
Un esempio di strumento sviluppato da “The Studio” è un modello di AI in lingua araba, noto come Large Language Model. Nonostante le difficoltà nella creazione di tale modello a causa della scarsità di dati arabi per l’addestramento, l’esercito israeliano ha sfruttato decenni di messaggi di testo intercettati, telefonate e post sui social media. Questo ha permesso la creazione di un chatbot capace di elaborare interrogazioni in arabo e integrato con database multimediali. Sebbene utile, il chatbot ha mostrato limiti nell’identificazione di slang moderno o parole tradotte, richiedendo l’intervento umano per correzioni.
Un altro impiego dell’AI riguarda i posti di blocco temporanei tra il nord e il sud della Striscia di Gaza, dove le telecamere sono state equipaggiate con software di riconoscimento facciale potenziato dall’AI. Tuttavia, anche qui si sono verificati problemi, con il sistema che a volte ha faticato a identificare persone con volti oscurati, portando all’arresto e all’interrogatorio di palestinesi erroneamente identificati.
Prima della guerra, Israele aveva già sviluppato un algoritmo di apprendimento automatico, nome in codice “Lavender”, addestrato su un database di membri confermati di Hamas per prevedere chi potesse far parte del gruppo. Nonostante le previsioni del sistema fossero imprecise, è stato utilizzato all’inizio della guerra di Gaza per aiutare a selezionare obiettivi di attacco.
L’uso di tali tecnologie in un contesto di combattimento reale offre un’anteprima di come potrebbero essere utilizzate nelle guerre future, ma anche di quanto possano andare storte. La segretezza che circonda queste operazioni e la riluttanza delle grandi aziende tecnologiche a commentare le collaborazioni con l’esercito israeliano accentuano la complessità e la sensibilità del dibattito etico sull’intelligenza artificiale in guerra.


Lascia un commento