di redazione | 13 Mar 2025 | In evidenza, Medioriente
Articolo tradotto da +972
L’esercito israeliano sta sviluppando un nuovo strumento di intelligenza artificiale simile a ChatGPT e lo sta impostando su milioni di conversazioni arabe ottenute attraverso la sorveglianza dei palestinesi nei territori occupati. Lo rivela un’indagine di +972 Magazine, Local Call e Guardian.
Lo strumento di intelligenza artificiale – che è in costruzione da parte dell’Unità 8200, una squadra di guerra informatica d’élite all’interno della direzione dell’intelligence militare israeliana – è noto come un grande modello linguistico (LLM): un programma di apprendimento automatico in grado di analizzare informazioni e generare, tradurre, prevedere e riassumere il testo. Mentre gli LLM disponibili al pubblico, come il motore dietro ChatGPT, sono addestrati su informazioni prese da Internet, il nuovo modello in fase di sviluppo dall’esercito israeliano viene alimentato da grandi quantità di informazioni raccolte sulla vita quotidiana dei palestinesi che vivono sotto occupazione.
L’esistenza dell’LLM dell’Unità 8200 è stata confermata a +972, Local Call e Guardian da tre fonti di sicurezza israeliane a conoscenza del suo sviluppo. Il modello era ancora in fase di programmazione nella seconda metà dell’anno scorso, e non è chiaro se sia già stato schierato o come esattamente l’esercito lo utilizzerà. Tuttavia, le fonti hanno spiegato che un vantaggio chiave per l’esercito sarà la capacità dello strumento di elaborare rapidamente grandi quantità di materiale di sorveglianza al fine di “rispondere a domande” su individui specifici. A giudicare da come l’esercito utilizza già modelli linguistici più piccoli, sembra probabile che il LLM possa espandere ulteriormente l’incriminazione e l’arresto dei palestinesi da parte di Israele.
“L’IA amplifica il potere”, ha spiegato una fonte di intelligence che ha seguito da vicino lo sviluppo di modelli linguistici da parte dell’esercito israeliano negli ultimi anni. “Consente di utilizzare i dati di molte più persone, permettendo il controllo della popolazione. Non si tratta solo di prevenire gli attacchi. Posso rintracciare gli attivisti per i diritti umani. Posso monitorare la costruzione palestinese nell’Area C [della Cisgiordania]. Ho più strumenti per sapere cosa sta facendo ogni persona in Cisgiordania. Quando detieni così tanti dati, puoi indirizzarli verso qualsiasi scopo tu scelga.”
Mentre lo sviluppo dello strumento precede l’attuale guerra, la nostra indagine rivela che, dopo il 7 ottobre, l’Unità 8200 ha cercato l’assistenza di cittadini israeliani con esperienza nello sviluppo di modelli linguistici che stavano lavorando presso giganti della tecnologia come Google, Meta e Microsoft. Con la mobilitazione di massa dei riservisti all’inizio dell’assalto di Israele a Gaza, gli esperti del settore privato hanno iniziato ad arruolarsi nell’unità, portando conoscenze che in precedenza erano “accessibili solo a un gruppo molto esclusivo di aziende in tutto il mondo”, come ha affermato una fonte di sicurezza. (In risposta alle nostre richieste, Google ha dichiarato di avere “dipendenti che fanno il dovere di riserva in vari paesi” e ha sottolineato che il lavoro che fanno in quel contesto “non è collegato a Google”. Meta e Microsoft hanno rifiutato di commentare.
Secondo una fonte, il chatbot dell’Unità 8200 è stato testato su 100 miliardi di parole arabe ottenute in parte attraverso la sorveglianza israeliana su larga scala dei palestinesi sotto il controllo dei suoi militari, che gli esperti avvertono costituisce una grave violazione dei diritti palestinesi. “Stiamo parlando di informazioni altamente personali, prese da persone che non sono sospettate di alcun crimine, per costruire uno strumento che potrebbe in seguito aiutare a stabilire il sospetto”, ha detto Zach Campbell, ricercatore tecnologico senior presso Human Rights Watch, a +972, Local Call e al Guardian.
Nadim Nashif, direttore e fondatore del gruppo palestinese per i diritti digitali e la difesa 7amleh, ha fatto eco a queste preoccupazioni. “I palestinesi sono diventati soggetti nel laboratorio di Israele per sviluppare queste tecniche e armare l’IA, il tutto allo scopo di mantenere [un] regime di apartheid e occupazione in cui queste tecnologie vengono utilizzate per dominare un popolo, per controllare le sue vite. Questa è una grave e continua violazione dei diritti digitali palestinesi, che sono diritti umani”.
“Sostituiremo tutti gli ufficiali dell’intelligence con agenti di intelligenza artificiale”
Gli sforzi dell’esercito israeliano per sviluppare il proprio LLM sono stati riconosciuti per la prima volta pubblicamente da Chaked Roger Joseph Sayedoff, un ufficiale dell’intelligence che si è presentato come il leader del progetto, in una lezione poco notata l’anno scorso. “Abbiamo cercato di creare il più grande set di dati possibile, raccogliendo tutti i dati che lo Stato di Israele abbia mai avuto in arabo”, ha spiegato durante la sua presentazione alla conferenza DefenseML a Tel Aviv. Ha aggiunto che il programma viene realizzato su “quantità psicotiche” di informazioni di intelligence.
Secondo Sayedoff, quando l’LLM di ChatGPT è stato reso disponibile al pubblico per la prima volta nel novembre 2022, l’esercito israeliano ha istituito un team di intelligence dedicato per esplorare come l’IA generativa potesse essere adattata a scopi militari. “Abbiamo detto: ‘Wow, ora sostituiremo tutti gli ufficiali dell’intelligence con agenti [AI]. Ogni cinque minuti, leggeranno tutte le informazioni israeliane e prediranno chi sarà il prossimo terrorista’”, ha detto Sayedoff.
Ma la squadra inizialmente non è stata in grado di fare molti progressi. OpenAI, la società dietro ChatGPT, ha respinto la richiesta di accesso diretto all’unità 8200 al suo LLM e si è rifiutata di consentirne l’integrazione nel sistema offline interno dell’unità. (Da allora l’esercito israeliano ha fatto uso del modello linguistico di OpenAI, acquistato tramite Microsoft Azure, come rivelato da +972 e Local Call in un’altra recente indagine. OpenAI ha rifiutato di commentare questa storia.)
E c’era un altro problema, ha spiegato Sayedoff: i modelli linguistici esistenti potevano elaborare solo l’arabo standard – usato nelle comunicazioni formali, nella letteratura e nei media – non nei dialetti parlati. La direzione dell’intelligence militare israeliana si rese conto che avrebbe dovuto sviluppare il proprio programma, basato, come ha detto Sayedoff nella sua conferenza, “sui dialetti che ci odiano”.
Il punto di svolta è arrivato con l’inizio della guerra di Gaza nell’ottobre 2023, quando l’unità 8200 ha iniziato a reclutare esperti in modelli linguistici da società tecnologiche private come riservisti. Ori Goshen, co-CEO e cofondatore della società israeliana AI21 Labs specializzata in modelli linguistici, ha confermato che i suoi dipendenti hanno partecipato al progetto durante il loro servizio di riserva. “Un’agenzia di sicurezza non può lavorare con un servizio come ChatGPT, quindi deve capire come eseguire l’IA all’interno di un sistema [interno] che non è collegato ad altre reti”, ha spiegato.
Secondo Goshen, i benefici che gli LLM forniscono alle agenzie di intelligence potrebbero includere la capacità di elaborare rapidamente le informazioni e generare elenchi di “sospetti” per l’arresto. Ma per lui, la chiave è la loro capacità di recuperare dati sparsi su più fonti. Piuttosto che utilizzare “strumenti di ricerca primitivi”, gli ufficiali potrebbero semplicemente “fare domande e ottenere risposte” da un chatbot – che, ad esempio, sarebbe in grado di dirti se due persone si sono mai incontrate o determinare immediatamente se una persona aveva mai commesso un atto particolare.
Goshen ha ammesso, tuttavia, che la cieca dipendenza da questi strumenti potrebbe portare a errori. “Questi sono modelli probabilistici: dai loro un suggerimento o una domanda e generano qualcosa che sembra magico”, ha spiegato. “Ma spesso, la risposta non ha senso. Noi chiamiamo questa ‘allucinazione’”.
Campbell, di Human Rights Watch, ha sollevato una preoccupazione simile. Gli LLM, ha detto, funzionano come “macchine per indovinare” e i loro errori sono inerenti al sistema. Inoltre, le persone che usano questi strumenti spesso non sono quelle che li hanno sviluppati, e la ricerca mostra che tendono a fidarsi di più di loro. “In definitiva, queste ipotesi potrebbero essere usate per incriminare le persone”, ha detto.
Precedenti indagini di +972 e Local Call sull’uso da parte dell’esercito israeliano di sistemi di targeting basati sull’intelligenza artificiale per facilitare il bombardamento di Gaza hanno evidenziato i difetti operativi inerenti a tali strumenti. Ad esempio, l’esercito ha utilizzato un programma noto come Lavender per generare una “lista di uccisioni” di decine di migliaia di palestinesi, che l’IA ha reputato colpevoli perché mostravano caratteristiche impostate per associarne l’appartenenza a un gruppo militante.
L’esercito ha poi bombardato molti di questi individui – di solito mentre erano a casa con le loro famiglie – anche se il programma era noto per avere un tasso di errore del 10 per cento. Secondo le fonti, la supervisione umana del processo di assassinio serviva semplicemente come “timbro di gomma” e i soldati hanno trattato i risultati di Lavender “come se fosse una decisione umana”.
“A volte è solo un comandante di divisione che vuole 100 arresti al mese”
Lo sviluppo di uno strumento in stile ChatGPT addestrato sull’arabo parlato rappresenta un’ulteriore espansione dell’apparato di sorveglianza israeliano nei territori occupati, che è stato a lungo altamente invadente. Più di un decennio fa, i soldati che prestavano servizio nell’Unità 8200 testimoniarono di aver monitorato i civili senza alcun legame con gruppi militanti al fine di ottenere informazioni che potessero essere utilizzate per ricattarli, ad esempio, riguardo alle difficoltà finanziarie, al loro orientamento sessuale o a una grave malattia che colpiva loro o un membro della famiglia. Gli ex soldati hanno anche ammesso di aver rintracciato gli attivisti politici.
Oltre a sviluppare il proprio LLM, Unit 8200 utilizza già modelli linguistici più piccoli che consentono la classificazione delle informazioni, la trascrizione e la traduzione delle conversazioni dall’arabo parlato all’ebraico e ricerche efficienti per parole chiave. Questi strumenti rendono il materiale di intelligence più immediatamente accessibile, in particolare alla divisione dell’esercito in Cisgiordania. Secondo due fonti, i modelli più piccoli consentono all’esercito di setacciare il materiale di sorveglianza e identificare i palestinesi che esprimono rabbia per l’occupazione o il desiderio di attaccare soldati o coloni israeliani.
Una fonte ha descritto un modello linguistico attualmente in uso che scansiona i dati e identifica i palestinesi usando parole che indicano “problemi”. La fonte ha aggiunto che l’esercito ha usato modelli linguistici per prevedere chi potrebbe lanciare pietre contro i soldati durante le operazioni per “dimostrare la presenza” – quando i soldati fanno irruzione in una città o in un villaggio in Cisgiordania e vanno porta a porta, irrompendo in ogni casa in una particolare strada per condurre arresti e intimidire i residenti.
Fonti dell’intelligence hanno dichiarato che l’uso di questi modelli linguistici insieme alla sorveglianza su larga scala nei territori occupati ha approfondito il controllo di Israele sulla popolazione palestinese e aumentato significativamente la frequenza degli arresti. I comandanti possono accedere alle informazioni grezze tradotte in ebraico – senza dover fare affidamento sui centri linguistici dell’Unità 8200 per fornire il materiale, o conoscere l’arabo essi stessi – e selezionare “sospetti” per l’arresto da una lista in continua crescita in ogni località palestinese. “A volte è solo un comandante di divisione che vuole 100 arresti al mese nella sua zona”, ha detto una fonte.
A differenza dei modelli più piccoli già in uso, tuttavia, il grande modello attualmente in fase di sviluppo viene addestrato con il set di dati dell’Unità 8200 di milioni di conversazioni tra palestinesi. “L’arabo parato è un dato che è [difficilmente] disponibile su Internet”, ha spiegato la fonte. “Non ci sono trascrizioni di conversazioni o chat WhatsApp online. Non esiste nella quantità necessaria per addestrare un tale modello.”
Per la formazione del LLM, le conversazioni quotidiane tra palestinesi che non hanno alcun valore di intelligence immediato servono ancora a uno scopo essenziale. “Se qualcuno chiama un’altra persona [al telefono] e gli dice di uscire perché li stanno aspettando fuori dalla scuola – è solo una conversazione casuale, non è interessante”, ha spiegato una fonte di sicurezza. “Ma per un modello come questo, è oro, perché fornisce sempre più dati su cui allenarsi”.
L’unità 8200 non è l’unica agenzia di intelligence nazionale che tenta di sviluppare strumenti di intelligenza artificiale generativi; la CIA ha sviluppato uno strumento simile a ChatGPT per analizzare le informazioni open source e anche le agenzie di intelligence nel Regno Unito stanno sviluppando i propri LLM. Tuttavia, ex funzionari della sicurezza britannici e americani hanno detto a +972, Local Call e Guardian che la comunità di intelligence israeliana sta correndo rischi maggiori rispetto alle sue controparti americane o britanniche quando si tratta di integrare i sistemi di intelligenza artificiale nell’analisi dell’intelligence.
Brianna Rosen, ex funzionario della sicurezza della Casa Bianca e attuale ricercatrice in studi militari e di sicurezza presso l’Università di Oxford, ha spiegato che un analista di intelligence che utilizza uno strumento come ChatGPT sarebbe potenzialmente in grado di “rilevare le minacce che gli esseri umani potrebbero perdere, anche prima che si presentino”. Tuttavia, “rischia anche di trarre false connessioni e conclusioni errate. Verranno commessi degli errori, e alcuni di questi errori potrebbero avere conseguenze molto gravi.”
Fonti dell’intelligence israeliana hanno sottolineato che in Cisgiordania, la questione più pressante non è necessariamente l’accuratezza di questi modelli, ma piuttosto la vasta portata di arresti che consentono. Gli elenchi di “sospetti” sono in costante crescita, poiché enormi quantità di informazioni vengono continuamente raccolte e rapidamente elaborate utilizzando l’IA.
Diverse fonti hanno affermato che un “sospetto” vago o generale è spesso sufficiente a giustificare il collocare i palestinesi in detenzione amministrativa – una pena detentiva estensibile di sei mesi senza accusa o processo, sulla base di “prove” non divulgate. In un ambiente in cui la sorveglianza dei palestinesi è così ampia e la soglia per l’arresto è così bassa, hanno detto, l’aggiunta di nuovi strumenti basati sull’IA migliorerà la capacità di Israele di trovare informazioni incriminanti su molte più persone.
Il portavoce dell’IDF non ha affrontato domande specifiche poste da +972, Local Call e Guardian “a causa della natura sensibile delle informazioni”, affermando solo che “qualsiasi uso di strumenti tecnologici viene effettuato attraverso un processo rigoroso guidato da professionisti, al fine di garantire la massima accuratezza delle informazioni di intelligence”.
Harry Davies del Guardian e Sebastian Ben Daniel (John Brown) hanno contribuito a questa indagine.