Perché nella guerra israeliana basata sull’Intelligenza Artificiale, l’azione umana è ancora centrale

Dopo la denuncia di “Lavender”, esperti di diritto internazionale e di Intelligenza Artificiale spiegano come le principali aziende tecnologiche israeliane e mondiali siano coinvolte nel massacro.

Fonte: English version

Di Sophia Goodfriend – 25 aprile 2024

Immagine di copertina: Soldati israeliani del Battaglione 8717 della Brigata Givati ​​operanti a Beit Lahia, nel Nord della Striscia di Gaza, il 28 dicembre 2023. (Yonatan Sindel/Flash90)

La distruzione che Israele ha scatenato su Gaza evoca un’analoga era di guerra. I crateri inghiottono complessi residenziali, intere strade sono state ridotte in macerie e nuvole di polvere oscurano il sole. L’esercito israeliano ha sganciato più esplosivi sull’enclave di 200 chilometri quadrati di quelli contenuti nelle bombe atomiche che distrussero Hiroshima e Nagasaki nella Seconda Guerra Mondiale. La portata e la densità della distruzione rivaleggiano con gli episodi più devastanti di guerra urbana della storia recente, dal Blitz su Londra a decenni di controinsurrezione in Vietnam.

Tuttavia, a differenza di quelle guerre del 20° secolo, l’assalto israeliano a Gaza è fondamentalmente una campagna di uccisione ad alta tecnologia. All’inizio di questo mese, i rapporti investigativi di +972 e Local Call hanno rivelato il ruolo chiave dell’Intelligenza Artificiale nello spargimento di sangue. Secondo sei ufficiali dei servizi segreti israeliani, i militari hanno utilizzato una macchina AI soprannominata “Lavander” per generare decine di migliaia di “obiettivi umani” da assassinare con la motivazione che presumibilmente fanno parte delle ali armate di Hamas o della Jihad Islamica Palestinese. Questi risultati sono stati poi inseriti in un sistema di tracciamento automatizzato noto come “Where’s Daddy?” (Dov’è Papà?) consentendo all’esercito di ucciderli tutti all’interno delle proprie abitazioni, insieme a tutta la famiglia e spesso molti vicini.

Queste rivelazioni fanno seguito a una precedente indagine di +972 e Local Call, che ha fatto luce su un altro sistema di generazione di bersagli IA noto come “Habsora” (“Il Vangelo”). Mentre Lavender genera obiettivi umani, Habsora contrassegna edifici e strutture che presumibilmente svolgono una funzione militare. Un ex ufficiale dei servizi segreti ha riferito che questa tecnologia consente all’esercito israeliano di gestire essenzialmente una “fabbrica di omicidi di massa”.

L’ultima indagine ha suscitato scalpore nella stampa internazionale, dove i commentatori hanno evocato scene di sistemi d’arma alimentati dall’Intelligenza Artificiale che superano la potenza dei loro operatori umani e uccidono a piacimento. Ma esperti di Diritto Internazionale e di guerra basata sull’Iintelligenza Artificiale hanno sottolineato che la carneficina a Gaza è il risultato di decisioni umane pianificate. E insieme ai vertici delle istituzioni militari e politiche israeliane, interi segmenti del settore tecnologico civile globale potrebbero essere coinvolti nel massacro.

Generazione rapida, autorizzazione rapida

Con un tasso di mortalità giornaliero a Gaza più alto di qualsiasi altra guerra del 21° secolo, sembra che gli impegni volti a ridurre al minimo le vittime civili negli omicidi mirati, per quanto siano mai esistiti, siano semplicemente falliti. Secondo le fonti, i funzionari militari israeliani hanno abbassato significativamente i criteri utilizzati per determinare quali obiettivi potevano essere uccisi nelle loro case, alzando al tempo stesso la soglia delle vittime civili consentite in ogni attacco, in alcuni casi autorizzando l’uccisione di centinaia di civili per uccidere un unico obiettivo militare di alto livello. L’attenzione, come disse il Portavoce dell’IDF Daniel Hagari nei primi giorni della guerra, era concentrata “su ciò che causa il massimo danno”.

Un attacco aereo israeliano nel campo profughi di Al-Bureij, nel centro di Gaza, il 2 gennaio 2024. (Oren Ben Hakoon/Flash90)

Per essere chiari, Israele non fa affidamento su armi completamente autonome nell’attuale guerra a Gaza; piuttosto, le unità di informazione utilizzano sistemi di individuazione basati sull’Intelligenza Artificiale per classificare i civili e le infrastrutture civili in base alla loro probabilità di essere affiliati a organizzazioni militanti. Ciò accelera ed espande rapidamente il processo attraverso il quale l’esercito sceglie chi uccidere, generando più obiettivi in un giorno di quanti il ​​personale umano possa produrne in un anno intero.

Con la rapida generazione di obiettivi nasce la necessità di una rapida autorizzazione: gli ufficiali del servizio informazioni hanno ammesso di aver dedicato solo 20 secondi per approvare i singoli attacchi, nonostante sapessero che Lavender identifica erroneamente gli obiettivi, anche secondo i suoi stessi criteri permissivi, in circa il 10% di casi. Molti si sono limitati ad assicurarsi che la persona che stavano per uccidere fosse un uomo, trasformando gran parte di Gaza in una trappola mortale.

“Ciò che mi ha colpito del rapporto è il grado di autonomia e affidabilità che le forze armate hanno dato a questa tecnologia”, ha detto Alonso Gurmendi Dunkelberg, docente di relazioni internazionali al King’s College di Londra. “Permette all’esercito di approvare freddamente l’attacco sistematico alla popolazione civile”.

Ben Saul, professore di Diritto Internazionale e Relatore Speciale delle Nazioni Unite sui Diritti Umani e l’Antiterrorismo, ha affermato che l’eccessivo affidamento a questi sistemi conferisce una parvenza di razionalità alla devastazione che Israele ha provocato a Gaza. I cosiddetti “sistemi intelligenti” possono determinare l’obiettivo, ma il bombardamento viene effettuato con munizioni “stupide” non guidate e imprecise perché l’esercito non vuole usare bombe costose su quelli che un ufficiale del servizio informazioni ha descritto come “obiettivi inutili”.

“Israele dispone di avvocati militari; di un sistema di giustizia militare; di procedure operative e regole di ingaggio che dovrebbero aiutarlo a rispettare il Diritto Umanitario Internazionale”, ha detto Saul. “Ma questa guerra è operante lontano dalle regole umanitarie fondamentali”.

Palestinesi porgono l’ultimo saluto ai loro parenti uccisi negli attacchi aerei israeliani, all’Ospedale Al-Najjar nella città di Rafah, nel Sud della Striscia di Gaza, il 21 aprile 2024. (Abed Rahim Khatib/Flash90)

Le Nazioni Unite, gruppi per i diritti umani e decine di governi hanno avvertito che Israele viola continuamente il Diritto Umanitario Internazionale nonché le disposizioni fondamentali delle Convenzioni di Ginevra e dell’Aja, di cui è firmatario. Ciascuno di questi trattati vieta l’uccisione sistematica e deliberata di civili. Ma gli studiosi di diritto affermano che questi sistemi ad alta tecnologia hanno favorito un sistematico disprezzo del Diritto Internazionale negli ultimi sei mesi e mezzo di guerra, durante i quali Israele ha ucciso più di 34.000 palestinesi, feriti oltre 76.000 e altri 11.000 rimangono dispersi.

Trasformare i palestinesi in numeri

Il fatto che queste macchine siano azionate e controllate da persone reali ha gravi implicazioni per i funzionari militari israeliani. Lavander e Dov’è papà? possono essere pubblicizzati come sistemi basati sull’Intelligenza Artificiale, ma anche i vertici militari israeliani affermano che non agiscono in modo autonomo: una catena di comando concertata determina come queste tecnologie vengono messe in azione. Come ha detto Zach Campbell, ricercatore capo di sorveglianza presso Human Rights Watch: “Sì, questa tecnologia è problematica, ma riguarda anche il modo in cui questi sistemi vengono utilizzati. E quelle sono decisioni umane”.

I funzionari del governo israeliano resero chiare le loro intenzioni dopo i terribili eventi del 7 ottobre. Nei primi giorni della guerra, il Presidente israeliano Isaac Herzog proclamò che “non c’erano civili innocenti a Gaza” e i ministri dichiararono che la guerra era l’inizio di un’altra “Nakba”. Altri politici hanno chiesto che l’intera Striscia venisse “rasa al suolo”. Bombe da duemila libbre (900 kg) hanno fatto saltare in aria interi quartieri; i bulldozer raso al suolo scuole e ospedali e intere aree della Striscia furono considerate “zone di morte”. Questi comandi si collegano agli sforzi, in atto da anni, per trasformare l’esercito israeliano in quello che il sociologo Yagil Levy ha recentemente definito “un esercito generatore di morte”.

“Il problema non è con l’Intelligenza Artificiale” ha fatto eco Brian Merchant, un giornalista tecnologico che indaga sullo sviluppo incondizionato dei sistemi di Intelligenza Artificiale. “Il problema è ciò che l’Intelligenza Artificiale lascia fare ai militari. Fornisce una motivazione per essere più violenti, per essere più negligenti, per affermare un programma che già avevano o che stanno cercando un pretesto per giustificare”.

Mona Shtaya, ricercatrice presso l’Istituto per la Politica del Medio Oriente Tahrir, ha affermato che questo succede da tempo quando si tratta della strategia militare israeliana nei confronti dei palestinesi; Lavander è solo la più recente di una lunga lista di armi algoritmicamente potenti nell’arsenale di Israele.

Membri della Protezione Civile Palestinese cercano corpi sotto le macerie dopo un attacco aereo israeliano, nella città di Rafah, nel Sud della Striscia di Gaza, il 21 aprile 2024. (Abed Rahim Khatib/Flash90)

Ad esempio, gli algoritmi di vigilanza preventiva e i sistemi di riconoscimento facciale raccolgono dati provenienti da numerose fonti, tra cui social media, dati di telefoni cellulari e filmati di droni. Come Lavender, questi sistemi utilizzano i dati per assegnare ai palestinesi un punteggio di sicurezza. Tale valutazione può quindi determinare qualsiasi cosa, da chi dovrebbe essere detenuto a un posto di blocco a Hebron, arrestato fuori dalla Moschea di Al-Aqsa o ucciso in un attacco di droni a Gaza.

“Questi sistemi trasformano i palestinesi in numeri”, ha detto Shtaya. “Permettono alle autorità di valutarci, di disumanizzarci, di non pensare al fatto che siamo persone, ma di giustificare la nostra morte sulla base di una statistica. È per questo che abbiamo visto aumentare la violenza da quando Israele ha iniziato a fare affidamento su questi sistemi”.

Dal punto di vista di Shtaya, i sistemi di individuazione basati sull’Intelligenza Artificiale sono il risultato naturale degli ingenti investimenti di Israele nella sorveglianza di massa. “È il ciclo dello sviluppo tecnologico in Palestina. Ogni sistema è più pericoloso”.

Una catena di fornitura algoritmica

L’abuso dell’Intelligenza Artificiale può essere radicato nelle politiche militari, ma coinvolge anche ampie fasce dell’industria tecnologica civile.

I sistemi di individuazione basati sull’Intelligenza Artificiale si basano su raccolte di dati di sorveglianza estratti e analizzati da aziende private, conglomerati tecnologici globali e tecnici militari. Gli operatori tecnologici nei complessi di uffici della Silicon Valley progettano le banche dati di Google Image che le truppe israeliane utilizzano per trattenere i civili in fuga dai bombardamenti aerei. Gli algoritmi di moderazione dei contenuti determinati dalla direzione aziendale di Meta a New York aiutano i sistemi di vigilanza preventiva a classificare i civili in base alla loro probabilità di unirsi a gruppi militanti. Le società di sicurezza con sede a Petah Tikvah trasferiscono il contenuto dei telefoni cellulari a tecnici militari che compilano elenchi di obiettivi umani.

La dipendenza di Israele dai prodotti tecnologici civili per svolgere le sue operazioni letali è in contrasto con molte delle politiche e dei termini di utilizzo emessi dalle aziende con cui collabora. Il mese scorso, il New York Times ha rivelato che l’esercito israeliano sta utilizzando una banca dati di Google Images per identificare e smistare i civili nella Striscia di Gaza. Cheyne Anderson, un ingegnere informatico di Google e membro del gruppo No Tech for Apartheid (Nessuna Tecnologia per l’Apartheid), una coalizione di lavoratori tecnologici contrari ai contratti con l’esercito israeliano, ha detto che questo è un grave uso improprio della tecnologia di Google.

I lavoratori di Google e Amazon protestano contro la collaborazione delle loro aziende con l’esercito israeliano al vertice annuale di Amazon Web Services a New York, il 26 luglio 2023. (X/No Tech For Apartheid)

“Questi sistemi non sono progettati per decidere chi vive e chi muore nei campi di battaglia in Medio Oriente; sono testati su fotografie di famiglia”, ha spiegato Anderson. “Portare qualcosa del genere in una zona di guerra va direttamente contro le nostre politiche sulla riservatezza e di utilizzo”. Infatti, le politiche sulla riservatezza di Google impongono che gli utenti debbano dare “il loro chiaro consenso per condividere qualsiasi informazione personale sensibile” con terze parti. Secondo i suoi protocolli sulle attività pericolose e illegali, Google avverte che Google Foto non può essere utilizzato “per promuovere attività, beni, servizi o informazioni che causano danni gravi e immediati alle persone”.

Nonostante le evidenti violazioni delle sue politiche stabilite, Google e altri conglomerati tecnologici non hanno impedito all’esercito israeliano di utilizzare i loro prodotti nell’attuale guerra a Gaza o nei decenni di Dominio Militare Israeliano sui Territori Palestinesi Occupati. Molte di queste società private traggono profitto dallo scambio, poiché i civili palestinesi a cui è negato il ricorso alle tutele basilari della riservatezza offrono una fornitura illimitata di dati con cui le società di sorveglianza possono perfezionare i loro prodotti. “Queste aziende fanno parte di una vasta catena di fornitura algoritmica fondamentale nella guerra odierna”, ha detto Matt Mahmoudi, ricercatore di Amnesty International. “Eppure non sono riusciti a discuterne”.

Man mano che l’elenco degli abusi israeliani a Gaza cresce, queste società potrebbero essere legalmente implicate nelle violazioni sistematiche del Diritto Internazionale da parte di Israele. “È un avvertimento per qualsiasi azienda”, ha detto Mahmoudi. “Non solo stanno violando il Diritto Umanitario Internazionale, non solo rischiano di danneggiare la loro reputazione, ma rischiano di essere ritenuti colpevoli di favoreggiamento in qualcosa che sarà sicuramente classificato come un Crimine grave a tempo debito”.

Le accuse di Crimini di Guerra non hanno impedito ai funzionari militari israeliani di promettere che tutto lo spargimento di sangue porterà a progressi senza precedenti nella guerra basata sull’Intelligenza Artificiale. Intervenendo alla Giornata annuale dell’Intelligenza Artificiale dell’Università di Tel Aviv a febbraio, il Generale di Brigata Yael Grossman, comandante dell’Unità Lotem, rivolgendosi ad una folla di dirigenti del settore tecnologico civile e militare ha detto che l’esercito sta continuando a implementare sistemi all’avanguardia. “L’attrito crea dati”, ha detto. “Ci permette di crescere molto più velocemente e perfezionare le diverse soluzioni che forniamo sul campo di battaglia”.

Storicamente tali slogan hanno unito i governi occidentali e i conglomerati tecnologici attorno all’abilità militare israeliana. Ma oggi la situazione potrebbe cambiare. I governi occidentali hanno iniziato a considerare di sospendere la vendita di armi, e i lavoratori di Google e di altri importanti conglomerati tecnologici si stanno ribellando contro i contratti dei loro datori di lavoro con l’esercito israeliano. Nel disprezzo di Israele per le normative internazionali, Shtaya ha affermato che questo cambiamento epocale potrebbe essere l’unica speranza per intervenire sui sistemi d’arma emergenti.

“Quello che sta succedendo in Palestina non è limitato all’esercito israeliano”, ha spiegato Shtaya. “L’abuso di questi sistemi è un problema globale”.

Sophia Goodfriend è una dottoranda in antropologia presso l’Università di Duke con esperienza in diritti digitali e sorveglianza digitale in Israele/ Palestina.

Traduzione: Beniamino Rocchetto – Invictapalestina.org