**Il dramma della guerra attraverso gli occhi di Rafah, Gaza**
Nel tumulto del conflitto israelo-palestinese, si moltiplicano le tragiche storie di perdite umane, lasciando dietro di sé un paesaggio di desolazione nella città di Rafah, a Gaza. Il 27 maggio 2024, l’immagine straziante dei palestinesi che evacuano i corpi senza vita di due membri del personale dell’ospedale del Kuwait, vittime di un attacco di droni dell’esercito israeliano vicino all’ospedale, testimonia la violenza incessante che affligge la regione. Questa scena straziante cattura l’essenza della crudeltà della guerra moderna, dove vite innocenti vengono prese di mira indiscriminatamente.
L’11 gennaio 2024, il Sudafrica ha accusato Israele di atti di genocidio davanti alla Corte internazionale di giustizia. Durante l’udienza pubblica, il Sudafrica ha sottolineato l’intento genocida degli atti di distruzione e massacro del popolo palestinese. Secondo lo Statuto di Roma del 1998, per “genocidio” si intendono gli atti commessi con l’intento di distruggere, in tutto o in parte, un gruppo uccidendo, provocando gravi danni fisici o mentali, o infliggendo intenzionalmente al gruppo condizioni di vita intese a provocarne la distruzione. distruzione fisica totale o parziale.
Ai giudici è stato chiesto di pronunciarsi sulle intenzioni di Israele e hanno concluso che devono essere adottate misure per prevenire atti di genocidio nella Striscia di Gaza. La campagna di uccisioni ad alta tecnologia di Israele si basa su armi automatizzate, rendendo difficile stabilire intenti e responsabilità. Eppure la tecnologia del genocidio, programmata dalle Forze di Difesa Israeliane (IDF), si basa sull’azione umana: in essa risiede l’impulso a modellare le macchine come sistemi automatizzati di uccisione algoritmica.
Due recenti indagini, rivelate dalle pubblicazioni indipendenti +972 Magazine e Local Call, dettagliano i sistemi sviluppati e utilizzati dall’IDF per pianificare bombardamenti calcolati a Gaza, in grado di programmare la distruzione di obiettivi utilizzando l’informatica.
Il primo sistema, chiamato “The Gospel”, può generare quattro distinte categorie di obiettivi, che vanno dalle torri residenziali alle case unifamiliari. Per ogni obiettivo viene allegato un file che specifica il numero di civili che potrebbero essere uccisi nell’attacco.
“Niente accade per caso”, ha detto un membro della comunità dell’intelligence israeliana intervistato per l’indagine. “Quando una bambina di tre anni viene uccisa in una casa a Gaza, è perché qualcuno nell’esercito ha deciso che non era un grosso problema per lei essere uccisa, che era un prezzo che valeva la pena pagare per colpire [un altro] obiettivo. Non siamo Hamas Questi non sono razzi casuali. È tutto intenzionale..”
Tentando di uccidere un leader di Hamas, il comando militare può approvare la morte di centinaia di palestinesi. Effettuando gli attacchi, i servizi segreti dell’esercito sanno in anticipo quante persone moriranno. In questo caso, l’intento di uccidere un leader di Hamas è chiaro, ma tale intento comporta il danno collaterale di civili destinati a morire presto.
Mentre in precedenza gli obiettivi di potere, come i grattacieli, venivano presi di mira per scioccare la società civile, l’ultima guerra contro i palestinesi rivela che i protocolli militari sono stati allentati per aumentare l’uccisione di civili.
Il secondo sistema, Lavender, è una macchina controllata dall’intelligenza artificiale che ha contrassegnato fino a 37.000 palestinesi come sospetti militanti da assassinare. Lavender sviluppa un elenco di presunti obiettivi nei rami militari di Hamas e della Jihad islamica palestinese.
Questi obiettivi umani sono stati designati nonostante il fatto che il sistema commetta “errori” in circa il 10% dei casi. Una connessione debole, o nessuna connessione, con i gruppi militanti è un dato valido utilizzato dal sistema per produrre un obiettivo umano pronto per il macello.
Come verificare i dati utilizzati per addestrare i sistemi di intelligenza artificiale sviluppati dall’IDF? Questi dati possono essere raccolti attraverso accordi utente volontari da parte di utenti palestinesi di smartphone e social media, ma anche attraverso lo spionaggio. Israele è noto per aver ideato il famigerato spyware Pegasus, in grado di aggirare il rilevamento e utilizzato dai governi per spiare giornalisti, attivisti e cittadini in diversi paesi.
L’elenco delle uccisioni generato dall’intelligenza artificiale non è stato esaminato a fondo dagli esseri umani. Una fonte ha affermato che fungevano da “cuscinetto” per le decisioni della macchina. Trascorrerebbero personalmente circa “20 secondi” su ciascun bersaglio prima di autorizzare un bombardamento, solo per assicurarsi che il bersaglio contrassegnato da Lavender sia un uomo e che il bersaglio fosse a casa.
I dati utilizzati da The Gospel e Lavender potrebbero essere dati sintetici, cioè dati generati dalla macchina stessa, poi utilizzati per alimentare il programma e validare il modello. In Op-Ed: Il problema etico più urgente dell’intelligenza artificiale, Anika Collier Navaroli, ricercatrice senior presso la Columbia University, rivela le questioni etiche che circondano l’uso dei dati sintetici.
I dati sintetici si riferiscono a informazioni generate artificialmente. Questi dati possono essere utilizzati per addestrare l’apprendimento automatico o convalidare modelli. Possono essere distorti e modellare il sistema, rendendo più difficile distinguere tra eventi reali e notizie false. Nella questione dell’intento omicida, la valutazione dell’.