lunedì 8 aprile 2024
L'intelligenza artificiale usata da Israele per colpire i palestinesi: il sistema Lavender e le sue conseguenze
Israele ha utilizzato un sistema di intelligenza artificiale chiamato Lavender per identificare e colpire obiettivi militari palestinesi, con conseguenze devastanti per la popolazione civile. Secondo quanto riportato da sei membri dei servizi segreti israeliani, Lavender è un database che incrocia le informazioni relative a persone ritenute vicine alle milizie palestinesi e viene utilizzato per decidere gli obiettivi da bombardare.• Il processo di autorizzazione a colpire i target segnalati dall'AI stabilisce che sia accettabile un numero tra 15 e 20 vittime collaterali per ogni miliziano di Hamas o della Jihad islamica palestinese ucciso e fino a 100 vittime civili collaterali per ogni alto funzionario colpito.• L'uso di Lavender ha modificato i processi di autorizzazione all'attacco, specie nel caso delle vittime civili ritenute "accettabili". Dopo l'attacco di Hamas del 7 ottobre, l'esercito israeliano ha allentato questo sistema, usando pre-autorizzazioni e chiedendo un flusso continuo di obiettivi.• Gli esperti di diritto internazionale hanno criticato il sistema di pre-autorizzazioni usato da Israele, sostenendo che i militari debbano valutare la proporzionalità per ogni singolo attacco e di non aver mai sentito parlare di un rapporto di uno a 15 o più come accettabile, specialmente per i combattenti di basso livello.