Un sistema de IA usado por Israel en Gaza marca 37.000 palestinos como posibles milicianos

Jerusalén, 3 abr (EFE).- En los primeros días de la guerra en la Franja de Gaza, que se encamina a los seis meses con más de 32.800 muertos, el Ejército israelí dependió casi por completo de un sistema algorítmico que determinó 37.000 palestinos como presuntos milicianos de Hamás, convirtiéndoles tanto a ellos como a sus residencias en objetivos militares.

https://cloudfront-us-east-1.images.arcpublishing.com/abccolor/MOAP76XDJFEHLLTLQPIEIIZQZI.jpg

Cargando...

De acuerdo con una investigación divulgada hoy por el diario israelí Sicha Mekomit (llamado en su versión en inglés +972) y basada en fuentes de inteligencia, los soldados adoptaron sin cuestionarse las "listas de matar" recomendadas por un sistema de inteligencia artificial, no usado hasta ahora, apodado Lavender.

Una vez los nombres eran sugeridos, "el personal humano" dedicaba unos "20 segundos" a cada objetivo antes de autorizar un bombardeo, con el fin de asegurarse simplemente de que el potencial miliciano era un hombre, detalla la investigación.

Sin embargo, Lavender no es tan sofisticado, dice el texto, y conlleva un margen de error en aproximadamente el 10 % de los casos, por lo que de forma ocasional puede incriminar "a personas que tienen simplemente una conexión vaga con grupos militantes, o ninguna conexión en absoluto".

Además, según el texto, el ejército atacó a estas personas, muchos posibles milicianos de muy bajo rango, de forma "sistemática" en sus hogares -"normalmente de noche, mientras toda su familia estaba presente"- al considerarlos un blanco más fácil, e incrementando el número de muertos civiles "permitido" por cada combatiente.

"No estábamos interesados en matar a los agentes [de Hamás] sólo cuando se encontraban en un edificio militar o participando en una operación militar", dijo un oficial de inteligencia a +972. “Por el contrario, las Fuerzas de Defensa de Israel los bombardearon en sus casas, sin dudarlo, como primera opción”, añadió, alegando que "el sistema está diseñado para buscarlos en estas situaciones".

"15 o 20 civiles" por un miliciano muerto

En las primeras semanas de guerra, según dos fuentes citadas en anonimato por la investigación, el ejército decidió que el ataque contra cualquier joven agente de Hamás señalado por Lavender podría ocasionar la muerte de entre "15 o 20 civiles", un ratio de no-combatiente sin precedentes.

En previas guerras, los militares no autorizaban ningún “daño colateral” si se trataba de hombres de rango, mientras que si el objetivo fuera un alto funcionario o comandante de Hamás, en la actual ofensiva, las fuentes dijeron que el ejército contempló en varias ocasiones la masacre de más de 100 civiles.

Además, el ejército prefirió usar contra estos milicianos de poca importancia misiles no guiados, comúnmente conocidos como "bombas tontas" y documentados en Gaza a finales de diciembre por la CNN, capaces de destruir edificios enteros y de causar otras víctimas.

"No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", detalló un oficial de inteligencia bajo anonimato.

El uso de este y otros sistemas de inteligencia artificial como "Gospel", basados en algoritmos, estaría relacionado con el alto número de civiles muertos en la Franja, ya que según cifras israelíes no verificadas, 13.000 fallecidos tendrían alguna relación con grupos islamistas de entre más de 32.900 muertos, sin contar miles de cuerpos que siguen bajo toneladas de escombros.

Según datos de ayer del Banco Mundial, el 84 % de las instalaciones médicas en el enclave palestino han sido también dañadas o destruidas, el sistema de agua y saneamiento está casi colapsado, con un 5 % de su producción, y las carreteras e infraestructura han sido devastadas por la artillería y bombardeos israelíes.

Enlance copiado
Content ...
Cargando ...