El algoritmo ya asesina en Gaza

Comparte esta noticia:
El algoritmo ya asesina en Gaza

LOS ALGORITMOS UTILIZADOS EN LA GUERRA DE GAZA DESIGNAN OBJETIVOS Y COORDINAN BOMBARDEOS NOCTURNOS CON MINIMA INTERVENCIÓN HUMANA, LO QUE HA RESULTADO EN DESTRUCCIÓN MASIVA Y ALTAS BAJAS DE CIVILES. ESTA TÁCTICA DE INTELIGENCIA ARTIFICIAL REVELA UNA ESTRATEGIA MILITAR QUE BUSCA VACIAR GAZA PARA FUTUROS DESARROLLOS TURÍSTICOS.

La utilización de inteligencia artificial en la guerra de Gaza ha transformado profundamente las tácticas militares israelíes. Según revelaciones de la revista +972, basadas en testimonios de militares, un algoritmo ahora procesa datos de vigilancia digital y redes sociales para designar objetivos en Gaza, configurando una nueva forma de combate urbano que será estudiada en academias militares como Westpoint y Sandhurst.

Este sistema permite a los militares israelíes marcar ejecuciones a domicilio, preferentemente nocturnas, utilizando programas como “Donde está papá” para lanzar bombas más económicas y menos precisas. La intervención humana en la confirmación de los objetivos es mínima, con solo 20 segundos permitidos para validar la selección del algoritmo, que incluye un margen de error del 10%. Este margen se considera aceptable incluso cuando se prevé un alto número de víctimas colaterales, estimado entre 15 para militantes de base y hasta 300 para comandos de alto rango.

La brutal eficiencia de esta tecnología ha llevado a una escalada sin precedentes en la destrucción urbana y las bajas civiles, especialmente entre mujeres y niños, familiares de los presuntos milicianos. Estos ataques son parte de una estrategia más amplia del gobierno de Netanyahu, que busca vaciar Gaza de su población palestina y preparar el terreno para futuros proyectos de desarrollo turístico, similares a los propuestos por Jared Kushner.

El papel de la IA en este contexto no solo plantea cuestiones éticas urgentes sobre el uso de tecnología en conflictos armados, sino que también resalta los peligros de depender de algoritmos para tomar decisiones que tienen consecuencias mortales. Este enfoque tecnológico ha sido criticado por su potencial para violar principios de justicia y proporcionalidad en la guerra, apuntando hacia un futuro donde la guerra es dirigida cada vez más por máquinas en lugar de humanos.

 

Leer el artículo completo en El País

Comparte esta noticia:
Scroll al inicio