EL EJÉRCITO ISRAELÍ UTILIZA LA IA PARA IDENTIFICAR OBJETIVOS SIN COMPROBARLOS A FONDO, REVELANDO UN ALTO RIESGO DE DAÑOS COLATERALES Y ERRORES SIGNIFICATIVOS QUE AFECTAN PRINCIPALMENTE A CIVILES. EL USO DE MISILES DIFERENCIALES SEGÚN EL PERFIL DEL OBJETIVO Y LA FALTA DE VERIFICACIÓN HUMANA ADECUADA PONE EN ENTREDICHO LA ÉTICA DE SU APLICACIÓN MILITAR.
Una investigación de la revista israelí +972 ha revelado que el ejército israelí utiliza un software de inteligencia artificial (IA) llamado Lavender para identificar miembros de Hamas y la Yihad Islámica. Este sistema ha sido crucial desde los inicios de la actual guerra en Gaza, tratando sus recomendaciones casi al mismo nivel que decisiones humanas. Sin embargo, los operadores apenas verifican las selecciones de la IA, con solo 20 segundos para confirmar si el objetivo es correcto, basándose únicamente en el género del individuo. A pesar de que Lavender tiene una precisión del 90%, esto significa que también hay un 10% de posibilidad de errores, incluyendo a civiles como objetivos.
Estos errores son críticos, especialmente cuando las reglas de engagement permiten hasta 100 víctimas civiles para un objetivo de alto rango. Los ataques suelen ser nocturnos, priorizando las residencias para aumentar la probabilidad de encontrar al objetivo en casa, lo cual plantea graves problemas éticos y de derechos humanos. Además, la selección de armamento varía según el perfil del objetivo, usando misiles más precisos para blancos de alto perfil y menos precisos para los de bajo perfil, maximizando así los daños colaterales cuando se considera “económicamente viable”.
Este método de operación ha levantado alarmas desde 2016, cuando expertos en IA y premios Nobel advertían sobre los riesgos de abusos en el uso militar de la IA. Los resultados actuales en Gaza parecen confirmar estas advertencias, con miles de palestinos puestos en la mira y un estimado de 4,000 civiles erróneamente catalogados como combatientes. Esta situación destaca la necesidad crítica de revisar y regular el uso de la IA en contextos militares, para evitar tragedias futuras y asegurar que la tecnología sirva para proteger, no para perpetrar injusticias.