Guerra siglo XXI: Así usa Israel la Inteligencia artificial para ‘derribar’ a Hamás
Actualmente hay un debate sobre la de inteligencia artificial en la guerra, ya que hay expertos que creen que si Israel u otro país que la usa sufre un mal cálculo, puede matar a civiles.
Las fuerzas de defensa de Israel han comenzado a utilizar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra a medida que aumentan las tensiones en los territorios ocupados y con su archirrival Irán.
Aunque el ejército no hace comentarios sobre operaciones específicas, los funcionarios dicen que ahora utiliza un sistema de recomendación de inteligencia artificial que puede procesar enormes cantidades de datos para seleccionar objetivos para ataques aéreos. Las incursiones posteriores pueden luego ensamblarse rápidamente con otro modelo de inteligencia artificial llamado Fire Factory, que utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma.
Si bien ambos sistemas son supervisados por operadores humanos que examinan y aprueban objetivos individuales y planes de ataque aéreo, según un funcionario de las FDI, la tecnología aún no está sujeta a ninguna regulación internacional o estatal. Sus defensores argumentan que los algoritmos avanzados pueden superar las capacidades humanas y ayudar a los militares a minimizar las bajas, mientras que los críticos advierten sobre las consecuencias potencialmente mortales de depender de sistemas cada vez más autónomos.
“Si hay un error en el cálculo y si la inteligencia artificial no es explicable, ¿a quién culpamos por el error?” dijo Tal Mimran, profesor de derecho internacional en la Universidad Hebrea de Jerusalén y exasesor jurídico del ejército. “Puedes acabar con una familia entera por un error”.
Los detalles del uso operativo de la inteligencia artificial por parte del ejército de Israel siguen siendo en gran medida clasificados; sin embargo, las declaraciones de oficiales militares sugieren que las FDI han adquirido experiencia en el campo de batalla con los controvertidos sistemas a través de estallidos periódicos en la Franja de Gaza, donde Israel frecuentemente lleva a cabo ataques aéreos en respuesta a ataques con cohetes.
En 2021, las FDI describieron el conflicto de 11 días en Gaza como la primera “guerra de IA” del mundo, citando su uso de inteligencia artificial para identificar plataformas de lanzamiento de cohetes y desplegar enjambres de drones. Israel también lleva a cabo incursiones en Siria y el Líbano, dirigidas a lo que dice son envíos de armas a milicias respaldadas por Irán como Hezbolá.
En los últimos meses, Israel ha estado emitiendo advertencias casi a diario a Irán sobre su enriquecimiento de uranio, prometiendo que no permitirá que el país obtenga armas nucleares bajo ninguna circunstancia. Si los dos entran en una confrontación militar, las FDI anticipan que los representantes iraníes en Gaza, Siria y el Líbano tomarían represalias, preparando el escenario para el primer conflicto serio en múltiples frentes para Israel desde que un ataque sorpresa de Egipto y Siria hace 50 años desató la Guerra de Yom Kipur.
Según funcionarios de las FDI, las herramientas basadas en inteligencia artificial como Fire Factory están diseñadas para tal escenario. “Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el coronel Uri, que dirige la unidad de transformación digital del ejército y que habló en el cuartel general de las FDI en Tel Aviv con la condición de que solo se indicara su nombre. utilizarse por razones de seguridad. “Con la misma cantidad de gente, hacemos mucho más”.
El sistema, subrayaron estos funcionarios, está diseñado para una guerra total.
¿Expansión de la inteligencia artificial en las guerras?
Las FDI han utilizado la inteligencia artificial durante mucho tiempo, pero en los últimos años han ampliado esos sistemas a varias unidades en su intento por posicionarse como líder mundial en armamento autónomo. Algunos de estos sistemas fueron construidos por contratistas de defensa israelíes; otras, como las cámaras de control fronterizo StarTrack, que se entrenan con miles de horas de metraje para identificar personas y objetos, fueron desarrolladas por el ejército. En conjunto, comprenden una vasta arquitectura digital dedicada a interpretar enormes cantidades de imágenes de drones y CCTV, imágenes satelitales, señales electrónicas, comunicaciones en línea y otros datos para uso militar.
Tratar con este torrente de información es el objetivo del Centro de Ciencia de Datos e Inteligencia Artificial, dirigido por la unidad 8200 del ejército. Con sede dentro de la división de inteligencia, esa unidad es donde muchos de los multimillonarios tecnológicos del país, incluido Nir Zuk de Palo Alto Networks Inc. y el fundador de Check Point Software Technologies Ltd , Gil Shwed , hicieron su servicio militar obligatorio antes de formar nuevas empresas exitosas. Según un portavoz, el centro fue responsable de desarrollar el sistema que “transformó todo el concepto de objetivos en las FDI”.
La naturaleza secreta de cómo se desarrollan tales herramientas ha generado serias preocupaciones, incluida la de que la brecha entre los sistemas semiautónomos y las máquinas de matar completamente automatizadas podría reducirse de la noche a la mañana. En tal escenario, las máquinas estarían facultadas para localizar y atacar objetivos, y los humanos quedarían completamente eliminados de los puestos de toma de decisiones.
“Es simplemente un cambio de software que podría hacer que pasen a ser completamente autónomos y no semiautónomos”, dijo Catherine Connolly, investigadora de decisiones automatizadas en Stop Killer Robots, una coalición de organizaciones no gubernamentales que incluye a Human Rights Watch y Amnistía Internacional. Israel dice que no tiene planes de eliminar la supervisión humana en los próximos años.
Otra preocupación es que la rápida adopción de la inteligencia artificial esté superando la investigación sobre su funcionamiento interno. Muchos algoritmos son desarrollados por empresas privadas y militares que no revelan información confidencial, y los críticos han subrayado la falta inherente de transparencia en la forma en que los algoritmos llegan a sus conclusiones. Las FDI reconocieron el problema, pero dijeron que los soldados revisan cuidadosamente los resultados y que sus sistemas militares de inteligencia artificial dejan migas de pan técnicas, lo que brinda a los operadores humanos la capacidad de recrear sus pasos.
“A veces, cuando se introducen componentes de inteligencia artificial más complejos, redes neuronales y similares, entender lo que ‘pasó por su cabeza’, en sentido figurado, es bastante complicado. Y luego, a veces estoy dispuesto a decir que estoy satisfecho con la trazabilidad, no con la explicabilidad. Es decir, quiero entender qué es fundamental para mí entender sobre el proceso y monitorearlo, incluso si no entiendo qué está haciendo cada ‘neurona’”, dijo Uri.
Las FDI se negaron a hablar sobre la tecnología de reconocimiento facial, que ha sido fuertemente criticada por grupos de derechos humanos, aunque sí dijeron que se abstuvieron de integrar la inteligencia artificial en el software de reclutamiento por temor a que pudiera discriminar a las mujeres y a los cadetes potenciales de entornos socioeconómicos más bajos.
La principal ventaja de integrar la inteligencia artificial en los sistemas del campo de batalla, según algunos expertos, es el potencial de reducir las bajas civiles. “Creo que hay un beneficio de eficiencia y eficacia al utilizar estas tecnologías correctamente. Y dentro de parámetros tecnológicos que funcionan bien, puede haber una precisión muy, muy alta”, dijo Simona R. Soare, investigadora del Instituto Internacional de Estudios Estratégicos con sede en Londres. “Puede ayudarte con muchas cosas que necesitas hacer mientras viajas, en la niebla de la batalla. Y eso es muy difícil de hacer en el mejor de los días”.
“También hay muchas cosas que pueden salir mal”, añadió.
Preocupaciones éticas con la implementación de la inteligencia artificial en la guerra
Si bien los líderes israelíes han esbozado su intención de hacer del país una “superpotencia de inteligencia artificial“, han sido vagos en los detalles. El Ministerio de Defensa se negó a comentar cuánto ha invertido, y el ejército no quiso discutir contratos de defensa específicos, aunque sí confirmó que Fire Factory fue desarrollado por el contratista de defensa israelí Rafael. Lo que oscurece aún más el panorama es que, a diferencia de lo ocurrido durante la carrera de armamentos nucleares, cuando la filtración de detalles sobre las capacidades de las armas era un aspecto clave de la disuasión, los gobiernos, los ejércitos y las empresas de defensa privadas están desarrollando en secreto sistemas autónomos y asistidos por inteligencia artificial.
“Podemos suponer que los estadounidenses e incluso los chinos y tal vez varios otros países también tienen sistemas avanzados en esos campos”, dijo Liran Antebi, investigador principal del Instituto de Estudios de Seguridad Nacional con sede en Israel. Pero a diferencia de Israel, “hasta donde yo sé, nunca han demostrado uso operativo ni éxito”.
Por ahora, no hay limitaciones. A pesar de una década de conversaciones patrocinadas por la ONU, no existe un marco internacional que establezca quién es responsable de las víctimas civiles, los accidentes o las escaladas involuntarias cuando una computadora juzga mal.
“También está la cuestión de las pruebas y los datos con los que se entrenan estos sistemas”, dijo Connolly de la coalición Stop Killer Robots. “¿Qué tan preciso y exacto se puede saber que será un sistema a menos que ya haya sido capacitado y probado en personas?”
Estas preocupaciones son la razón por la que Mimran, profesor de derecho en la Universidad Hebrea, cree que las FDI deberían utilizar la inteligencia artificial exclusivamente con fines defensivos. Durante su mandato en el ejército, Mimran examinó manualmente los objetivos para asegurarse de que los ataques cumplieran con el derecho internacional. Eso le enseñó que, independientemente de la tecnología, “llega un punto en el que es necesario tomar una decisión basada en valores”.
“Y para eso”, dijo, “no podemos confiar en la inteligencia artificial”.
Fuente: El Financiero