
Noticia
Exclusivo suscriptores
Inteligencia Artificial: los riesgos de que un algoritmo decida quién vive y quién muere en una guerra
Las revelaciones sobre su uso en Gaza y el elevado número de muertos civiles plantean serios interrogantes éticos y jurídicos. Análisis.
Una mujer palestina que sostiene a sus hijos tras el bombardeo israelí en Bureij, en el centro de Gaza. Foto: AFP

EDITOR MESAActualizado:
Cuando en abril el secretario general de Naciones Unidas, Antonio Guterres, expresó su perturbación por las informaciones de que las fuerzas armadas israelíes estaban usando Inteligencia Artificial (IA) para identificar objetivos humanos en Gaza, la irrupción de estas herramientas en la guerra saltó a una tribuna planetaria.
No es que fuera nuevo ni que círculos militares, académicos y organizaciones de derechos humanos no hubieran hecho análisis sobre el impacto en el derecho internacional humanitario (DIH) o el derecho de guerra de la llegada a los escenarios bélicos de tecnologías que ayudan a diseñar operaciones en segundos. Pero cuando Guterres tocó el punto de que “decisiones de vida o muerte” no deberían ser delegadas a los algoritmos, el debate tomó nuevo aliento.
Por una parte, está la posibilidad de que en el extremo una máquina asuma el papel de los humanos y que decida quién vive y quién muere en una guerra. Y, por otra, la preocupación de que quizás los marcos legales existentes se quedan cortos para mantener en cintura los cambios drásticos que está trayendo la IA militar. Como dice la jurista Magda Pacholska, investigadora del TMC Asser Institute, “la adopción de la IA en la práctica se considera como la tercera revolución en los asuntos militares, después de la pólvora y las armas nucleares”.
Antonio Guterres, secretario general de Naciones Unidas, hizo saltar las alarmas cuando denunció la irrupción de la IA en la guerra. Foto:AFP
Sin embargo, lo que se ha visto recientemente se sale de las proyecciones y hace pensar que el uso de estas tecnologías no tiene reversa, pues ya una gran mayoría de ejércitos las están incorporando dado su potencial de defensa y seguridad. En el 2010 China lanzó su estrategia para convertirse en 2030 en líder en IA. Poco después el Kremlin dijo que quien se convierta en líder en este campo “gobernará” el mundo, y Estados Unidos designó a la IA como uno de los medios que “garantizarán que pueda luchar y ganar las guerras del futuro”.
Ucrania se ha convertido en un laboratorio del uso militar de la IA
Pero, lo que se reveló acerca de lo que ha venido sucediendo en Gaza por parte de las fuerzas de Israel plantea un salto mayúsculo que agita temores éticos y morales sobre los alcances de la IA.
Ucrania se ha convertido en un laboratorio del uso militar de la IA. Foto:AFP
De hecho, todo el tráfico digital que produce una pequeña región como la Franja de Gaza es monitoreado al detalle: llamadas, mensajes de texto, aplicaciones y correos electrónicos. Se dice, incluso, que cada metro cuadrado del enclave palestino, una de las regiones más densamente pobladas del mundo, es fotografiado cada diez minutos. Las cámaras de reconocimiento facial cumplen su objetivo para identificar palestinos susceptibles de arresto.
Pero semejante volumen de información es imposible de procesar análogamente. Aquí entra en juego la IA para conducir a un nuevo concepto de operación militar. El sistema generó en Guardián de los Muros unas 200 opciones de objetivos y lo hizo en minutos, una tarea que antes hubiera comprometido el trabajo de decenas de analistas por semanas.
Lavender y Evangelio
Lavender (lavanda) es el nombre del programa de IA del ejército que Israel ha utilizado para identificar objetivos militares. Apoyado por Evangelio, que identifica edificaciones donde puede haber milicianos, y otro llamado Where is Daddy (Dónde está papá), que rastrea a los sospechosos que ya están marcados para luego bombardearlos. No es ciencia-ficción. El problema es que estos sistemas tienen un margen de error que mata a inocentes.
Vehículos militares israelíes cerca de la frontera con la Franja de Gaza. Foto:AFP
El informe, que se basó en fuentes de inteligencia israelíes, explicó que una vez Lavender sacaba la lista de los potenciales blancos, los soldados dedicaban unos 20 segundos a cada objetivo para autorizar un ataque. Pero ¿qué diferencia a un miliciano de un allegado? Que tenga varios celulares o que duerma cada noche en un lugar diferente no parecen sólidas razones. O, ¿qué criterios podría tener un analista de información para negarse a seguir una recomendación de Lavender?
El hombre toma una decisión que consiste en una recomendación formulada por la máquina
De ahí la estupefacción del secretario Guterres, pues el texto periodístico revela que el margen de error era de al menos 10 por ciento. Lavender se usó en al menos 15 mil asesinatos desde el comienzo de la guerra hasta el 24 de noviembre, según la investigación. Solo en un bombardeo el 17 de octubre contra un alto mando de Hamás se reportaron 300 civiles como ‘daño colateral’.
Palestinos desplazados en la Franja de Gaza. Foto:EFE
“Aunque sea un operador humano el que aprieta el botón, ese desconocimiento o incomprensión, así como el factor rapidez, hacen que su responsabilidad en la toma de decisión sea bastante limitada”, añade.
¿Es legal?
La experta recuerda que ese tipo de tecnologías han sido usadas por ejércitos de
EE. UU., Países Bajos y Francia para identificar blancos materiales. “La novedad es que, esta vez, se están empleando sistemas de IA contra objetivos humanos”, matiza Pacholska en una cita retomada por el diario español El País.
La novedad es que, esta vez, se están empleando sistemas de IA contra objetivos humanos
Linda Robinson, investigadora del Consejo de Relaciones y experta en asuntos de Oriente Próximo, le comentó a este diario que “el humano involucrado será una parte importante del uso de la IA para aplicar la discreción necesaria. Informes recientes y mis propias fuentes en Israel han reforzado la necesidad de estándares de implementación más estrictos con respecto a la Identificación Positiva de Objetivos (PDI) y evitar daños colaterales”.
La IA ha sido utilizada por ejércitos de EE. UU., Países Bajos y Francia para identificar blancos materiales. Foto:AFP
Esto a pesar de que el presidente de EE. UU., Joe Biden, y su par chino, Xi Jinping, acordaron en noviembre que sus expertos examinen la cuestión. La ONU lleva diez años abordándola, sin avances. Hay “muchos debates en la industria de la IA civil, pero muy pocos en la industria de la IA de defensa”, anota Accorsi.
EDITOR ADJUNTO
En X: @edusot
Sigue toda la información de Internacional en Facebook y X, o en nuestra newsletter semanal.
Conforme a los criterios de



EL TIEMPO GOOGLE NEWS
Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

EL TIEMPO WHATSAPP
Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

EL TIEMPO APP
Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

SUSCRÍBETE AL DIGITAL
Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.