En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Noticia

Exclusivo suscriptores

Inteligencia Artificial: los riesgos de que un algoritmo decida quién vive y quién muere en una guerra

Las revelaciones sobre su uso en Gaza y el elevado número de muertos civiles plantean serios interrogantes éticos y jurídicos. Análisis.

Una mujer palestina que sostiene a sus hijos reacciona frente a un hospital al que se trasladan las víctimas tras el bombardeo israelí en Bureij, en el centro de la Franja de Gaza.

Una mujer palestina que sostiene a sus hijos tras el bombardeo israelí en Bureij, en el centro de Gaza. Foto: AFP

Alt thumbnail

EDITOR MESAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Cuando en abril el secretario general de Naciones Unidas, Antonio Guterres, expresó su perturbación por las informaciones de que las fuerzas armadas israelíes estaban usando Inteligencia Artificial (IA) para identificar objetivos humanos en Gaza, la irrupción de estas herramientas en la guerra saltó a una tribuna planetaria.

(Lea también: ¿Qué alcance real tiene en terreno el fallo de la CIJ que le exige a Israel frenar su ofensiva militar en Rafah?)

No es que fuera nuevo ni que círculos militares, académicos y organizaciones de derechos humanos no hubieran hecho análisis sobre el impacto en el derecho internacional humanitario (DIH) o el derecho de guerra de la llegada a los escenarios bélicos de tecnologías que ayudan a diseñar operaciones en segundos. Pero cuando Guterres tocó el punto de que “decisiones de vida o muerte” no deberían ser delegadas a los algoritmos, el debate tomó nuevo aliento.

Por una parte, está la posibilidad de que en el extremo una máquina asuma el papel de los humanos y que decida quién vive y quién muere en una guerra. Y, por otra, la preocupación de que quizás los marcos legales existentes se quedan cortos para mantener en cintura los cambios drásticos que está trayendo la IA militar. Como dice la jurista Magda Pacholska, investigadora del TMC Asser Institute, “la adopción de la IA en la práctica se considera como la tercera revolución en los asuntos militares, después de la pólvora y las armas nucleares”.
Antonio Guterres, secretario general de Naciones Unidas.

Antonio Guterres, secretario general de Naciones Unidas, hizo saltar las alarmas cuando denunció la irrupción de la IA en la guerra. Foto:AFP

En efecto, la IA militar fue concebida hace más de cuarenta años y se ha venido utilizando en procesos que redundan en una ventaja táctica en el campo de batalla a través de algoritmos predictivos de evaluación de riesgos, en decisiones estratégicas y prevención de dificultades logísticas basadas en inteligencia, para reconocer patrones, evacuar heridos, tomar medidas, ya sea digitalmente o con el software inteligente detrás de los sistemas físicos autónomos e incluso para hacer construcciones narrativas sobre lo que sucede en el frente de batalla, como lo explica Matthew Ford en su libro Radical War: Data, Attention and Control in the 21st Century.

Sin embargo, lo que se ha visto recientemente se sale de las proyecciones y hace pensar que el uso de estas tecnologías no tiene reversa, pues ya una gran mayoría de ejércitos las están incorporando dado su potencial de defensa y seguridad. En el 2010 China lanzó su estrategia para convertirse en 2030 en líder en IA. Poco después el Kremlin dijo que quien se convierta en líder en este campo “gobernará” el mundo, y Estados Unidos designó a la IA como uno de los medios que “garantizarán que pueda luchar y ganar las guerras del futuro”.
Ucrania se ha convertido en un laboratorio del uso militar de la IA
EE. UU. viene utilizando algoritmos, por ejemplo, para golpear a los rebeldes hutíes en Yemen. Pero, “el gran cambio está ocurriendo ahora: Ucrania se ha convertido en un laboratorio del uso militar de la IA”, aseveraba Alessandro Accorsi, analista senior para tecnología y conflicto del International Crisis Group. En esta guerra, Ucrania ha desarrollado sistemas que les permiten a sus drones, por ejemplo, burlar casi autónomamente el hackeo cibernético ruso para impactar en el destino trazado originalmente.

Pero, lo que se reveló acerca de lo que ha venido sucediendo en Gaza por parte de las fuerzas de Israel plantea un salto mayúsculo que agita temores éticos y morales sobre los alcances de la IA.
 del batallón siberiano de las Fuerzas Armadas de Ucrania.

Ucrania se ha convertido en un laboratorio del uso militar de la IA. Foto:AFP

El episodio más cercano había sido la operación israelí Guardián de los Muros, en el 2021, que es considerada el precedente de guerra de inteligencia militar mejorada por IA. En ella, el objetivo era eliminar a los líderes del lanzamiento de cohetes en Gaza y destruir los túneles construidos por Hamás, búnkeres de kilómetros que les permitían esconderse, mover rehenes, fabricar armas e incluso ingresar a territorio israelí. En los 11 días que duró, la denominada Unidad 8.200 (célula de inteligencia de señales de Israel) utilizó la información recopilada durante años, desarrolló algoritmos y entrenó sistemas para que pudieran aprender automáticamente la selección de objetivos estratégicos y prevenir acciones de los islamistas.

De hecho, todo el tráfico digital que produce una pequeña región como la Franja de Gaza es monitoreado al detalle: llamadas, mensajes de texto, aplicaciones y correos electrónicos. Se dice, incluso, que cada metro cuadrado del enclave palestino, una de las regiones más densamente pobladas del mundo, es fotografiado cada diez minutos. Las cámaras de reconocimiento facial cumplen su objetivo para identificar palestinos susceptibles de arresto.

Pero semejante volumen de información es imposible de procesar análogamente. Aquí entra en juego la IA para conducir a un nuevo concepto de operación militar. El sistema generó en Guardián de los Muros unas 200 opciones de objetivos y lo hizo en minutos, una tarea que antes hubiera comprometido el trabajo de decenas de analistas por semanas.

Lavender y Evangelio

El grado de avance y sofisticación se asumió como la panacea para los estrategas militares. Sin embargo, el pasado 7 de octubre terminó convertido en el peor fracaso de los servicios de inteligencia israelíes. Tanta dependencia de lo digital y de la IA salió muy cara, y la muy elemental ‘inteligencia analógica’ de Hamás cobró la vida de 1.200 personas y centenares de secuestrados. Pero la retaliación israelí a partir de ese día abrió un capítulo aparte en la historia de la IA militar.

Lavender (lavanda) es el nombre del programa de IA del ejército que Israel ha utilizado para identificar objetivos militares. Apoyado por Evangelio, que identifica edificaciones donde puede haber milicianos, y otro llamado Where is Daddy (Dónde está papá), que rastrea a los sospechosos que ya están marcados para luego bombardearlos. No es ciencia-ficción. El problema es que estos sistemas tienen un margen de error que mata a inocentes.
Vehículos militares israelíes cerca de la frontera con la Franja de Gaza.

Vehículos militares israelíes cerca de la frontera con la Franja de Gaza. Foto:AFP

Según la investigación periodística publicada por el portal +972 y Local Call y recogida por varios medios en el mundo, Lavender identificó en los primeros días de la actual guerra en Gaza a 37 mil presuntos milicianos, lo que hizo de ellos y sus residencias familiares potencial blanco de bombardeos. Le otorgaban al sospechoso un puntaje de 1 a 100. Quien obtenía este último le quedaban pocos segundos de vida. Y ya la IA había hecho cálculos sobre cuántos civiles podrían morir en dicha acción. Nunca antes se había automatizado así la decisión sobre quién vive y quién muere en una guerra.

El informe, que se basó en fuentes de inteligencia israelíes, explicó que una vez Lavender sacaba la lista de los potenciales blancos, los soldados dedicaban unos 20 segundos a cada objetivo para autorizar un ataque. Pero ¿qué diferencia a un miliciano de un allegado? Que tenga varios celulares o que duerma cada noche en un lugar diferente no parecen sólidas razones. O, ¿qué criterios podría tener un analista de información para negarse a seguir una recomendación de Lavender?
El hombre toma una decisión que consiste en una recomendación formulada por la máquina
La investigación periodística añade que el algoritmo fue alimentado para seleccionar blancos especialmente de bajo rango ubicados en sus residencias familiares cuando descansaban en la noche. Esto explica el muy elevado número de muertos, especialmente mujeres y niños, que se produjo en los primeros días de la guerra. En los cálculos citados por el informe se habla de que por cada miliciano caído podrían morir entre 15 o 20 no combatientes.

De ahí la estupefacción del secretario Guterres, pues el texto periodístico revela que el margen de error era de al menos 10 por ciento. Lavender se usó en al menos 15 mil asesinatos desde el comienzo de la guerra hasta el 24 de noviembre, según la investigación. Solo en un bombardeo el 17 de octubre contra un alto mando de Hamás se reportaron 300 civiles como ‘daño colateral’.
Palestinos desplazados regresan a Jan Yunis tras órdenes de evacuación en Rafah.

Palestinos desplazados en la Franja de Gaza. Foto:EFE

“Son apenas herramientas para los analistas en el proceso de identificación de objetivos”, se defendieron los israelíes tras la publicación, y negaron que estuvieran dejando determinar a una máquina “si alguien es terrorista”.
El hombre “toma una decisión que consiste en una recomendación formulada por la máquina, pero sin saber cuáles son los hechos en los que se ha fundamentado la máquina”, explica Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales. 

“Aunque sea un operador humano el que aprieta el botón, ese desconocimiento o incomprensión, así como el factor rapidez, hacen que su responsabilidad en la toma de decisión sea bastante limitada”, añade.

¿Es legal?

O, la duda que les asalta a los internacionalistas: ¿Es legal, a la luz del DIH, ejecutar este tipo de operaciones? “El ejército de Israel usa la IA para aumentar los procesos de toma de decisiones de los operadores humanos. Ese uso es conforme al DIH, tal y como lo aplican las Fuerzas Armadas modernas en muchas guerras asimétricas desde el 11 de septiembre de 2001 (día de los atentados contra las Torres Gemelas)”, incluida la Otán.

La experta recuerda que ese tipo de tecnologías han sido usadas por ejércitos de 
EE. UU., Países Bajos y Francia para identificar blancos materiales. “La novedad es que, esta vez, se están empleando sistemas de IA contra objetivos humanos”, matiza Pacholska en una cita retomada por el diario español El País.
La novedad es que, esta vez, se están empleando sistemas de IA contra objetivos humanos
Las preocupaciones ya están instaladas, como lo dijo a EL TIEMPO Javier Colomina, subsecretario adjunto de Asuntos Políticos y Política de Seguridad y representante especial del secretario de la Otán para el Cáucaso y Asia Central: “La utilización de tecnologías emergentes es una dimensión que complica, probable y prácticamente, todos los conflictos. De hecho, aprobamos el año pasado una estrategia de IA y otra de content technology. Lo que tratamos de hacer es entender las tecnologías. El tema de la IA nos lleva a su utilización ética”.

Linda Robinson, investigadora del Consejo de Relaciones y experta en asuntos de Oriente Próximo, le comentó a este diario que “el humano involucrado será una parte importante del uso de la IA para aplicar la discreción necesaria. Informes recientes y mis propias fuentes en Israel han reforzado la necesidad de estándares de implementación más estrictos con respecto a la Identificación Positiva de Objetivos (PDI) y evitar daños colaterales”.
Soldados israelíes que operan en la zona oriental de Rafah, en el sur de la Franja de Gaza.

La IA ha sido utilizada por ejércitos de EE. UU., Países Bajos y Francia para identificar blancos materiales. Foto:AFP

Y ya más en el plano estratégico hay un tema inquietante. Investigadores en Norteamérica publicaron en enero un estudio, en simulaciones de conflicto, de cinco grandes modelos de lenguaje. Según las conclusiones, dichos modelos “tienden a desarrollar una dinámica de carrera armamentística, que conduce a conflictos más importantes y en casos contados al despliegue de armas nucleares”. Las potencias se preocupan por no verse superadas por sus rivales, y no parecen querer reglamentar demasiado la IA militar.

Esto a pesar de que el presidente de EE. UU., Joe Biden, y su par chino, Xi Jinping, acordaron en noviembre que sus expertos examinen la cuestión. La ONU lleva diez años abordándola, sin avances. Hay “muchos debates en la industria de la IA civil, pero muy pocos en la industria de la IA de defensa”, anota Accorsi.
Los cálculos alimentados a partir de un algoritmo de IA ignoran los más elementales sentimientos que hacen humano a un humano, incluso en el contexto de un conflicto armado: compasión, solidaridad, duda, proporcionalidad, piedad, instinto de supervivencia, empatía, el sentido del cuidado de mujeres, niños y ancianos, dignidad. Esto, si hay un humano en medio, puede marcar la diferencia entre vivir o morir. Lo demás podría ser un salto al vacío, incluso para la propia especie humana.
EDUARD SOTO
EDITOR ADJUNTO
En X: @edusot

Sigue toda la información de Internacional en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.

Mis portales