Inicio Inteligencia ¿Qué es Lavender? El sistema de inteligencia artificial que Israel utiliza en...

¿Qué es Lavender? El sistema de inteligencia artificial que Israel utiliza en Gaza

0

Durante el transcurso de la guerra en Gaza, Israel ha implementado el software de inteligencia artificial Lavender. Este, que fue desarrollado por una división de inteligencia de élite de la Fuerzas de Defensa de Israel, permite procesar rápidamente ingentes cantidades de datos con el fin de generar potenciales «objetivos» para ataques militares. En este artículo, el alumno del Máster Profesional de Analista de Inteligencia de LISA Institute, Roberto Mansilla Blanco explica cómo funciona Lavender y qué debate ha levantado en torno a su legalidad.

La efectividad de este software de inteligencia artificial en localizar y atacar objetivos en Gaza abre un debate sobre la utilización de estas tecnologías en el campo de batalla, particularmente debido a la masificación de sus daños colaterales contra civiles.

¿Qué es y cómo funciona Lavender?

Este sistema de inteligencia artificial (IA) fue desarrollado por seis oficiales del departamento de Ciencia de Datos e Inteligencia Artificial de la Unidad 8200. Esta es una división de inteligencia de élite de las Fuerzas de Defensa de Israel (IDF por sus siglas en inglés). El software permite procesar rápidamente ingentes cantidades de datos con el fin de generar miles de potenciales «objetivos» para ataques militares durante una guerra. El sistema facilita la localización y la toma de decisiones para actuar.

Lavender opera mediante el procesamiento masivo de datos recogidos a través de sistemas de vigilancia. Utiliza algoritmos de aprendizaje automático para evaluar y clasificar la probabilidad de que cada individuo esté activo en las alas militares mencionadas. La IA busca patrones y características que correlacionan con los perfiles conocidos de militantes. Estos pueden incluir la pertenencia a grupos de WhatsApp específicos, cambios frecuentes de números de teléfono o patrones de movimiento inusuales.

➡️ Te puede interesar: Masterclass | Inteligencia Artificial aplicada al Sector de la Seguridad y la Defensa

Los oficiales que trabajaron en la creación de Lavender afirmaron que este sistema permite «realizar un trabajo esencial para identificar rápidamente a posibles agentes a los que atacar. Gracias a este sistema, los objetivos nunca terminan. La máquina funcionaba con frialdad».

Además, Lavender se complementa con otro sistema de IA: «The Gospel» (en español, «El Evangelio») cuya diferencia fundamental está en la definición del objetivo. Mientras que «The Gospel» marca los edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas y las añade a una ‘lista negra’.

La IA en Gaza: una nueva forma de hacer la guerra

Su utilización inédita en un conflicto bélico como es la actual guerra de Gaza permitió detectar un total de 37.000 objetivos potenciales de acuerdo a sus vínculos con los movimientos islamistas palestinos Hamás y Yihad Islámica, ambos considerados como grupos terroristas por parte de Israel, Estados Unidos y la Unión Europea. En Gaza, Lavender ha sido determinante durante las primeras fases de la guerra para identificar esos objetivos.

Expertos y fuentes de inteligencia afirman que el uso de Lavender ayudó al ejército israelí a destruir los objetivos enemigos de forma más rápida y menos costosa económicamente a través de la utilización de las denominadas «bombas tontas», municiones no guiadas distintas a las «bombas inteligentes» de mayor precisión.

No obstante, el software también propició el aumento del número de víctimas mortales. Según estadísticas de Naciones Unidas las víctimas se acercan hasta el momento a las 34.000 personas. De acuerdo a las cifras en diciembre de 2023 de los servicios de inteligencia estadounidenses, alrededor del 45% de las municiones utilizadas por las fuerzas aéreas israelíes en Gaza eran «bombas tontas». Estas últimas causan más daños colaterales que las bombas guiadas. El índice elevado de daños colaterales en Gaza es superior al de las guerras de Irak, Siria y Afganistán.

➡️ Te puede interesar: ¿Qué es el Derecho Internacional Humanitario y cómo aplica en Gaza?

Lavender analiza la información recopilada vía visual, teléfonos móviles, redes sociales, contactos telefónicos, datos sobre el campo de batalla y fotografías sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva. A continuación, evalúa y clasifica la probabilidad de que cada persona en particular pertenezca al brazo armado de Hamás o a la Yihad Islámica Palestina.

Las fuentes israelíes estiman aproximadamente un 10% de errores. En ocasiones, marcando a personas que apenas tienen una ligera conexión con grupos militantes o ninguna conexión en absoluto. Poco después de la invasión a Gaza, los resultados de Lavender habían logrado un 90% de precisión en la identificación de personas que pertenecían al grupo islamista. Por lo cual el ejército autorizó el uso generalizado del sistema.

Tras el ataque de Hamás en Israel el pasado 7 de octubre de 2023, el ejército israelí adoptó un enfoque radicalmente distinto. En el marco de la «Operation Iron Swords» (en español, Operación Espadas de Hierro), el ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar.

➡️ Te puede interesar: Qué es Hamás y cuál es su relación con Israel y Gaza

Esta estrategia planteó un problema técnico para los servicios de inteligencia israelíes. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de «incriminación». Tenía que comprobar que la persona era efectivamente un miembro de alto rango del brazo militar de Hamás, averiguar dónde vivía, su información de contacto y, finalmente, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos únicamente contaba con unas pocas docenas de altos mandos, el personal de los servicios de inteligencia podía encargarse individualmente del trabajo dedicado a incriminarlos y localizarlos.

Sin embargo, una vez que la lista se amplió e incluyó a decenas de miles de agentes de rango inferior, el ejército israelí pensó que tenía que apoyarse en el software automatizado y la inteligencia artificial. El resultado es que el papel del personal humano en la incriminación de palestinos combatientes fue descartado y, en su lugar, la IA hace la mayor parte del trabajo.

El debate sobre la legalidad del uso de Lavender en Gaza

La utilización de esta tecnología en el campo de batalla abre igualmente las puertas al debate sobre la legalidad de este tipo de armamento y su relación con el personal militar. Naciones Unidas ha denunciado la utilización de la IA en Gaza. Varias fuentes informativas han acuñado su uso como «domicidio». El término hace referencia a que sus objetivos alcanzan viviendas, edificios y otros domicilios de presuntos militantes de Hamás.

Se estima que esta tecnología cuenta con escasa supervisión humana. De hecho, según las fuentes de inteligencia, influía hasta tal punto en las operaciones militares que básicamente trataban los resultados de Lavender «como si fuera una decisión humana».

En la primera fase de la guerra, el ejército israelí autorizó a los oficiales que asumieran como legítimas las listas de objetivos que generaba Lavender. Sin necesidad de comprobar a fondo por qué el software tomaba esas decisiones o de analizar la información. Los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA. Todo ello, con el fin de ahorrar tiempo y permitir la producción en masa y sin obstáculos de objetivos humanos.

➡️ Te puede interesar: La carrera por la inteligencia artificial militar

Una fuente declaró que el personal humano a menudo solo servía de «sello» para aprobar automáticamente las decisiones de la máquina. Además, por lo general, tan solo dedicaban personalmente unos «20 segundos» a cada objetivo antes de autorizar un bombardeo. Únicamente para asegurarse de que el objetivo marcado por Lavender era un varón. El instrumento se aplicaba generalmente de noche, cuando los objetivos se encontraban en sus hogares.

Según estas fuentes, miles de palestinos –la mayoría de ellos mujeres y niños o personas que no participaban en los combates– fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra. En una medida sin precedentes, durante las primeras semanas de la guerra, el ejército también decidió que por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles. En el caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.  De acuerdo a las fuentes de inteligencia israelí, «en la práctica, el principio de proporcionalidad no existía».

Otra fuente de los servicios de inteligencia confirmaba las constantes presiones recibidas desde altos mandos del ejército para ampliar el número de objetivos y acabar rápidamente con ellos a través de la IA. Así, en el software se introdujeron los datos recopilados de los empleados del Ministerio de Seguridad Interna dirigido por Hamás, a los que no se les considera militantes. Usando el término ‘agente de Hamás’ se incluyó a personas que eran trabajadores de defensa civil.

➡️ Te puede interesar: La Inteligencia Artificial y el futuro de la guerra

Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de víctimas mortales causado por los actuales bombardeos de Israel es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus domicilios particulares junto a sus familias. Según cifras de Naciones Unidas, durante el primer mes de la guerra, más de la mitad de las víctimas mortales –6.120 personas– pertenecían a 1.340 familias, muchas de las cuales fueron exterminadas al completo cuando se encontraban dentro de sus hogares.

En las intermitentes guerras acaecidas anteriormente en Gaza desde 2009 hasta 2021, tras el asesinato de objetivos humanos, los servicios de inteligencia israelí llevaban a cabo procedimientos de evaluación de daños por bombas, una verificación rutinaria posterior al ataque para ver si el mando superior había muerto y cuántos civiles habían muerto con él.

Sin embargo, en la guerra actual, al menos en relación con los militantes de rango inferior marcados con IA, las fuentes dicen que este procedimiento fue suprimido para ahorrar tiempo. Tampoco sabían cuántos civiles murieron en cada ataque y, en el caso de los presuntos operativos de rango bajo de Hamás y la Yihad Islámica marcados por IA, ni siquiera sabían si el propio objetivo había muerto.

SÉ EL PRIMERO EN COMENTAR

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

Salir de la versión móvil