La inteligencia artificial va a la guerra: Irán como campo de prueba de las nuevas herramientas del conflicto
Los comandantes militares ahora supervisan las guerras como en videojuegos y las unidades de artillería de 20 personas pueden hacer el mismo trabajo que antes solo se lograba con 2.000 efectivos. Detrás de ambos casos se encuentra la inteligencia artificial (IA), cuyo uso ha llegado para revolucionar los campos de batalla.
La IA se está utilizando en los combates en Irán y Ucrania. Estados Unidos la utilizó para capturar a Nicolás Maduro en Venezuela. Israel la utilizó durante su guerra en Gaza. Y versiones anteriores de este sistema se usaron durante la retirada estadounidense de Afganistán en 2021 y para apoyar a Israel luego de los atentados del 7 de octubre de 2023.
Se desconocen los usos concretos de la IA en el conflicto actual en Medio Oriente. Según los expertos y algunos reportes de medios estadounidenses, es probable que Israel y Estados Unidos la estén utilizando desde el inicio de los bombardeos contra Irán (el 28 de febrero) para acelerar la realización de operaciones militares.
Combinación de IA en guerra en Irán
Según The Washington Post, el Ejército estadounidense utilizó la inteligencia artificial más avanzada, “jamás utilizada en guerra”, para atacar 1.000 objetivos en las primeras 24 horas de los bombardeos contra Irán.
Una de las inteligencias utilizada por el ejército estadounidense es Maven, construida por la empresa de minería de datos Palantir. Maven genera información a partir de una sorprendente cantidad de datos clasificados de satélites y vigilancia. La otra IA es Claude, de Anthropic, que proporciona orientación y priorización de objetivos en tiempo real para operaciones militares en Irán.
Durante el último año, la combinación de Claude y Maven se ha convertido en una herramienta “de uso diario en la mayor parte de las fuerzas armadas”, según dos fuentes consultadas por The Washington Post.
De acuerdo al diario estadounidense, durante la planificación de ataques a Irán, esta combinación de inteligencias emitió coordenadas de ubicación precisas y los priorizó según su importancia. La herramienta habría acelerado el ritmo del operativo y redujo la capacidad de contraataque de Irán: convirtió semanas de planificación en operaciones en tiempo real. Además permitió evaluar el ataque cuando inició.
Claude se ha utilizado para contrarrestar conspiraciones terroristas y en la redada que capturó al presidente venezolano Nicolás Maduro. Sin embargo, esta fue la primera vez que se utilizó en operaciones de guerra importantes.
20.000 militares utilizando el sistema
Aunque horas antes del ataque a Irán, el presidente de Estados Unidos, Donald Trump, anunció que prohibía a las agencias de gobierno seguir utilizando las herramientas de Anthropic debido a encontronazos por su uso con su director ejecutivo, Darío Amodei, el ejército estadounidense continuará usando Claude mientras se instala, gradualmente, un reemplazo en el transcurso de seis meses.
“Los comandantes militares se han vuelto tan dependientes del sistema de IA que si Amodei ordenara a los militares que cesaran su actividad, la administración Trump usaría los poderes del gobierno para retener la tecnología hasta que pueda ser reemplazada”, afirma The Washington Post.
El Pentágono comenzó a integrar a Claude en Maven a finales de 2024, según anuncios públicos. El sistema se ha utilizado para generar objetivos propuestos, rastrear la logística y proporcionar resúmenes de inteligencia sobre el terreno.
La administración Trump ha expandido enormemente el uso de Maven a muchas otras áreas del ejército, con más de 20.000 militares utilizándolo hasta mayo pasado.
No se ha confirmado si las listas de objetivos de Maven se compartieron con los israelíes antes del ataque a Irán, pero ambas partes colaboraron durante meses en la decisión de qué atacar. Las Fuerzas de Defensa de Israel, en estrecha colaboración con el Ejército de Estados Unidos, trabajaron miles de horas para construir un banco de objetivos lo más valioso y extenso posible.
Conflicto con Anthropic
Anthropic es una de las empresas líderes de IA del mundo. Como ya se dijo, su modelo Claude ha sido ampliamente utilizado por el Pentágono para recopilar inteligencia, identificar objetivos, trazar operaciones y mucho más. El director ejecutivo, Darío Amodei, dijo que Claude estaba ampliamente desplegado en el Departamento de Defensa y otras agencias de seguridad, para analizar inteligencia y planificar operaciones.
“Creo profundamente en la importancia existencial de usar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos”, escribió Amodei en una publicación de blog.
Sin embargo, Anthropic establece dos restricciones: el gobierno no puede utilizar su tecnología para vigilar a ciudadanos estadounidenses. Y no puede utilizar Claude con armas autónomas letales sin intervención humana.
El Pentágono se opuso y negó que quisiera utilizar la IA para la vigilancia nacional ni para robots asesinos autónomos. Pero se opuso a que una empresa privada impusiera restricciones a la forma en que el ejército utiliza un producto.
El revuelo escaló a tal punto que Trump ordenó a dejar de utilizar Anthropic y el Departamento de Defensa la incluyó en su lista de empresas que representan un “riesgo” para la cadena de suministro.
Esto llevó a Anthropic a demandar al gobierno estadounidense para que revierta las sanciones en su contra porque las considera excesivas, ya que, por ejemplo, impide que cualquier contratista militar haga negocios con la empresa.
No todas son noticias negativas para Anthropic, ya que las descargas de Claude se han duplicado, lo que la ha convertido en la app gratuita más descargada para iPhone.
OpenAI, el principal rival de Anthropic, firmó un acuerdo con el Pentágono inmediatamente después de la orden de Trump. Esto desató la campaña viral “Cancel ChatGPT”, la IA de Open IA.
OpenAI entonces informó que estaba modificando el contrato para que dijera que sus sistemas de IA “no se utilizarán intencionadamente para la vigilancia interior de personas y nacionales estadounidenses”, pero no especificó sobre los límites del uso de armas letales.
Lo que teme Anthropic
Julian Barnes, reportero de agencias de inteligencia de Estados Unidos para The New York Times, explicó que una de las preocupaciones de Anthropic es que el gobierno pueda utilizar la IA para analizar datos comercialmente disponibles sobre los ciudadanos estadounidenses.
“Nuestros datos de navegación por internet, nuestros metadatos telefónicos: las empresas comerciales pueden recogerlos y utilizar la IA para averiguar dónde has estado, qué has visitado, qué has comprado”, añade Barnes.
Barnes dijo que Anthropic quiere demostrar que es una empresa responsable y preocupada por la seguridad, porque “esa es su marca”, mientras que el Pentágono señala que esta es la empresa “woke de la IA y estamos tomando medidas enérgicas contra lo woke, que es la marca del movimiento MAGA de Trump”.
No obstante, otra de las preocupaciones de Anthropic es la idea de que se utilicen drones asesinos. Sin embargo, esto ha sido rechazado por Estados Unidos, ya que asegura que siempre habrá un humano involucrado cuando la inteligencia artificial sugiera sobre si matar o no a alguien.
El debate sobre que la IA debe contar con supervisión humana surgió luego de que los israelíes utilizaron un programa bautizado Lavender para identificar objetivos en territorio palestino.
Los expertos sugieren que Lavender pudo utilizarse en Gaza porque se trataba de un territorio reducido. Por esa razón es difícil que un sistema de esta envergadura se haya implementado en Irán.
Las fallas de la IA
Uno de los usos más conocidos de estas tecnologías es, precisamente, la reducción de lo que los militares llaman “kill chain”, es decir, el tiempo entre la detección de un objetivo y el ataque.
Bertran Rondepierre, director de la agencia encargada de desarrollar la IA del ejército francés (Amiad), dijo a AFP que los algoritmos “nos permiten procesar la información mucho más rápido y, sobre todo, ser más exhaustivos”.
Rondepierre dijo que la IA permite analizar enormes cantidades de datos, desde imágenes satelitales, radar, electromagnéticas, sonido, imágenes de drones, hasta video en tiempo real.
Desde luego que esto genera controversia. Peter Asaro, presidente de la ONG Comité Internacional para el control de armas robotizadas, pregunta: “Si algo sale mal, ¿quién es el responsable?”.
Asaro pone como ejemplo el presunto bombardeo de una escuela en Irán, en la ciudad de Minab, que causó 150 muertos, según las autoridades iraníes. Ni Estados Unidos ni Israel han reconocido ser los autores de este ataque, pero Washington dijo que está investigando.
La ONU exigió que la investigación sea “rápida” y “transparente”, y esperó que “los responsables rindan cuentas”.
Varios medios, entre ellos The New York Times, afirman que el edificio se encontraba cerca de dos emplazamientos de los Guardianes de la Revolución iraníes.
“No distinguieron la escuela de la base militar como deberían haber hecho (...) pero ¿quiénes son? ¿humanos o máquinas?”, pregunta Peter Asaro.
La carrera con China
Aunque Estados Unidos afirma que siempre habrá un humano involucrado, esto conlleva “problemas”, porque en las guerras, quien pueda observar, pensar y decidir más rápido va a ganar una batalla
El asunto de fondo no son los conflictos actuales, sino el futuro, con China por ejemplo, país que exige que las empresas cedan su tecnología al Estado. “Estados Unidos cree que si hay una guerra con China por Taiwán, la batalla inicial será una batalla de drones sobre el estrecho de Taiwán. Ganarán los drones que puedan moverse y decidir más rápido”, añadió.
La ausencia de límites en China ha posibilitado que el gobierno chino pida a las empresas de IA que desarrollen herramientas de desinformación masiva. También se han utilizado para vigilar masas e identificar disidentes. Este es el escenario sobre el que advierte Anthropic que pase en Estados Unidos.
