Los recientes ataques contra objetivos en Irán no solo han intensificado la tensión en Oriente Medio. También han abierto un frente interno en Washington y acelerado un debate moral de fondo, tan inevitable como incómodo: el uso de la inteligencia artificial (IA) en operaciones militares y los límites éticos de su automatización.
En ese contexto, el presidente Donald Trump anunció recientemente en la red social X la ruptura inmediata de la relación del Gobierno federal con la empresa de IA Anthropic, creadora de Claude, uno de los chatbots más potentes del mercado. En un comunicado, declaró que “estoy ordenando a cada agencia federal que cese inmediatamente todo uso de la tecnología (de esta compañía)”. A su vez, citó que “no la necesitamos, no la queremos y no volveremos a hacer negocios con ellos”.
La decisión incluye un periodo de transición de seis meses para agencias que ya la utilizan. A su vez, Google (Gemini) u OpenAI (Chat GPT), presionan a sus jefes para que no cooperen en esta escalada bélica. Más de 200 ingenieros de ambas empresas reclaman también a sus directivos que “se mantengan unidos para rechazar las actuales demandas del Departamento de Guerra”
La pregunta de fondo, cae por su propio peso: ¿Hasta qué punto los sistemas de inteligencia artificial pueden o deben llevar a cabo por su cuenta decisiones militares críticas?
¿DEONTOLOGÍA O APLICACIÓN PRÁCTICA?
Mucho se especuló en el cine sobre un futuro en el que los robots tomarían sus propias decisiones. Durante décadas, la ficción imaginó escenarios en los que las máquinas, liberadas del control humano, actuarían con autonomía plena.
Hoy el debate ya no radica solo en la ciencia ficción. La inteligencia artificial en ya en la práctica capaz de procesar grandes volúmenes de datos, detectar patrones y generar respuestas, predicciones o recomendaciones. En el ámbito militar, estas herramientas pueden analizar imágenes satelitales, cruzar información, identificar amenazas en tiempo real o asistir en la selección de objetivos.
Estos sistemas pueden señalar un objetivo potencial en cuestión de segundos. Sin embargo, de forma tradicional, la decisión final de atacar (es decir, apretar el gatillo) ha recaído en la responsabilidad de un operador humano.
Ante este expansionismo tecnológico, ¿debe la inteligencia artificial limitarse a asesorar o puede ejecutar por sí misma acciones sin supervisión humana directa?
Condicionar la estrategia militar
Trump afirmó en su mensaje que “los EEUU nunca permitirán que una empresa radical de izquierda, Woke, dicte cómo nuestro gran ejército lucha y gana guerras”. Añadió que esa decisión corresponde, en esencia y en el frente, al “comandante en jefe”.
El presidente acusó además a la compañía (Anthropic) de “intentar imponer sus propios límites contractuales al uso de su tecnología por parte del Departamento de Defensa”.
Ante todo ello, el director general de Anthropic, Dario Amodei, respondió: la empresa “no puede, de buena fe, acceder a la solicitud”, en tanto que permitir el uso de su tecnología para desarrollar armas autónomas o realizar vigilancia masiva sería “incompatible con los valores democráticos”.
“Creo firmemente en la importancia existencial de usar la IA para defender EE UU y otras democracias, así como para derrotar a nuestros enemigos autócratas”, expresó el director en un comunicado
En el mundo actual, donde la tecnología avanza más rápido que los marcos legales y donde las empresas privadas desarrollan capacidades que antes eran exclusivas de los Estados (o utópicas), esta disputa puede convertirse en una de las primeras grandes encrucijadas sobre los límites de la responsabilidad en el uso de la IA.
¿Puede una empresa privada fijar líneas rojas cuando se trata de seguridad nacional? Y, en sentido inverso, ¿debe el Estado aceptar restricciones si considera que afectan a su capacidad militar?
El momento de debatir esto, quizás, era mucho antes. Ahora, con la tensión global en aumento, las decisiones se toman “deprisa y corriendo”, y las interpretaciones, chocan sin un marco común.







