Trump ordena la cancelación de todos los convenios gubernamentales con Anthropic tras la disputa sobre la seguridad de la inteligencia artificial.
El secretario de Defensa exige a la compañía que el ejército pueda usar todas las funcionalidades para labores militares


Donald Trump, presidente de Estados Unidos, ha ordenado cancelar todos los contratos de la Administración federal con Anthropic, la empresa que desarrolla la herramienta de inteligencia artificial, Claude, y que mantiene un pulso con el Pentágono por los límites de la seguridad de la IA.
“¡LOS ESTADOS UNIDOS DE AMÉRICA JAMÁS PERMITIRÁN QUE UNA EMPRESA RADICAL DE IZQUIERDA Y ‘WOKE’ DECIDA CÓMO NUESTRO GRAN EJÉRCITO LUCHA Y GANA GUERRAS! Esa decisión le corresponde a SU COMANDANTE EN JEFE y a los extraordinarios líderes que designo para dirigir nuestras Fuerzas Armadas”, ha escrito este viernes el mandatario republicano a través de su red social, Truth. “Ordeno a TODAS las agencias federales del Gobierno de los Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos! Habrá un periodo de descontinuación gradual de seis meses para agencias como el Departamento de Guerra que utilizan los productos de Anthropic, en varios niveles".
La respuesta del mandatario republicano, quien ha tildado a los directivos de Anthropic de “izquierdistas desquiciados de Anthropic”, surge debido al rechazo de la firma de IA a autorizar el empleo sin restricciones de su tecnología en tareas de índole militar.
El porvenir de las restricciones en la inteligencia artificial se debate actualmente en Estados Unidos. El Pentágono exige a Anthropic, la firma que desarrolla una de las herramientas de IA más avanzadas, Claude, el acceso ilimitado a todas sus herramientas para objetivos bélicos. El secretario de Defensa, Pete Hegseth, advierte sobre penalizaciones inusuales si la corporación rechaza sus términos. El desenlace de este asunto marcará el futuro sobre los límites éticos y garantías legales de una innovación destinada a revolucionar el planeta de la forma en que lo percibimos.
La situación se precipitó tras una reunión en el Pentágono entre Hegseth y Dario Amodei, consejero delegado de Anthropic, el pasado martes. El secretario de Defensa instó al directivo a eliminar las restricciones que mantiene la compañía para el uso militar de su herramienta de IA. Le dio hasta este viernes para reconsiderar su postura. En caso contrario le impondrá duras sanciones.
Las advertencias provenientes del Departamento de Defensa resultan inusuales. Existe la disposición de calificar a Anthropic como una amenaza para el sistema de abastecimiento castrense, una acción que bloquearía sus acuerdos con toda firma vinculada a Defensa. Asimismo, Hegseth ha manifestado su intención de tomar el control de la entidad. Afirma que empleará la Ley de producción de defensa de la Guerra Fría, de 1950, con el fin de aprovechar el software de Anthropic aun frente a la oposición de la firma tecnológica. Ciertas disposiciones de este tipo se impusieron anteriormente sobre organizaciones como Huawei, debido a sus nexos con Pekín, y sobre la empresa rusa Kaspersky.
El jueves, dos días después de la reunión entre Hegseth y Amodei, el Pentágono envió un nuevo contrato con las nuevas condiciones para usar Claude. Pero la compañía con sede en San Francisco rechazó el documento legal porque no se cumplen los dos requisitos que considera una línea roja: su tecnología no se puede utilizar para la vigilancia masiva de ciudadanos y tampoco quiere que se emplee en ataques letales autónomos sin intervención humana. “Las amenazas no cambian nuestra posición: no podemos en conciencia acceder a su petición”, dijo Amodei en un comunicado.
Un comunicado del CEO de Anthropic, Dario Amodei, acerca de nuestras conversaciones con el Department of War.Https://t.co/rM77LJejuk
— Anthropic (@AnthropicAI) February 26, 2026
Dentro del sector de la inteligencia artificial los eventos transcurren con gran agilidad, al mismo ritmo que progresa la tecnología. Anthropic y Defensa han transitado de una etapa de armonía a una de desacuerdo en apenas unas semanas. El pasado julio, la empresa y el Pentágono suscribieron un pacto de 200 millones de dólares para aplicar la solución Claude en la gestión de documentos militares secretos en la nube. Aquel fue el primer convenio del Departamento de Defensa para implementar la IA en infraestructuras protegidas. El acuerdo resultó ser un suceso relevante por su impacto en el mercado de la IA para fines bélicos, mientras las fuerzas armadas globales se involucran en una arriesgada competencia por llevar estos sistemas a sus maniobras.
Hace unas semanas se filtró una conversación entre un empleado de la compañía y otro trabajador de Palantir, un grupo de seguridad puntero en gestión de datos, preguntando si había empleado Claude en la operación militar para detener al expresidente venezolano, Nicolás Maduro, en Caracas. La conversación llegó a oídos de altos cargos del Pentágono que la interpretaron como un límite a la capacidad del ejército para usar la IA a su antojo, según recogió The Wall Street Journal. Desde entonces las preocupaciones sobre el alcance del uso militar de Anthropic se han disparado en el Departamento de Defensa, rebautizado como Departamento de Guerra por Hegseth.
La discusión es tan relevante que una ruptura entre la compañía de IA y el Pentágono sería un fracaso para ambos, con un contrato de 200 millones de dólares en el aire. Se abriría una batalla legal de alto voltaje y sentaría un precedente que cuestionaría el papel de los contratistas de Defensa. Por eso, fuentes de la Administración aseguran que están abiertos a prolongar las conversaciones con Anthropic más allá de este viernes, según avanzó Bloomberg.
El subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, dijo que el Pentágono sigue dispuesto a continuar sus conversaciones con Anthropic, a pesar de lo que llamó el comportamiento “impredecible” de la compañía en un enfrentamiento amargo sobre las salvaguardas de la IA. “Siempre que sean de buena fe, estamos abiertos a negociar”, dijo Michael.
La batalla entre el Pentágono y Anthropic aviva el debate global sobre los límites y garantías sobre el uso en tiempos de guerra de la IA, una tecnología que permitiría el espionaje masivo de ciudadanos y otras prácticas inimaginables actualmente.
“El Departamento de Guerra no tiene ningún interés en usar IA para la vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios”, aseguró Sean Parnell, portavoz del Pentágono, a través de su cuenta de redes sociales.
Pese a que Defensa asegura que no empleará esa tecnología para fines que no sean estrictamente militares y aprobados por la ley, se resisten a plasmarlo por escrito. Sostienen que se trata de una cuestión filosófica: un contratista privado no puede decidir cómo se usarán sus herramientas, igual que un fabricante de armas no decide dónde se lanzan sus misiles.
“Esto es lo que pedimos: permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales. Esta es una solicitud sencilla y sensata que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes”, abundó Parnell, quien no dudó en recordar las amenazas si Anthropic no accede a levantar las barreras.
The Department of War has no interest in using AI to conduct mass surveillance of Americans (which is illegal) nor do we want to use AI to develop autonomous weapons that operate without human involvement. This narrative is fake and being peddled by leftists in the media.… https://t.co/3pjWZ66aXz
— Sean Parnell (@SeanParnellASW) February 26, 2026
Altos funcionarios de Defensa trataron de convencer a Amodei para que levante las restricciones de su aplicación de IA planteándole una pregunta: ¿Qué pasaría si un misil balístico intercontinental con armas nucleares se dirigiera hacia Estados Unidos con solo 90 segundos de anticipación y la IA de Anthropic fuera la única forma de desencadenar una respuesta de misiles para salvar al país, pero las medidas de seguridad de la compañía no lo permitieran?, reflexionó el mando del ejército, según adelantó el medio económico Semafor.
Aunque existen diversas versiones de la respuesta de Amodei, Anthropic asegura oficialmente que en ese caso Defensa podría usar sus herramientas de IA para la defensa antimisiles y las operaciones cibernéticas sin restricciones, una respuesta que reduce los límites para el uso militar de Claude.
Emil Michael, subsecretario de Defensa para I+D, ha actuado como el enlace del Pentágono con Anthropic. Ha manifestado que la autoridad definitiva sobre la aplicación de la tecnología debe pertenecer al estado, no a las corporaciones del sector, de acuerdo con The Washington Post. Michael ha recriminado a Amodei por intentar entrometerse en las resoluciones de Defensa. “Él no quiere nada más que intentar controlar personalmente al ejército de Estados Unidos y no tiene ningún problema en poner en riesgo la seguridad de nuestra nación”, redactó en X.
Es una lástima que @DarioAmodei sea un embustero y posea un complejo de superioridad. No anhela nada más que intentar manejar personalmente a las Fuerzas Armadas de EE. UU. Y no le importa comprometer la protección de nuestra nación.
— Under Secretary of War Emil Michael (@USWREMichael) February 27, 2026
The @DeptofWar will ALWAYS adhere to the law but not bend to whims of any one for-profit tech… https://t.co/ZfwXG36Wvl
Anthropic, fundada por antiguos investigadores de OpenAI, se ha posicionado como una de las startups de IA más concernidas por la seguridad y los límites éticos y morales de la tecnología. Con una valoración de 380.000 millones de dólares, fue la primera compañía de IA en recibir autorización del Pentágono para gestionar material clasificado. En las últimas semanas otras empresas como xAi, la sociedad de Elon Musk, también ha recibido permiso para operar con estos documentos clasificados mientras que sus rivales ChatGPT (OpenAI) y Gemini (Google) presionan para no quedarse atrás.
Conforme aumenta la competencia en el sector crecen las presiones para que las tecnológicas que impulsan la IA relajen sus criterios para avanzar más rápido y empezar a rentabilizar las ingentes inversiones de dinero que el sector está destinando a esta tecnología.
Tu membresía se está empleando en un dispositivo diferente.
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaSu sesión permanece abierta en otro dispositivo y únicamente se autoriza el acceso a Papallones desde un solo terminal a la vez.
Si pretendes compartir tu cuenta, modifica tu suscripción a la opción Premium para sumar a un usuario adicional. Cada persona entrará con su dirección de correo propia, lo que os facilitará adaptar vuestra navegación en Papallones.
¿Tienes una suscripción de empresa? Accede para contratar más cuentas.
Si desconoces quién está utilizando tu cuenta, te sugerimos que modifiques tu clave
Si eliges seguir compartiendo tu suscripción, este aviso se verá en tu equipo y en el de la otra persona que utilice tu perfil de manera permanente, perjudicando tu experiencia de lectura. Tienes la opción de




























































