ACTUALIDAD

Las 48 horas en que el mundo cambiará.

Las 48 horas en que el mundo cambiará.

Foto:Johan Sebastián Gutiérrez Mosquera. columnista invitado cambioin.com

Por: Editor en Jefe - Publicado en febrero 26, 2026

 

Por: Johan Sebastián Gutiérrez Mosquera. Columnista invitado cambioin.com

 

Advertencia: los comentarios escritos a continuación son responsabilidad única y exclusiva de su autor, y en nada compromete a este medio de comunicación digital.

 

El Pentágono le dio a Anthropic hasta el viernes para ceder su conciencia corporativa. La empresa se negó. Lo que eso significa para todos.

 

Pete Hegseth está demasiado listo para lo que hizo el martes. Y precisamente por eso, lo que hizo el martes importa más de lo que parece.

 

En una reunión en el Pentágono, a las 9:00  de la mañana, el secretario de Defensa de los Estados Unidos de América le entregó un ultimátum a Dario Amodei, CEO de Anthropic, la empresa debe aceptar que el ejército use la inteligencia artificial, el modelo Claude, para cualquier propósito legal, sin restricciones corporativas, o enfrentar la extinción comercial. El plazo, según CNN, es el viernes 27 de febrero a las 5:01 de la tarde. Si Anthropic no cede, Hegseth invocará la Ley de Producción de Defensa de 1950 para obligar a la compañía a servir al ejército contra su voluntad, y la designaría como "riesgo de cadena de suministro", una etiqueta normalmente reservada para extensiones de potencias enemigas como Rusia y China. En la práctica, esta es una sentencia de muerte comercial.

 

Anthropic respondió con una declaración de buena fe y sin ceder en nada. Las dos líneas rojas de la empresa siguen intactas, su IA no será utilizada para vigilancia masiva de ciudadanos estadounidenses, ni para sistemas de armas completamente autónomas, es decir, aquellos que eligen objetivos letales sin supervisión humana. Así lo confirmaron fuentes de la reunión a Axios, CBS News, NPR, The Hill y Bloomberg.

 

Esas dos restricciones son las que el Pentágono llama, con toda la imprecisión que el término permite, "IA woke".

 

El argumento central de Hegseth, según CBS News, fue el siguiente: “cuando el gobierno compra aviones Boeing, la empresa fabricante no tiene voz en cómo el Pentágono los usa. Lo mismo debería aplicar al software de Anthropic”.

 

La analogía es brillante como retórica y defectuosa como razonamiento. Un avión no tiene agencia, no procesa información, no puede, de forma autónoma, decidir que un individuo es un objetivo legítimo y actuar en consecuencia, un modelo de inteligencia artificial sí puede hacerlo, o al menos puede ser configurado para intentarlo. Un F-16 bombardea donde apunta el piloto. Un modelo de IA, en ciertas configuraciones, puede ser quien apunta.

 

Lo que Anthropic se niega a firmar no es una restricción sobre qué aviones venderle al Pentágono, es una restricción sobre si su tecnología puede tomar decisiones letales sin un ser humano en el circuito de mando, eso no es pacifismo corporativo, es ingeniería básica de seguridad.

 

La Ley de Producción de Defensa de 1950 fue diseñada para tiempos de emergencia nacional. Durante el COVID-19, la administración Trump la usó para obligar a General Motors y 3M a fabricar respiradores y mascarillas. Es, en esencia, una herramienta para expandir la producción de bienes físicos críticos.

 

Aplicarla a software propietario creado específicamente para usos clasificados es territorio desconocido. Anthropic podría impugnar judicialmente argumentando, según un consultor de defensa citado por Axios, que no ofrece un producto comercialmente disponible que el gobierno simplemente acelera, sino software personalizado desarrollado en colaboración. Esa distinción podría importar mucho en un tribunal.

 

Pero el problema más inmediato lo identificó Katie Sweeten, exenlace del Departamento de Justicia con el Pentágono, en declaraciones a CNN: "Asumo que no queremos utilizar la tecnología que es el riesgo de cadena de suministro, ¿verdad? No sé cómo concilias eso. Suena a que el riesgo de cadena de suministro puede no ser una reclamación legítima, sino punitiva porque no están cediendo."

 

En otras palabras, el Pentágono está usando dos herramientas jurídicas contradictorias. Si Anthropic es un riesgo de seguridad, no deberías forzarlo a que te sirva. Si necesitas que te sirva, no puedes declararlo un riesgo de seguridad. La lógica colapsa bajo su propio peso. Lo que queda es, simplemente, coerción pura y dura, por parte del estado que puede ser, económica, legal y por supuesto no se descarga la militar convencional.

 

Un funcionario del Pentágono le dijo a Axios algo que merece repetirse con atención: "La única razón por la que seguimos hablando con esta gente es que los necesitamos y los necesitamos ahora. El problema para estos tipos es que son tan buenos."

 

Esa frase lo revela todo. El ejército más poderoso del mundo depende, para sus operaciones más sensibles, de una empresa privada de 14 mil millones de dólares de ingresos anuales que fue fundada por ingenieros que se fueron de OpenAI precisamente porque les preocupaba el ritmo y la dirección del desarrollo de la IA. Claude es, en este momento, el único modelo de inteligencia artificial operando en las redes clasificadas del Pentágono. No tienen reemplazo. Y por eso la amenaza tiene una mordiente extraña: si la ejecutan, se lastiman a sí mismos.

 

Anthropic lo sabe. Por eso no cedió. Y por eso, independientemente de lo que pase en los próximos días, algo ya ha quedado establecido, una empresa privada puede, al menos por ahora, resistir la presión estatal cuando su posición técnica es lo suficientemente fuerte, su infraestructura tecnológica superior y sus principios lo suficientemente claros.

 

El debate sobre IA y autonomía militar no es nuevo, lleva años incubandose en conferencias de expertos, documentos académicos y debates internacionales sobre el derecho humanitario. Lo que sí es nuevo es que este debate, antes relegado a ámbitos especializados, haya llegado de golpe a una sala del Pentágono, con un plazo de 72 horas y amenazas jurídicas concretas como telón de fondo.

 

La pregunta que subyace a toda esta disputa es legal, política y ética. ¿Quién controla los límites de la violencia letal en una democracia? ¿El Congreso, que no ha legislado sobre IA autónoma? ¿Los tribunales, que no han sentenciado sobre ella? ¿El ejecutivo, que puede invocar leyes para doblegar los intereses de las compañías? ¿O, como ha ocurrido hasta ahora por defecto, las propias empresas de tecnología, que pusieron esas restricciones porque sus ingenieros entendían los riesgos mejor que nadie?

 

Ninguna de esas respuestas es satisfactoria. Lo que hace falta es legislación. El Congreso, que lleva años mirando el avance de la IA con una mezcla de fascinación y parálisis, tiene ante sí la oportunidad de establecer marcos claros para el uso de IA en contextos letales, la vigilancia doméstica y la supervisión humana de sistemas autónomos. Si no lo hace, la disputa entre Anthropic y el Pentágono no será la última de este tipo. Será el ensayo general de una crisis constitucional más profunda.

 

El viernes a las 5:01 p.m., una empresa de tecnología de San Francisco decidirá si sus principios pesan más que un contrato de $200 millones. Eso merece más atención de la que ha recibido. No porque Anthropic sea necesariamente correcta en todo. Sino porque el poder que está en juego, el poder de matar de forma autónoma, de vigilar sin orden judicial, de redefinir lo que es "uso legal" sin debate democrático, es demasiado grande para dejarlo resolver en privado, entre una empresa y un secretario de Defensa, en una sala sin cámaras, con un plazo arbitrario.

 

En las democracias maduras, las decisiones que dan forma a la violencia legítima del Estado no se toman los viernes por la tarde. Se debaten, se legislan, se revisan. Si ese proceso no comienza ahora, el próximo ultimátum no vendrá con 48 horas de aviso. Vendrá sin previo aviso. Y no habrá empresa de tecnología que lo pueda parar.

 

FUENTES

 

• Bloomberg (Katrina Manson & Maggie Eastland, 24/2/2026): Pentagon Threatens to End Anthropic Work in Feud Over AI Terms

• Axios (24/2/2026): Hegseth Gives Anthropic Until Friday to Back Down on AI Safeguards

• Axios (15/2/2026): Pentagon Threatens to Cut Off Anthropic in AI Safeguards Dispute

• Axios (16/2/2026): Pentagon Threatens to Label Anthropic's AI a 'Supply Chain Risk'

• CNN Business (24/2/2026): Pentagon Threatens to Make Anthropic a Pariah if It Refuses to Drop AI Guardrails

• CBS News (24/2/2026): Hegseth Demands Full Military Access to Anthropic's AI Model Claude

• NPR (24/2/2026): Hegseth Threatens to Blacklist Anthropic Over 'Woke AI' Concerns

• PBS NewsHour / AP (25/2/2026): Hegseth Warns Anthropic to Let the Military Use Company's AI Tech as It Sees Fit

• The Hill (24/2/2026): Pentagon Threatens to Cancel Anthropic Contract by Friday

• NBC News (20/2/2026): Tensions Between the Pentagon and AI Giant Anthropic Reach a Boiling Point

• Fox News (24/2/2026): Pentagon Gives Anthropic Until Friday to Remove Military Restrictions

• TechCrunch (24/2/2026): Anthropic Won't Budge as Pentagon Escalates AI Dispute

• Fast Company: Palantir Is Caught in the Middle of a Brewing Fight Between Anthropic and the Pentagon

 

Johan Sebastián Gutiérrez Mosquera

Ibagué – Colombia

25 de febrero de 2026

 

Estás Leyendo cambioin.com

 

NOTICIAS RELACIONADAS