INTELIGENCIA ARTIFICIAL

El Pentágono sanciona Anthropic tras declaraciónes del director Dario Amodei

El Pentágono sanciona Anthropic tras declaraciónes del director Dario Amodei

El Pentágono amenazó a Anthropic, compañía detrás la inteligencia artificial utilizada en los ataques en Venezuela que llevaron a la captura de Nicolas Maduro y estudia declararla un “riesgo para la cadena de suministro” por límites al uso militar de su IA.

sábado, 21 de febrero de 2026

INTELIGENCIA ARTIFICIAL

El Pentágono sanciona Anthropic tras declaraciónes del director Dario Amodei

El Pentágono amenazó a Anthropic, compañía detrás la inteligencia artificial utilizada en los ataques en Venezuela que llevaron a la captura de Nicolas Maduro y estudia declararla un “riesgo para la cadena de suministro” por límites al uso militar de su IA.

sábado, 21 de febrero de 2026

Imagen generada por inteligencia artificial. Autor: Desconocido

(Washington, D.C.) Pete Hegseth, secretario de Defensa de Estados Unidos, se encuentra muy cerca de ordenar la ruptura de vínculos comerciales del Pentágono con la empresa de inteligencia artificial Anthropic y de designarla oficialmente como un “riesgo para la cadena de suministro”, según un alto funcionario del Departamento de Defensa. Esa etiqueta, rara vez utilizada contra empresas nacionales, obligaría a cualquier contratista que desee trabajar con el ejército a cortar relaciones con la compañía desarrolladora del modelo de IA Claude.

La posible medida refleja un conflicto profundo entre las prioridades éticas de Anthropic y las necesidades operativas del ejército estadounidense. El detonante ha sido la negativa de la empresa a permitir que su IA Claude se utilice en aplicaciones que la compañía considera moralmente inaceptables, como sistemas de vigilancia masiva de ciudadanos o armas completamente autónomas sin supervisión humana. Esta postura ha generado fricción con el Pentágono, que sostiene que sus socios tecnológicos deben estar dispuestos a apoyar a las fuerzas armadas “en cualquier lucha”, sin restricciones extra a lo que la ley ya permite.

El origen de la disputa

Anthropic, fundada con un enfoque en la seguridad y la ética de la inteligencia artificial, ha defendido públicamente límites estrictos sobre cómo se puede usar Claude, su modelo de IA avanzado. La empresa ha expresado su oposición a que Claude participe en programas de vigilancia extensiva de ciudadanos estadounidenses o en sistemas armamentísticos que operen sin intervención humana directa.

Por su parte, el Pentágono ha cuestionado que esas cláusulas sean demasiado restrictivas para la operativa militar. Funcionarios del Departamento han dicho que las salvaguardias impuestas por Anthropic crean zonas grises que dificultan la implementación de la tecnología en escenarios tácticos o de inteligencia donde se requiere flexibilidad total. En palabras de un alto mando, Anthropic “va a pagar un precio por obligarnos a tomar esta decisión”.

La tensión escaló hasta el punto de considerar terminar el contrato de hasta 200 millones de dólares que Anthropic firmó con el Pentágono el año pasado para adaptar Claude a aplicaciones de defensa, un contrato que también ha permitido que Claude sea el único modelo de IA desplegado en sistemas clasificados del ejército.

Implicaciones de la etiqueta “riesgo para la cadena de suministro”

Si el Departamento de Defensa decide etiquetar formalmente a Anthropic como un “riesgo para la cadena de suministro”, el impacto sería significativo. Esa clasificación, normalmente reservada para adversarios extranjeros o proveedores con problemas de seguridad, podría:

  • Obligar a todos los contratistas del Pentágono a eliminar el uso de Claude en sus sistemas, incluyendo integraciones en proyectos de defensa y sistemas de IA.

  • Aislar a Anthropic en el mercado de defensa, cortando uno de sus principales clientes institucionales.

  • Repercutir en su posición comercial general, al generar incertidumbre sobre su estabilidad contractual, lo cual puede influir en decisiones de socios empresariales y en la percepción del mercado.

Aunque el contrato con el Pentágono representa solo una fracción de los ingresos de Anthropic —que recientemente cerró una ronda de financiamiento valuada en 380 mil millones de dólares—, perder acceso a proyectos de defensa podría alterar su proyección estratégica en un sector donde otros gigantes como OpenAI, Google y xAI ya han mostrado mayor disposición a flexibilizar sus salvaguardias para cumplir con los requisitos del ejército.

Uso de Claude en operaciones militares recientes

El modelo Claude ha estado integrado en sistemas clasificados del Pentágono y fue utilizado durante la operación militar en enero para capturar al expresidente venezolano Nicolás Maduro, según reportes de prensa. Este uso aumentó las tensiones debido a que Anthropic ha expresado preocupaciones internas después de esa misión, aunque la compañía afirma estar “comprometida con el uso de IA avanzada en apoyo de la seguridad nacional”.

Esta disputa no solo pone en evidencia la fricción entre los imperativos éticos de las empresas de IA y las exigencias de los gobiernos en materia de defensa, sino que también plantea preguntas más amplias sobre quién debe establecer las reglas de uso de tecnologías tan poderosas: si las compañías tecnológicas mediante políticas internas, o las instituciones públicas a través de marcos legales y regulaciones formales.

En resumen, la posible decisión de designar a Anthropic como un “riesgo para la cadena de suministro” se ha convertido en uno de los principales frentes de tensión entre el sector tecnológico y el militar en Estados Unidos, y podría configurar un precedente sobre cómo se negocian los límites éticos y operativos de la inteligencia artificial en aplicaciones de seguridad nacional.

Social Media

Social

X.com

TikTok

YouTube

Recursos

Sobre Nosotros

Términos de Uso

Política de Cookies

Territorio Nacional 2026 ®