Anthropic demanda al Pentágono tras ser declarada riesgo de seguridad

Actualizado el 17/03/2026: Sumamos una sección con contexto sobre qué es Anthropic como empresa — quiénes la fundaron, cuál es su misión y por qué importa entender su historia para interpretar este conflicto con el Pentágono.

Anthropic demanda al Pentágono tras ser declarada riesgo de seguridad - ilustracion

Anthropic demandó al Departamento de Defensa de Estados Unidos después de que el Pentágono la designara como “riesgo para la cadena de suministro”, una categoría que hasta ahora solo se había aplicado a empresas de países adversarios como Huawei. El conflicto arrancó cuando la compañía creadora de Claude se negó a dar acceso irrestricto a su modelo para aplicaciones de armas autónomas y vigilancia masiva. Dario Amodei, CEO de Anthropic, confirmó la demanda judicial y calificó la medida como “un exceso sin precedentes contra una empresa estadounidense”.

La noticia sacudió al sector tech en un momento donde la relación entre las grandes empresas de IA y el gobierno de EE.UU. ya venía tensa. Microsoft, Amazon y Google salieron a aclarar que Claude sigue disponible para clientes comerciales fuera del ámbito de defensa. Mientras tanto, las descargas de Claude se dispararon.

En 30 segundos

  • El Pentágono designó a Anthropic como “riesgo para la cadena de suministro” después de que la empresa se negara a permitir el uso de Claude para armas autónomas y vigilancia masiva.
  • Dario Amodei anunció una demanda judicial contra el gobierno, argumentando que la designación es desproporcionada y sin precedentes para una empresa estadounidense.
  • Claude sigue disponible para usuarios comerciales en todo el mundo; la restricción aplica solo a contratos vinculados al Departamento de Defensa.
  • Las descargas de Claude superaron a las de ChatGPT, con 149.000 instalaciones diarias frente a 124.000.

Qué es Anthropic: la empresa detrás de Claude

Para entender por qué este conflicto con el Pentágono importa, hay que saber qué tipo de empresa es Anthropic y con qué lógica opera. No es una startup tecnológica más apostando al mayor mercado posible. Es una empresa fundada en 2021 por ex empleados de OpenAI que se fueron, en parte, por diferencias sobre cómo gestionar los riesgos de la IA avanzada.

Dario Amodei y su hermana Daniela lideraron la salida junto a otros siete investigadores. Llevaban consigo una convicción central: los modelos de lenguaje grandes podían volverse peligrosos si no se desarrollaban con controles explícitos. Eso derivó en una metodología propia que llaman Constitutional AI, donde el modelo aprende a evaluarse a sí mismo contra un conjunto de principios definidos, en lugar de depender solo de feedback humano para cada caso.

El producto central de Anthropic es Claude. La empresa lanzó su primera versión al público en marzo de 2023, compitiendo directamente con GPT-4 de OpenAI y Gemini de Google. A diferencia de sus competidores, Anthropic no intentó ser la IA más capaz en el papel; apuntó a ser la más confiable. Esa diferencia de énfasis es precisamente lo que generó el choque con el Pentágono. Si te interesa, podes leer mas sobre el modelo Claude Sonnet 4.6 de Anthropic.

En términos de financiamiento, Anthropic captó inversiones de Amazon y Google por un total que supera los 7.000 millones de dólares, posicionándola como una de las empresas de IA más capitalizadas del mundo. Eso la hace lo suficientemente grande como para resistir presiones, pero también genera dependencias estratégicas con dos de los tres grandes clouds. El hecho de que Amazon y Google sean inversores complica cualquier análisis simple sobre autonomía corporativa.

La misión declarada de la empresa, tal como aparece en su sitio oficial, es “la investigación de seguridad en IA y el desarrollo de sistemas de IA que sean seguros, beneficiosos e interpretables”. No es marketing: gran parte del equipo fundador viene de investigación básica, no de ingeniería de productos. Eso explica decisiones como rechazar un contrato multimillonario con el Pentágono antes que ceder el control sobre cómo se usa el modelo.

Ahora bien, tampoco hay que idealizarla. Anthropic es una empresa con inversores, métricas de crecimiento y presión por rentabilidad. Que en este caso sus intereses comerciales coincidan con sus principios declarados no garantiza que siempre sea así. El historial de la industria tecnológica invita a cierto escepticismo ante cualquier empresa que se posiciona como guardiana ética.

Qué pasó entre Anthropic y el Pentágono

La cronología del conflicto se remonta a las negociaciones iniciales entre Anthropic y el Departamento de Defensa para integrar Claude en sistemas internos. El Pentágono buscaba un modelo de lenguaje avanzado para múltiples aplicaciones, incluyendo análisis de inteligencia, logística y, según fuentes cercanas al caso, sistemas de toma de decisiones autónomos en contextos de combate.

Anthropic aceptó colaborar en ciertos usos, pero trazó dos límites explícitos: nada de vigilancia doméstica masiva y nada de armas completamente autónomas. El Pentágono rechazó esas condiciones. Quería acceso irrestricto al modelo, sin restricciones de uso definidas por el proveedor.

Tras meses de negociaciones, el Departamento de Defensa tomó una medida drástica: designó a Anthropic como “riesgo para la cadena de suministro”. Eso activó una orden ejecutiva que obliga a todas las agencias federales a cesar el uso de productos de Anthropic en un plazo de seis meses y migrar a alternativas aprobadas. La administración Trump respaldó la decisión. Si te interesa, podés leer más sobre las capacidades de Claude Sonnet 4.6.

El dato que más llamó la atención: esta designación estaba reservada hasta ahora para empresas de países considerados adversarios. Huawei, ZTE, Kaspersky. Que se aplique a una compañía estadounidense con sede en San Francisco no tiene precedente. Si te interesa, podes leer mas sobre qué es y cómo funciona Claude Opus 4.6.

Las dos líneas rojas de Anthropic: vigilancia masiva y armas autónomas

Dario Amodei fue claro sobre los dos puntos que Anthropic no estaba dispuesta a ceder. El primero: el uso de Claude para vigilancia doméstica a gran escala. Según declaraciones del CEO, permitir que un modelo de IA procese datos de ciudadanos sin orden judicial contradice principios democráticos básicos.

El segundo punto es más técnico pero igual de relevante. Anthropic argumenta que la IA actual no tiene la fiabilidad necesaria para tomar decisiones letales de forma autónoma. “Un modelo de lenguaje puede alucinar datos en una conversación casual y eso es tolerable. Que alucine en un sistema de armas no lo es”, dijo Amodei en conferencia de prensa.

Eso sí: Anthropic no se opone a todo uso militar de la IA. La empresa había aceptado colaborar en análisis de documentos, traducción de inteligencia y planificación logística. El conflicto no es “IA sí o no en defensa”, sino dónde se pone el límite.

Hay un matiz que vale la pena considerar. ¿Quién decide dónde están esas líneas rojas? Anthropic se posiciona como guardiana ética, pero al final es una empresa privada definiendo qué puede y qué no puede hacer un gobierno con una herramienta licenciada. El debate es más complejo de lo que parece a primera vista. Si te interesa, podés leer más sobre el modelo más avanzado de Anthropic.

La posición del Pentágono y por qué exige acceso irrestricto

Desde la perspectiva del Departamento de Defensa, el argumento es directo: si el gobierno licencia un producto, debe poder usarlo para todos los fines legales que considere necesarios. El jefe de tecnología del Pentágono se enfrentó públicamente a Anthropic, diciendo que “ningún proveedor privado tiene autoridad para limitar las capacidades de defensa nacional”.

La designación como “supply chain risk” no fue un gesto simbólico. Tiene consecuencias operativas concretas. Todas las agencias federales que usaban Claude, incluyendo contratistas de defensa, tienen ahora seis meses para migrar a otro proveedor. OpenAI ya fue nombrada como reemplazo preferido. Si te interesa, podes leer mas sobre nuestra guía sobre modelos de lenguaje.

El gobierno también argumenta un tema de dependencia estratégica. Si el Pentágono integra Claude en sistemas críticos y Anthropic puede en cualquier momento restringir funcionalidades por decisión unilateral, eso representa un riesgo operativo real. Desde esa óptica, la designación tiene cierta lógica, aunque el instrumento elegido sea desproporcionado.

Ahora bien, aplicar a una empresa estadounidense una herramienta diseñada para contrarrestar amenazas extranjeras genera un precedente incómodo. ¿Qué pasa si mañana otra empresa tech se niega a cooperar con una solicitud del gobierno? ¿Van a recibir el mismo tratamiento que Huawei?

La demanda judicial de Anthropic contra el Pentágono: argumentos legales

Amodei confirmó que la estrategia legal se centra en un principio constitucional: el gobierno debe usar el medio menos restrictivo necesario para lograr sus objetivos. Según el equipo legal de Anthropic, existen decenas de alternativas antes de llegar a una designación de riesgo de cadena de suministro. Si te interesa, podés leer más sobre la integración de Claude en herramientas de oficina.

La empresa anunció que es la primera vez en la historia que esta categoría se aplica a una compañía estadounidense. Los abogados de Anthropic planean argumentar que la medida constituye una represalia por ejercer derechos contractuales legítimos, no una evaluación genuina de riesgo de seguridad.

Un detalle complicó las cosas. Según reportes, se filtró un memo interno del Pentágono que describía la designación como “una herramienta de presión para forzar la cooperación de Anthropic”. El Departamento de Defensa emitió una disculpa parcial por el lenguaje del memo, pero no revirtió la decisión.

¿Tiene chances reales esta demanda? Difícil saberlo. Los tribunales históricamente dan mucha deferencia al gobierno en temas de seguridad nacional. Pero el memo filtrado podría ser la pieza clave si demuestra que la motivación fue punitiva y no una evaluación de riesgo objetiva. Si te interesa, podes leer mas sobre todo lo que necesitás saber sobre Claude.

Impacto en el mercado: Claude se convierte en la app más descargada

El efecto Streisand funcionó a pleno. Desde que se conoció la noticia, Claude superó a ChatGPT en descargas diarias: 149.000 frente a 124.000, según datos de plataformas de analítica móvil. Anthropic reportó más de un millón de registros nuevos por día durante la primera semana del conflicto.

En redes sociales surgió un movimiento bajo el hashtag “Cancela ChatGPT”, que asocia a OpenAI con cooperación militar irrestricta. Justo o injusto, la percepción pública favoreció a Anthropic. Si te interesa, podés leer más sobre su herramienta de programación con IA.

Una encuesta de Morning Consult mostró que la mayoría de los encuestados en EE.UU. opina que el gobierno se excedió. El 58% consideró que una empresa privada tiene derecho a definir condiciones de uso de sus productos, incluso frente al gobierno federal.

Lo interesante es que este impulso comercial podría ser temporal. Si el conflicto legal se extiende y genera incertidumbre regulatoria, algunos clientes empresariales podrían migrar a alternativas que no estén en la mira del gobierno. Habría que ver cómo evoluciona en los próximos meses.

Microsoft, Amazon y Google: qué pasa con Claude fuera del sector defensa

Los tres grandes proveedores de nube que distribuyen Claude salieron rápido a despejar dudas. Microsoft, Amazon Web Services y Google Cloud confirmaron que el modelo sigue disponible para todos sus clientes comerciales sin restricciones. La designación del Pentágono aplica específicamente a contratos con el Departamento de Defensa, no a la disponibilidad general del servicio.

La situación de Amazon merece atención aparte. AWS es uno de los principales inversores de Anthropic y también su socio de distribución más importante a través de Amazon Bedrock. La empresa tuvo que navegar una posición incómoda: su plataforma sigue ofreciendo Claude, pero los clientes del sector defensa que usan AWS necesitan evaluar si sus contratos caen dentro del alcance de la designación. Si te interesa, podes leer mas sobre cómo se compara con Google.

Google, por su lado, tiene un doble vínculo. También es inversor de Anthropic y ofrece Claude a través de Google Cloud Vertex AI. Sin embargo, Google tiene sus propios modelos Gemini compitiendo en el mismo espacio. El conflicto Anthropic-Pentágono podría ser, indirectamente, una oportunidad comercial para el equipo de Google DeepMind.

El tema es que esta situación genera una señal de riesgo para compradores corporativos que evalúan proveedor de IA a largo plazo. Si tu infraestructura de IA puede verse afectada por un conflicto político entre tu proveedor y el gobierno, eso es un factor que los equipos de procurement ahora van a incluir en sus evaluaciones. No queda claro si ese efecto es transitorio o empieza a cambiar cómo las empresas piensan la diversificación de proveedores de IA.

Qué significa para empresas y equipos en Latinoamérica

Para la gran mayoría de empresas en Argentina, Brasil, México y el resto de la región, este conflicto no cambia nada en lo inmediato. Claude sigue disponible, las APIs funcionan igual, y los precios no se modificaron. La designación de “supply chain risk” opera en el ámbito de contratos con el gobierno federal de EE.UU., un universo muy alejado del uso comercial cotidiano.

Donde sí hay impacto potencial es en empresas latinoamericanas que trabajan como contratistas o proveedoras de servicios para el gobierno de EE.UU. o para empresas del sector defensa norteamericano. Si tu cliente final es una agencia federal o un contratista de defensa, conviene revisar los términos de los contratos y evaluar si el uso de Claude queda comprendido en las restricciones.

Más allá del caso puntual, el conflicto instala una pregunta que va a crecer en los próximos años: ¿qué pasa cuando los proveedores de IA empiezan a poner condiciones de uso que limitan lo que los gobiernos pueden hacer con sus herramientas? Latinoamérica no es ajena a esa discusión. Varios países de la región están desarrollando marcos regulatorios para IA, y la tensión entre autonomía del proveedor y soberanía del estado va a ser un tema recurrente. Si te interesa, podes leer mas sobre guía completa del asistente Claude.

Si querés saber de dónde viene todo esto, Qué es Anthropic y para qué sirve: la empresa detrás de Clau.

Esto se conecta con Anthropic demanda al Pentágono tras ser declarada riesgo de, donde abordamos el lado más político de Anthropic.

Si querés profundizar en esto, tenemos un artículo sobre Qué es Anthropic y para qué sirve: la empresa detrás de Clau.

Podés leer más al respecto en Qué es Anthropic y para qué sirve: la empresa detrás de Clau.

Si querés profundizar, acá va un artículo sobre Qué es Anthropic y para qué sirve: la empresa detrás de Clau.

En nuestro artículo sobre Anthropic demanda al Pentágono tras ser declarada riesgo de detallamos todo lo que pasó.

Preguntas frecuentes

¿Qué es Anthropic exactamente?

Anthropic es una empresa de investigación y desarrollo de inteligencia artificial fundada en 2021 por Dario Amodei, Daniela Amodei y otros ex investigadores de OpenAI. Su producto principal es Claude, un asistente de IA diseñado con énfasis en seguridad y confiabilidad. La empresa tiene sede en San Francisco y recibió inversiones de Amazon y Google que superan los 7.000 millones de dólares en total.

¿Para qué sirve Anthropic como empresa?

Anthropic desarrolla modelos de lenguaje grande para uso comercial a través de su API y de alianzas con los principales proveedores de nube. Su diferenciación frente a competidores como OpenAI es el foco en seguridad: la empresa creó una metodología llamada Constitutional AI, que entrena al modelo para evaluar sus propias respuestas contra principios definidos. Más allá de vender acceso a Claude, Anthropic también publica investigación sobre alineación y riesgo en IA.

¿La demanda de Anthropic al Pentágono afecta a los usuarios de Claude?

Para los usuarios comerciales, incluyendo los de Latinoamérica, no hay ningún impacto directo. Claude sigue disponible a través de la web, la app móvil, la API y plataformas como AWS Bedrock y Google Cloud Vertex AI. La restricción aplica exclusivamente a contratos con el Departamento de Defensa de EE.UU. y sus agencias.

¿Qué es la metodología Constitutional AI de Anthropic?

Es la técnica de entrenamiento central que diferencia a Anthropic de otras empresas de IA. En lugar de depender solo de evaluadores humanos para cada respuesta problemática, el modelo aprende a aplicar un conjunto de principios —la “constitución”— y a usar ese marco para revisar y corregir sus propias salidas. El objetivo es reducir comportamientos dañinos de forma más escalable y consistente que el feedback humano tradicional.

Conclusión

El conflicto entre Anthropic y el Pentágono no se entiende bien sin saber qué tipo de empresa es Anthropic. No es una compañía que llegó a la IA por la vía del producto y terminó pensando en seguridad por presión regulatoria. Arrancó desde la investigación de seguridad y construyó el producto encima de eso. Esa diferencia de origen es lo que explica por qué estuvo dispuesta a perder un contrato gubernamental antes que ceder el control sobre los usos de Claude.

Lo que cambió con este episodio es la visibilidad del debate sobre quién tiene la última palabra en el uso de herramientas de IA: ¿el proveedor que las desarrolla, o el cliente que las licencia? Anthropic apostó a que puede mantener esa autoridad aunque el cliente sea el gobierno más poderoso del mundo. El resultado del proceso judicial va a decir mucho sobre si esa apuesta era realista.

Lo que conviene seguir de acá en adelante: la evolución de la demanda legal, cómo reacciona el mercado corporativo frente a la incertidumbre regulatoria, y si otros proveedores de IA adoptan posiciones similares o van en la dirección contraria para capturar los contratos que Anthropic rechazó. La presión sobre OpenAI para ocupar ese espacio ya empezó.

¿Por qué Anthropic demandó al Pentágono?

Anthropic presentó una demanda judicial después de que el Pentágono la designara como ‘riesgo para la cadena de suministro’, una categoría que nunca se había aplicado a una empresa estadounidense. La empresa argumenta que fue una represalia por negarse a permitir el uso de Claude en armas autónomas y vigilancia masiva.

¿Qué significa que Anthropic sea declarada riesgo de seguridad por el Pentágono?

Significa que todas las agencias federales de EE.UU. tienen que dejar de usar productos de Anthropic en un plazo de seis meses y migrar a alternativas aprobadas. Es la primera vez que esta designación, antes reservada para empresas como Huawei o ZTE, se aplica a una compañía estadounidense.

¿Se puede seguir usando Claude después del conflicto con el Pentágono?

Sí, Claude sigue disponible para todos los usuarios comerciales y particulares en todo el mundo. La restricción aplica exclusivamente a contratos vinculados al Departamento de Defensa de Estados Unidos.

¿Por qué Anthropic demandó al Pentágono?

Anthropic demandó al Departamento de Defensa después de que el Pentágono la designara como ‘riesgo para la cadena de suministro’, una categoría reservada hasta ahora para empresas de países adversarios como Huawei. La empresa argumenta que la medida es una represalia desproporcionada por ejercer su derecho contractual de negarse a permitir el uso de Claude en armas autónomas y vigilancia masiva.

¿Qué pasa con Claude después de la decisión del Pentágono?

Claude sigue disponible para usuarios comerciales en todo el mundo sin restricciones. La designación del Pentágono solo afecta a contratos vinculados al Departamento de Defensa y agencias federales de EE.UU., que tienen seis meses para migrar a alternativas. De hecho, las descargas de Claude se dispararon tras la noticia.

¿Qué es la designación ‘riesgo para la cadena de suministro’?

Es una categoría del Departamento de Defensa que activa una orden ejecutiva obligando a todas las agencias federales a dejar de usar productos de la empresa designada en un plazo de seis meses. Hasta ahora se había usado exclusivamente contra empresas de países considerados adversarios, como Huawei o Kaspersky. Es la primera vez que se aplica a una compañía estadounidense.

¿Por qué Anthropic demandó al Pentágono?

Anthropic demandó después de que el Pentágono la designara como ‘riesgo de cadena de suministro’ para presionarla a permitir acceso irrestricto a Claude. La empresa se había negado a autorizar el uso del modelo para vigilancia masiva y armas completamente autónomas, dos líneas rojas que no estaba dispuesta a cruzar.

¿Claude sigue disponible después de la demanda?

Sí, Claude sigue disponible para todos los usuarios comerciales en todo el mundo. La restricción impuesta por el Pentágono solo aplica a contratos federales del Departamento de Defensa. De hecho, las descargas de Claude aumentaron tras el conflicto.

¿Qué significa que Anthropic sea un ‘riesgo de cadena de suministro’?

Es una designación que obliga a todas las agencias federales a dejar de usar productos de la empresa en seis meses. Históricamente se ha aplicado solo a empresas de países adversarios como Huawei. Anthropic es la primera compañía estadounidense que recibe esta clasificación.

Fuentes

Desplazarse hacia arriba