Un juez federal en San Francisco, Rita Lin, ha otorgado a Anthropic una suspensión temporal tras la designación del Pentágono que la clasificaba como un riesgo para la cadena de suministro. En su fallo, el juez Lin emitió una orden de medida cautelar que bloquea la etiqueta impuesta por el gobierno estadounidense, así como una directiva del expresidente Donald Trump que ordenaba a las agencias federales dejar de usar el chatbot Claude de Anthropic. Esta decisión se produce en un contexto donde la empresa se posiciona como líder en el mercado de inteligencia artificial empresarial, con un 32% de participación, superando a OpenAI, que tiene un 25% según datos de Menlo Ventures para 2025.

La controversia se origina en un contrato firmado en julio de 2025 entre Anthropic y el Pentágono, que buscaba convertir a Claude en el primer modelo de inteligencia artificial aprobado para su uso en redes clasificadas. Sin embargo, las negociaciones se rompieron en febrero de 2026 cuando el Pentágono intentó renegociar los términos, exigiendo que Anthropic permitiera el uso militar de su tecnología sin restricciones. Anthropic, por su parte, ha defendido que su tecnología no debe ser utilizada para armas autónomas letales ni para la vigilancia masiva de ciudadanos estadounidenses.