- El juez Rita Lin otorgó a Anthropic una suspensión temporal contra la prohibición del Pentágono.
- Anthropic posee el 32% del mercado de inteligencia artificial empresarial, superando a OpenAI.
- Las negociaciones entre Anthropic y el Pentágono se rompieron debido a exigencias de uso militar sin restricciones.
- El fallo del tribunal podría sentar un precedente sobre la regulación gubernamental de las empresas tecnológicas.
- La próxima audiencia sobre el caso se llevará a cabo el 27 de marzo, lo que podría influir en el futuro de la empresa.
Un juez federal en San Francisco, Rita Lin, ha otorgado a Anthropic una suspensión temporal tras la designación del Pentágono que la clasificaba como un riesgo para la cadena de suministro. En su fallo, el juez Lin emitió una orden de medida cautelar que bloquea la etiqueta impuesta por el gobierno estadounidense, así como una directiva del expresidente Donald Trump que ordenaba a las agencias federales dejar de usar el chatbot Claude de Anthropic. Esta decisión se produce en un contexto donde la empresa se posiciona como líder en el mercado de inteligencia artificial empresarial, con un 32% de participación, superando a OpenAI, que tiene un 25% según datos de Menlo Ventures para 2025.
La controversia se origina en un contrato firmado en julio de 2025 entre Anthropic y el Pentágono, que buscaba convertir a Claude en el primer modelo de inteligencia artificial aprobado para su uso en redes clasificadas. Sin embargo, las negociaciones se rompieron en febrero de 2026 cuando el Pentágono intentó renegociar los términos, exigiendo que Anthropic permitiera el uso militar de su tecnología sin restricciones. Anthropic, por su parte, ha defendido que su tecnología no debe ser utilizada para armas autónomas letales ni para la vigilancia masiva de ciudadanos estadounidenses.
Continua leyendo
Crea una cuenta para acceder al contenido completo y al resumen diario.
Crear cuenta gratis
Comentarios (0)
Inicia sesion para participar en la conversacion.