Washington. Un juez estadunidense bloqueó temporalmente el jueves la inclusión de Anthropic en la lista negra del Pentágono, el último giro en la tensa pelea del fabricante de Claude con los militares sobre la seguridad de la IA en el campo de batalla.
La demanda presentada por Anthropic ante un tribunal federal de California alega que el secretario de Defensa, Pete Hegseth, se extralimitó en sus funciones al designar a Anthropic como un riesgo para la cadena de suministro de seguridad nacional, una etiqueta que el gobierno puede aplicar a las empresas que exponen los sistemas militares a una posible infiltración o sabotaje por parte de adversarios.
La jueza federal Rita Lin, designada por el expresidente demócrata Joe Biden, dictó la resolución en una audiencia en San Francisco después de que Anthropic solicitara una orden provisional que bloqueara la designación mientras se resuelve el litigio. La resolución de Lin no es definitiva y el caso aún está pendiente.
La medida sin precedentes de Hegseth , que siguió a la negativa de Anthropic a permitir que el ejército utilizara el chatbot de IA Claude para la vigilancia estadunidense o armas autónomas, bloqueó a la empresa para ciertos contratos militares. Los propios ejecutivos han dicho que esto podría costarle a la compañía miles de millones de dólares en pérdidas comerciales y daños a su reputación.
Anthropics afirma que los modelos de IA no son lo suficientemente fiables como para ser utilizados de forma segura en armas autónomas y que se opone a la vigilancia interna por considerarla una violación de los derechos, pero el Pentágono sostiene que las empresas privadas no deberían poder limitar la acción militar.







