Anthropic aseguró que Claude ya se usa de forma amplia en redes clasificadas y misiones críticas del gobierno de EE.UU., pero trazó dos líneas rojas: no habilitar vigilancia masiva doméstica ni apoyar armas completamente autónomas. Dario Amodei afirma que el Departamento de Guerra ahora exige eliminar esas salvaguardias bajo la consigna de “cualquier uso legal”, y advierte que la IA podría socavar valores democráticos si se despliega sin límites.
***
Anthropic dice que fue la primera empresa de “IA fronteriza” en llevar sus modelos a redes clasificadas del gobierno de EE.UU. y a Laboratorios Nacionales, y que Claude está ampliamente desplegado en el Departamento de Guerra.Dario Amodei afirma que la empresa no aceptará dos usos: vigilancia masiva doméstica y armas completamente autónomas, por riesgos a libertades civiles y por falta de confiabilidad de la tecnología actual.Según Amodei, el Departamento de Guerra habría amenazado con sacar a Anthropic de sus sistemas y hasta con etiquetarla como “riesgo de la cadena de suministro”, además de invocar la Ley de Producción de Defensa para forzar cambios.
La empresa de inteligencia artificial Anthropic intensificó el debate sobre el uso militar de modelos avanzados al revelar un desacuerdo directo con el Departamento de Guerra de Estados Unidos. En una declaración pública, su CEO, Dario Amodei, sostuvo que la compañía cree en el papel “existencial” de la IA para defender a EE.UU. y otras democracias, pero insistió en que existen usos que pueden socavar esos mismos valores.
El punto de quiebre, según Amodei, es una exigencia del Departamento: que los proveedores de IA acepten “cualquier uso legal” y eliminen salvaguardias específicas. Anthropic afirma que ya coopera de forma amplia con seguridad nacional, pero se niega a retirar dos límites que considera esenciales: no permitir vigilancia masiva doméstica ni habilitar armas completamente autónomas alimentadas por IA de frontera.
La controversia ocurre en un momento en que la adopción de IA generativa se acelera en sectores públicos y privados, incluyendo defensa y ciberseguridad. Para lectores del ecosistema cripto y tecnológico, la discusión toca un tema recurrente: quién controla infraestructuras críticas basadas en software, qué límites se imponen por diseño y cómo se auditan decisiones automatizadas cuando el incentivo es maximizar capacidad operativa.
Claude en seguridad nacional: despliegue y casos de uso
Amodei aseguró que Anthropic trabajó “proactivamente” para desplegar sus modelos en el Departamento de Guerra y la comunidad de inteligencia. En su recuento, la empresa dice haber sido la primera compañía de IA fronteriza en desplegar modelos en redes clasificadas del gobierno de EE.UU., la primera en desplegarlos en los Laboratorios Nacionales y la primera en proporcionar modelos personalizados para clientes de seguridad nacional.