En un movimiento sin precedentes en la historia de la tecnología estadounidense, el presidente Donald Trump ordenó a todas las agencias del gobierno federal cesar inmediatamente el uso de la inteligencia artificial de Anthropic. La decisión cancela más de $200 millones en contratos federales y marca la primera vez que una empresa americana recibe la designación de "riesgo en la cadena de suministro", un sello históricamente reservado para adversarios extranjeros como Huawei.
Qué pasó entre Anthropic y el Pentágono
El conflicto comenzó cuando Anthropic solicitó al Departamento de Defensa garantías de que su chatbot Claude no sería utilizado para vigilancia masiva de ciudadanos americanos ni en sistemas de armas completamente autónomos. En mi experiencia siguiendo la industria de IA, nunca había visto a una empresa tecnológica plantarse así frente al gobierno.
El Pentágono respondió que solo usaría la tecnología de manera legal, pero insistió en acceso sin restricciones. Cuando Anthropic se negó a ceder, el Secretario de Defensa Pete Hegseth escaló la situación declarando a la empresa como riesgo de seguridad nacional.
Dario Amodei, CEO de Anthropic, respondió públicamente: "Ninguna cantidad de intimidación o castigo del Departamento de Guerra cambiará nuestra posición sobre vigilancia masiva doméstica o armas completamente autónomas". La empresa anunció que demandará al Pentágono en tribunales.
Claude llega al #1 del App Store
Lo que nadie esperaba fue la reacción del público. En las 24 horas siguientes a la prohibición, Claude se disparó al puesto #1 de apps gratuitas en el App Store de Apple en Estados Unidos, superando a ChatGPT, TikTok e Instagram. Después de probar ambas apps, puedo decir que la controversia generó una curiosidad masiva por probar Claude.
Sin embargo, esta demanda sin precedentes tuvo consecuencias: este lunes 2 de marzo, Claude sufrió una caída global con "errores elevados" reportados por Anthropic. El problema afecta la autenticación de usuarios, no los modelos de IA. La API empresarial sigue funcionando normalmente.
Línea de tiempo del conflicto
| Fecha | Evento |
|---|---|
| Febrero 2026 | Anthropic pide garantías al Pentágono sobre uso ético de Claude |
| 27 Feb 2026 | Vence el deadline. Anthropic se niega a ceder |
| 28 Feb 2026 | Trump ordena cesar todo uso de Anthropic en el gobierno |
| 28 Feb 2026 | Claude sube al #1 del App Store |
| 1 Mar 2026 | Anthropic anuncia demanda contra el Pentágono |
| 2 Mar 2026 | Claude sufre caída global por demanda masiva |
Cómo te afecta como usuario
Si usas Claude (web, app o API), esto es lo que necesitas saber:
- Usuarios personales y empresariales: No hay cambio. La prohibición solo afecta al gobierno federal de EEUU
- Desarrolladores con API: La API sigue operativa. Anthropic confirmó que los servicios empresariales no se ven afectados por la prohibición
- Caída actual: Es temporal, causada por el pico de nuevos usuarios. Anthropic está escalando su infraestructura
Problemas comunes ahora mismo
Claude no me deja iniciar sesión
El problema es de autenticación por la demanda masiva. Solución: espera 15-30 minutos e intenta de nuevo. La API funciona normal.
¿Van a cerrar Anthropic?
No. La prohibición es solo del gobierno federal. Anthropic tiene inversores como Google y Amazon, y millones de usuarios privados. La empresa planea demandar al gobierno.
¿Mis datos en Claude están en riesgo?
No. La designación de "riesgo de cadena de suministro" es administrativa, no significa que la empresa haya sido hackeada ni que haya problemas de seguridad en sus productos.
El panorama más amplio
Llevo tiempo usando tanto ChatGPT como Claude, y esta situación plantea preguntas fundamentales sobre quién controla la IA y qué límites éticos son negociables. Anthropic se fundó específicamente con el objetivo de desarrollar IA segura — es literalmente su razón de existir.
El caso podría sentar precedente legal sobre si el gobierno puede obligar a empresas de IA a eliminar sus barreras de seguridad. Otros gigantes como OpenAI han mantenido silencio, aunque fuentes indican que observan la situación con preocupación.
Recursos adicionales
- Sitio oficial de Anthropic — Comunicados oficiales
- Status de Claude — Estado en tiempo real del servicio
- Timeline completo del conflicto — TechPolicy.Press
- Entrevista a Dario Amodei en CBS — Las líneas rojas de Anthropic