En una de las controversias más explosivas en la historia de la inteligencia artificial, OpenAI firmó un contrato de $200 millones con el Pentágono apenas horas después de que el gobierno de Trump prohibiera a su rival Anthropic por negarse a ceder en límites éticos. Sam Altman ahora admite que el movimiento "pareció oportunista y descuidado" y anuncia cambios al acuerdo.
Qué pasó exactamente
El 27 de febrero, el Secretario de Defensa Pete Hegseth dio a Anthropic un ultimátum: permitir el uso sin restricciones de sus modelos de IA para "todos los fines legales" dentro de la red clasificada del Pentágono. Anthropic se negó, insistiendo en dos líneas rojas: no vigilancia masiva de ciudadanos americanos y no sistemas de armas autónomos.
La respuesta del gobierno fue brutal: Trump ordenó cesar todo uso de tecnología de Anthropic en agencias federales, y Hegseth la designó como "riesgo en la cadena de suministro de seguridad nacional" — una etiqueta históricamente reservada para empresas como Huawei.
Horas después, ese mismo día, OpenAI anunció que había cerrado un acuerdo con el Pentágono para proporcionar sus modelos en redes clasificadas. En mi experiencia siguiendo la industria de IA, nunca había visto un movimiento tan polémico.
Línea de tiempo del conflicto
| Fecha | Evento |
|---|---|
| 27 Feb | Hegseth da ultimátum a Anthropic. Anthropic se niega. Trump la prohíbe. |
| 27 Feb | OpenAI anuncia contrato con el Pentágono horas después |
| 28 Feb | OpenAI publica blog "Our agreement with the Department of War" |
| 28 Feb | Anthropic anuncia demanda, llama la designación "legalmente infundada" |
| 1 Mar | 70+ empleados de OpenAI firman carta apoyando a Anthropic |
| 1 Mar | Claude sube al #1 del App Store, superando a ChatGPT |
| 2 Mar | Trabajadores de Google, IBM, Slack también firman la carta |
| 3 Mar | Altman admite que fue "oportunista" y anuncia enmiendas |
Qué incluye el contrato de OpenAI
El acuerdo expande un contrato previo de $200M (originalmente de Anthropic) para incluir despliegue en entornos clasificados. OpenAI estableció tres "líneas rojas":
- No vigilancia masiva doméstica
- No dirigir sistemas de armas autónomos
- No decisiones automatizadas de alto impacto (ej: sistemas de "crédito social")
Sin embargo, expertos legales señalaron que el contrato solo restatea la ley existente sin agregar protecciones contractuales independientes — exactamente lo que Anthropic temía.
La reacción: empleados se rebelan
La backlash fue inmediata y sin precedentes:
- 70+ empleados de OpenAI firmaron carta abierta titulada "We Will Not Be Divided" apoyando a Anthropic
- Cientos de trabajadores de Google, IBM, Slack, Cursor y Salesforce también firmaron
- El científico de investigación de OpenAI Aidan McLaughlin publicó que "no creo que este acuerdo haya valido la pena" (~500,000 vistas)
- Grafiti con tiza criticando a OpenAI apareció frente a sus oficinas en San Francisco
- Claude superó a ChatGPT como app #1 en el App Store de EE.UU.
- Los suscriptores pagados de Anthropic se duplicaron desde enero
Altman responde y anuncia enmiendas
Este lunes 3 de marzo, Altman publicó un memo interno (luego compartido en redes): "Genuinamente intentamos de-escalar las cosas y evitar un resultado mucho peor, pero creo que simplemente pareció oportunista y descuidado."
Las enmiendas al contrato incluyen:
- Prohibición explícita de vigilancia de "personas y nacionales de EE.UU." con referencia a la Cuarta Enmienda
- Agencias de inteligencia (NSA, DIA) excluidas del acceso sin contratos separados
- Lenguaje anclado a leyes actuales: incluso si las leyes cambian, el uso debe cumplir con los estándares del momento de la firma
Cómo te afecta como usuario
Después de probar ambas plataformas extensamente, esto es lo relevante:
- Usuarios de ChatGPT: No hay cambio funcional en el producto. El contrato militar no afecta la versión civil
- Usuarios de Claude: Anthropic sigue operando normalmente. Sus servicios no se ven afectados por la prohibición gubernamental
- Desarrolladores: Ambas APIs siguen funcionando. La decisión solo afecta contratos del gobierno federal
Problemas comunes
¿OpenAI va a hacer armas con IA?
Según el contrato, no puede dirigir armas autónomas. Pero los críticos señalan que el lenguaje tiene vacíos legales. La IA se usaría para inteligencia, logística y análisis — no directamente en armas.
¿Debería cambiarme de ChatGPT a Claude?
Es una decisión personal. Llevo tiempo usando ambos y cada uno tiene fortalezas distintas. Lo importante es que ambos productos civiles funcionan igual que antes.
¿Anthropic va a cerrar?
No. Tiene inversores como Google y Amazon, y sus usuarios se duplicaron. La demanda contra el gobierno la protege legalmente.