OpenAI firma contrato con el Pentágono: Altman admite que fue "oportunista"
Noticias Tech

OpenAI firma contrato con el Pentágono: Altman admite que fue "oportunista"

6 min de lectura
10 Vistas
Compartir:

En una de las controversias más explosivas en la historia de la inteligencia artificial, OpenAI firmó un contrato de $200 millones con el Pentágono apenas horas después de que el gobierno de Trump prohibiera a su rival Anthropic por negarse a ceder en límites éticos. Sam Altman ahora admite que el movimiento "pareció oportunista y descuidado" y anuncia cambios al acuerdo.

Qué pasó exactamente

El 27 de febrero, el Secretario de Defensa Pete Hegseth dio a Anthropic un ultimátum: permitir el uso sin restricciones de sus modelos de IA para "todos los fines legales" dentro de la red clasificada del Pentágono. Anthropic se negó, insistiendo en dos líneas rojas: no vigilancia masiva de ciudadanos americanos y no sistemas de armas autónomos.

La respuesta del gobierno fue brutal: Trump ordenó cesar todo uso de tecnología de Anthropic en agencias federales, y Hegseth la designó como "riesgo en la cadena de suministro de seguridad nacional" — una etiqueta históricamente reservada para empresas como Huawei.

Horas después, ese mismo día, OpenAI anunció que había cerrado un acuerdo con el Pentágono para proporcionar sus modelos en redes clasificadas. En mi experiencia siguiendo la industria de IA, nunca había visto un movimiento tan polémico.

Línea de tiempo del conflicto

FechaEvento
27 FebHegseth da ultimátum a Anthropic. Anthropic se niega. Trump la prohíbe.
27 FebOpenAI anuncia contrato con el Pentágono horas después
28 FebOpenAI publica blog "Our agreement with the Department of War"
28 FebAnthropic anuncia demanda, llama la designación "legalmente infundada"
1 Mar70+ empleados de OpenAI firman carta apoyando a Anthropic
1 MarClaude sube al #1 del App Store, superando a ChatGPT
2 MarTrabajadores de Google, IBM, Slack también firman la carta
3 MarAltman admite que fue "oportunista" y anuncia enmiendas

Qué incluye el contrato de OpenAI

El acuerdo expande un contrato previo de $200M (originalmente de Anthropic) para incluir despliegue en entornos clasificados. OpenAI estableció tres "líneas rojas":

  • No vigilancia masiva doméstica
  • No dirigir sistemas de armas autónomos
  • No decisiones automatizadas de alto impacto (ej: sistemas de "crédito social")

Sin embargo, expertos legales señalaron que el contrato solo restatea la ley existente sin agregar protecciones contractuales independientes — exactamente lo que Anthropic temía.

La reacción: empleados se rebelan

La backlash fue inmediata y sin precedentes:

  • 70+ empleados de OpenAI firmaron carta abierta titulada "We Will Not Be Divided" apoyando a Anthropic
  • Cientos de trabajadores de Google, IBM, Slack, Cursor y Salesforce también firmaron
  • El científico de investigación de OpenAI Aidan McLaughlin publicó que "no creo que este acuerdo haya valido la pena" (~500,000 vistas)
  • Grafiti con tiza criticando a OpenAI apareció frente a sus oficinas en San Francisco
  • Claude superó a ChatGPT como app #1 en el App Store de EE.UU.
  • Los suscriptores pagados de Anthropic se duplicaron desde enero

Altman responde y anuncia enmiendas

Este lunes 3 de marzo, Altman publicó un memo interno (luego compartido en redes): "Genuinamente intentamos de-escalar las cosas y evitar un resultado mucho peor, pero creo que simplemente pareció oportunista y descuidado."

Las enmiendas al contrato incluyen:

  • Prohibición explícita de vigilancia de "personas y nacionales de EE.UU." con referencia a la Cuarta Enmienda
  • Agencias de inteligencia (NSA, DIA) excluidas del acceso sin contratos separados
  • Lenguaje anclado a leyes actuales: incluso si las leyes cambian, el uso debe cumplir con los estándares del momento de la firma

Cómo te afecta como usuario

Después de probar ambas plataformas extensamente, esto es lo relevante:

  • Usuarios de ChatGPT: No hay cambio funcional en el producto. El contrato militar no afecta la versión civil
  • Usuarios de Claude: Anthropic sigue operando normalmente. Sus servicios no se ven afectados por la prohibición gubernamental
  • Desarrolladores: Ambas APIs siguen funcionando. La decisión solo afecta contratos del gobierno federal

Problemas comunes

¿OpenAI va a hacer armas con IA?

Según el contrato, no puede dirigir armas autónomas. Pero los críticos señalan que el lenguaje tiene vacíos legales. La IA se usaría para inteligencia, logística y análisis — no directamente en armas.

¿Debería cambiarme de ChatGPT a Claude?

Es una decisión personal. Llevo tiempo usando ambos y cada uno tiene fortalezas distintas. Lo importante es que ambos productos civiles funcionan igual que antes.

¿Anthropic va a cerrar?

No. Tiene inversores como Google y Amazon, y sus usuarios se duplicaron. La demanda contra el gobierno la protege legalmente.

Recursos adicionales

J
Escrito por
Jesús García

Apasionado por la tecnologia y las finanzas personales. Escribo sobre innovacion, inteligencia artificial, inversiones y estrategias para mejorar tu economia. Mi objetivo es hacer que temas complejos sean accesibles para todos.

Compartir artículo:

Artículos relacionados

Comentarios

Deja un comentario

Herramientas Recomendadas

Las que usamos en nuestros proyectos

Enlaces de afiliado. Sin costo adicional para ti.

¿Necesitas servicios de tecnología?

Ofrecemos soluciones integrales de desarrollo web, aplicaciones móviles, consultoría y más.

Desarrollo Web Apps Móviles Consultoría