El Pentagono utilizo el modelo de inteligencia artificial Claude de Anthropic durante la operacion militar que llevo a la captura del presidente venezolano Nicolas Maduro en enero de 2026, segun un reporte del Wall Street Journal. La revelacion ha generado una disputa publica entre Anthropic y el Departamento de Defensa que podria terminar con la cancelacion de un contrato de $200 millones de dolares.
Que paso exactamente
Segun el reporte, Claude fue desplegado a traves de la alianza de Anthropic con Palantir Technologies, cuyas herramientas son ampliamente utilizadas por el Departamento de Defensa y agencias federales de seguridad. El modelo de IA fue usado dentro de sistemas militares clasificados durante la planificacion y ejecucion de la operacion en Venezuela.
Lo que hace este caso especialmente significativo es que Claude es actualmente el unico modelo de IA disponible en ciertos sistemas clasificados del Pentagono. Anthropic fue la primera empresa de IA en tener su modelo utilizado en operaciones clasificadas por el Departamento de Defensa.
Por que Anthropic esta en contra
Anthropic, la empresa creadora de Claude, tiene politicas de uso que prohiben explicitamente usar su IA para:
- Facilitar violencia
- Desarrollar armas
- Conducir vigilancia
Al enterarse de como se uso Claude en la operacion contra Maduro, Anthropic cuestiono al Pentagono sobre el uso especifico de su software. Esta consulta no fue bien recibida por funcionarios del gobierno.
El contrato de $200 millones en riesgo
La disputa ha escalado al punto en que la administracion Trump esta considerando cancelar el contrato de Anthropic, valorado en hasta $200 millones de dolares y otorgado el verano pasado. Un funcionario del Pentagono declaro: "Cualquier empresa que ponga en riesgo el exito operacional de nuestros combatientes en el campo es una con la que necesitamos reevaluar nuestra alianza".
Por que esto importa para el futuro de la IA
Este caso establece un precedente crucial para toda la industria de la inteligencia artificial:
- Para las empresas de IA: Cuando vendes tu tecnologia al gobierno, pierdes control sobre como se usa? Donde esta el limite?
- Para los gobiernos: Pueden las empresas tecnologicas vetar como los militares usan herramientas que ya compraron?
- Para los usuarios: Si la IA se usa en operaciones militares, que implicaciones tiene para la IA que usamos en nuestro dia a dia?
Que sigue
La situacion esta en desarrollo. Si el contrato se cancela, el Pentagono tendria que buscar alternativas como GPT de OpenAI o Gemini de Google para sus sistemas clasificados. Anthropic, por su parte, perderia uno de sus contratos mas grandes y una fuente importante de ingresos.
El debate sobre los limites eticos del uso militar de la IA apenas comienza. Este caso sera estudiado durante anos como el primer gran enfrentamiento entre una empresa de IA y un gobierno por el control sobre como se usa la tecnologia.
Seguiremos informando sobre las novedades de este caso. Siguenos para mantenerte actualizado.