Pentagon uso Claude de Anthropic en operacion contra Maduro: contrato de $200M en riesgo
Noticias Tech

Pentagon uso Claude de Anthropic en operacion contra Maduro: contrato de $200M en riesgo

5 min de lectura
33 Vistas
Compartir:

El Pentagono utilizo el modelo de inteligencia artificial Claude de Anthropic durante la operacion militar que llevo a la captura del presidente venezolano Nicolas Maduro en enero de 2026, segun un reporte del Wall Street Journal. La revelacion ha generado una disputa publica entre Anthropic y el Departamento de Defensa que podria terminar con la cancelacion de un contrato de $200 millones de dolares.

Que paso exactamente

Segun el reporte, Claude fue desplegado a traves de la alianza de Anthropic con Palantir Technologies, cuyas herramientas son ampliamente utilizadas por el Departamento de Defensa y agencias federales de seguridad. El modelo de IA fue usado dentro de sistemas militares clasificados durante la planificacion y ejecucion de la operacion en Venezuela.

Lo que hace este caso especialmente significativo es que Claude es actualmente el unico modelo de IA disponible en ciertos sistemas clasificados del Pentagono. Anthropic fue la primera empresa de IA en tener su modelo utilizado en operaciones clasificadas por el Departamento de Defensa.

Por que Anthropic esta en contra

Anthropic, la empresa creadora de Claude, tiene politicas de uso que prohiben explicitamente usar su IA para:

  • Facilitar violencia
  • Desarrollar armas
  • Conducir vigilancia

Al enterarse de como se uso Claude en la operacion contra Maduro, Anthropic cuestiono al Pentagono sobre el uso especifico de su software. Esta consulta no fue bien recibida por funcionarios del gobierno.

El contrato de $200 millones en riesgo

La disputa ha escalado al punto en que la administracion Trump esta considerando cancelar el contrato de Anthropic, valorado en hasta $200 millones de dolares y otorgado el verano pasado. Un funcionario del Pentagono declaro: "Cualquier empresa que ponga en riesgo el exito operacional de nuestros combatientes en el campo es una con la que necesitamos reevaluar nuestra alianza".

Por que esto importa para el futuro de la IA

Este caso establece un precedente crucial para toda la industria de la inteligencia artificial:

  • Para las empresas de IA: Cuando vendes tu tecnologia al gobierno, pierdes control sobre como se usa? Donde esta el limite?
  • Para los gobiernos: Pueden las empresas tecnologicas vetar como los militares usan herramientas que ya compraron?
  • Para los usuarios: Si la IA se usa en operaciones militares, que implicaciones tiene para la IA que usamos en nuestro dia a dia?

Que sigue

La situacion esta en desarrollo. Si el contrato se cancela, el Pentagono tendria que buscar alternativas como GPT de OpenAI o Gemini de Google para sus sistemas clasificados. Anthropic, por su parte, perderia uno de sus contratos mas grandes y una fuente importante de ingresos.

El debate sobre los limites eticos del uso militar de la IA apenas comienza. Este caso sera estudiado durante anos como el primer gran enfrentamiento entre una empresa de IA y un gobierno por el control sobre como se usa la tecnologia.

Seguiremos informando sobre las novedades de este caso. Siguenos para mantenerte actualizado.

J
Escrito por
Jesús García

Apasionado por la tecnologia y las finanzas personales. Escribo sobre innovacion, inteligencia artificial, inversiones y estrategias para mejorar tu economia. Mi objetivo es hacer que temas complejos sean accesibles para todos.

Compartir artículo:

Artículos relacionados

Comentarios

Deja un comentario

Herramientas Recomendadas

Las que usamos en nuestros proyectos

Enlaces de afiliado. Sin costo adicional para ti.

¿Necesitas servicios de tecnología?

Ofrecemos soluciones integrales de desarrollo web, aplicaciones móviles, consultoría y más.

Desarrollo Web Apps Móviles Consultoría