Anthropic ha revelado una operación de espionaje de IA sin precedentes. Según la empresa creadora de Claude, tres laboratorios chinos de inteligencia artificial — DeepSeek, Moonshot AI y MiniMax — ejecutaron campañas de "destilación" a escala industrial, usando más de 24,000 cuentas fraudulentas y generando más de 16 millones de intercambios con Claude para copiar sus capacidades y mejorar sus propios modelos.
Qué es la destilación de modelos y por qué es grave
La destilación de modelos es una técnica donde se usa un modelo de IA avanzado (en este caso Claude) para generar respuestas que luego se usan como datos de entrenamiento para otro modelo. Es como copiar las respuestas de un examen, pero a escala industrial.
Lo que hace esto particularmente grave es la sofisticación de la operación: los atacantes crearon redes llamadas "hydra clusters" — grupos masivos de cuentas que distribuían el tráfico entre la API de Anthropic y servicios de terceros. Una sola configuración de proxy controlaba más de 20,000 cuentas falsas simultáneamente, mezclando tráfico de extracción con consultas normales para evitar detección.
Los números por empresa
Anthropic detalló la participación de cada empresa:
- MiniMax: fue el más agresivo con más de 13 millones de intercambios
- Moonshot AI: ejecutó más de 3.4 millones de consultas
- DeepSeek: realizó más de 150,000 interacciones (la cifra menor pero la marca más conocida)
En total, las tres empresas generaron 16 millones de intercambios diseñados específicamente para extraer el conocimiento de Claude.
El contexto: guerra tecnológica EE.UU. vs China
Esta denuncia llega en un momento de máxima tensión entre Estados Unidos y China en el sector de IA. El gobierno de EE.UU. ya ha impuesto restricciones a la exportación de chips avanzados a China, y estas revelaciones podrían endurecer aún más las sanciones.
Anthropic no es la primera en denunciar esto: OpenAI también ha señalado campañas de destilación similares por parte de empresas chinas contra GPT-4. El patrón sugiere una estrategia coordinada para cerrar la brecha tecnológica usando los modelos occidentales como atajos.
Cómo te afecta como usuario
Si usas Claude, ChatGPT u otros asistentes de IA, esta situación tiene implicaciones directas:
- Seguridad de tus datos: aunque Anthropic asegura que los datos de usuarios no fueron comprometidos, las cuentas fraudulentas sí accedieron al mismo servicio
- Posibles restricciones: las empresas de IA podrían implementar controles más estrictos que afecten la experiencia de uso
- Precios: el costo de combatir estos abusos podría trasladarse a los precios de suscripción
Qué sigue
Anthropic ha reforzado sus sistemas de detección y está trabajando con autoridades. La pregunta ahora es si habrá consecuencias legales reales o si estas denuncias quedarán como un capítulo más de la rivalidad tecnológica entre superpotencias. Lo que está claro es que la carrera de la IA ya no es solo sobre quién tiene el mejor modelo, sino sobre quién protege mejor su propiedad intelectual.