Anthropic, la empresa creadora del modelo de inteligencia artificial Claude, reveló en un extenso comunicado oficial que tres de las compañías de IA más grandes de China —DeepSeek, Moonshot AI y MiniMax— ejecutaron ataques a gran escala para robar las capacidades de su sistema mediante una técnica conocida como destilación. La operación fue dada a conocer por la propia empresa a través del informe titulado "Detecting and preventing distillation attacks", publicado en su sitio oficial.
We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.
— Anthropic (@AnthropicAI) February 23, 2026
These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.
La destilación es un método mediante el cual una compañía entrena su propio modelo de IA usando las respuestas generadas por el modelo de un competidor, logrando así replicar sus capacidades sin invertir los recursos necesarios para desarrollarlas desde cero. En este caso, las tres firmas chinas apuntaron directamente contra Claude para acelerar el entrenamiento de sus propios modelos a costa del trabajo de Anthropic.
Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.
Ataque coordinado: cómo China usó la IA para robar los secretos del entrenamiento de modelos
Lo que más alarmó a Anthropic fue la escala y coordinación de la operación. Los tres actores chinos generaron en conjunto más de 16 millones de intercambios con Claude, valiéndose de aproximadamente 24,000 cuentas fraudulentas creadas específicamente para evadir los sistemas de detección. Anthropic señala que los tres laboratorios siguieron un mismo playbook: usaron servicios proxy, identidades falsas y arquitecturas de red tipo "hidra" para burlar las restricciones que la compañía impone en China, mercado donde no ofrece acceso comercial a su plataforma.
Cada actor chino tuvo además una estrategia propia. DeepSeek se enfocó en extraer datos de razonamiento en cadena —el proceso lógico paso a paso de Claude— y también capturó respuestas sobre temas políticamente sensibles para identificar alternativas que eludieran la censura. Por su parte, Moonshot AI, creadora de los modelos Kimi, llegó a correlacionar perfiles de uso con datos públicos de personal senior de la empresa, lo que sugiere un nivel de inteligencia operativa que va más allá del simple robo de datos.
China y Anthropic: la guerra por el dominio de la IA que sacude a toda la industria tecnológica
El caso más audaz fue el de MiniMax. Anthropic logró detectar su campaña mientras estaba en curso, antes de que la empresa china lanzara el modelo que estaba entrenando con los datos robados. Cuando Anthropic lanzó un nuevo sistema durante la operación activa de MiniMax, los atacantes pivotaron en menos de 24 horas para redirigir sus esfuerzos hacia el modelo más reciente y capturar sus capacidades actualizadas.
Anthropic bloqueó las cuentas, desmanteló las redes de acceso fraudulento y notificó a las autoridades correspondientes. La compañía advierte que este tipo de ataques representa una amenaza sistémica para toda la industria, no solo para sus propios modelos, ya que normaliza el robo de propiedad intelectual como estrategia de desarrollo de IA.
La empresa californiana también dejó en claro que tiene la intención de continuar monitoreando patrones de uso sospechoso y mejorar sus sistemas de detección para anticiparse a futuras campañas de este tipo. Para Anthropic, lo que ocurrió no es un incidente aislado: es la señal de que la competencia global por la IA ha entrado en una fase abiertamente agresiva, donde el espionaje industrial ya opera a velocidades y escalas que solo la propia inteligencia artificial hace posibles.
Adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.
