parentesis.com/

Anthropic acusa a empresas chinas de usar “destilación” para extraer datos de su IA Claude


La compañía detectó millones de interacciones fraudulentas destinadas a replicar capacidades de su modelo.

por: Fernanda Flores Fernanda Flores

portada de nota
banner custom

La empresa de IA, Anthropic denunció que tres compañías de tecnología residentes de China realizaron ataques masivos de “destilacióncontra su modelo de IA Claude, con el objetivo de mejorar sus propios sistemas sin desarrollar la tecnología desde cero. Según la firma, las operaciones incluyen millones de interacciones automatizadas y el uso de millas de cuentas falsas, lo que representa yna violación directa a sus términos de servicio.

Recientemente los modelos de IA han generado manipulación por su poca participación en los derechos de autor, apropiándose de intelectualidad ajena y sobrepasando la seguridad digital en muchos aspectos. 

Un error dentro de la automatización

De acuerdo con la investigación interna de Anthropic, las empresas DeepSeek, Moonshot AI y MiniMax habrían generado más de 16 millones de interacciones automatizadas con Claude utilizando unas 24 mil cuentas fraudulentas.

La compañía logró detectar patrones técnicos que levantaron sospechas, pues entre el tráfico sincronizado desde direcciones IP compartidas el comportamiento era repetitivo en cuanto a solicitudes y avisos específicamente diseñados para extraer capacidades avanzadas del sistema, como razonamiento paso a paso, uso de herramientas y generación de códigos. 

En el informe se menciona que cada empresa siguió estrategias distintas, por ejemplo, DeepSeek habría realizado entre cientos de millas y hasta 13 millones de consultas, centradas en obtener explicaciones detalladas y métodos alternativos para responder preguntas restringidas. Por su parte, Moon Shoot AI ejecutó más de 3,4 millones de consultas, convirtiéndose en el mayor volumen detectado, con una estrategia que consistía en adaptarse rápidamente a nuevas versiones del modelo.

Tienes que leer: Sheinbaum busca demandar a Elon Musk tras acusación de seguridad y carteles

Sin embargo, actualmente ninguna de las compañías acusadas ha emitido una respuesta pública a las acusaciones. 

Pero, ¿qué fue lo que exactamente hicieron las compañías?

La destilación es una técnica común en aprendizaje automático que permite entrenar un modelo más pequeño utilizando las respuestas de otro más avanzado. En condiciones normales, se trata de un proceso legítimo dentro de laboratorios que poseen sus propios sistemas.

Sin embargo, el problema surge cuando se emplea de forma externa para “extraer” conocimientos de un modelo propietario mediante el envío masivo de consultas automatizadas. Esto permite a las empresas ahorrar tiempo, recursos y costos de entrenamiento, ya que replican capacidades sin construirlas desde cero.
Por lo que se señala que este tipo de prácticas se encuentra en una zona gris legal, pero suele considerarse abuso cuando viola contratos de uso o implica acceso no autorizado a servicios.

Anthropic notó algo raro en sus metadatos

La compañía explicó que identificó las actividades mediante análisis de metadatos, monitoreo de tráfico y corroboración con otras empresas del sector. Parte de la evidencia provino de coincidencias en patrones técnicos y comportamiento de cuentas.


Anthropic también señaló que comparte información de seguridad con otras firmas tecnológicas. De hecho, OpenAI ya había acusado previamente a DeepSeek, en 2025, de intentar extraer información de sus modelos mediante métodos similares.

Tras detectar los ataques, Anthropic implementó nuevas medidas de protección, entre ellas:

  • Sistemas automáticos para detectar patrones de uso sospechosos
  • Verificación reforzada de cuentas
  • Nuevos controles de acceso en su API
  • Clasificadores para identificar intentos de extracción masiva

Además, la empresa manifestó su apoyo a políticas de control tecnológico impulsadas por Estados Unidos, que buscan limitar el acceso a herramientas avanzadas de IA para preservar el liderazgo en este campo.

Podría ser un escenario común en la carrera de la IA

El caso ocurre en un momento en el que la competencia global por la inteligencia artificial se ha intensificado de forma notable. En los últimos años, el desarrollo de modelos avanzados se ha convertido en una prioridad estratégica para empresas tecnológicas y gobiernos, debido a su impacto en productividad, economía digital, seguridad y liderazgo tecnológico.

Entrenar un modelo de IA de gran escala puede costar cientos de millones de dólares y requerir enormes cantidades de datos y poder computacional. Por ello, técnicas como la destilación resultan atractivas para compañías que buscan acelerar su crecimiento, ya que permiten reducir tiempos y costos de desarrollo.

Sin embargo, este tipo de prácticas también plantea nuevos desafíos sobre propiedad intelectual, regulación y competencia justa en el sector. La situación refleja un dilema principal en la industria , donde la innovación es acelerada y las reglas dejan de ser actuales y poco revisadas. 


Te podría interesar:
- El postapocalipsis en Nintendo Switch 2 - Fallout 4: Anniversary Edition llegó hoy e incluye todos los DLC
- Review – God of War Sons of Sparta, un metroidvania entretenido y cumplidor, pero gris
- Mazda se vuelve patrocinador del Comité Olímpico Mexicano rumbo a Los Ángeles 2028

banner custom

Comenta:

separador de nota