La polémica de Grok en torno a la generación de imágenes sexualizadas ya se mide en cifras. El análisis de una ONG calculó la creación de más de 3 millones de imágenes, de los cuales 23 mil eran de menores de edad.
El Centro para la Lucha contra el Odio Digital (CCDH, por sus siglas en inglés) utilizó un modelo estadístico para determinar que la Inteligencia Artificial (IA) de Elon Musk produjo 3 millones 2 mil 712 imágenes sexualizadas de adultos y niños. De esa cifra, 23 mil 338 eran de posibles menores de edad.
Además, el estudio calcula que se generó 190 imágenes sexualizadas por minuto durante un periodo de 11 días. Una imagen cada 41 segundos, cuando se trataba de aquellas con posibles menores de 18 años.
TIENES QUE LEER: El Senado de EU aprueba ley para proteger a víctimas de deepfakes sexuales y no consensuadas
Los investigadores del CCDH estimaron el volumen de imágenes sexualizadas por Grok y publicadas en X considerando la popularidad de la función el 29 de diciembre de 2025 hasta finales del 8 de enero, un día antes de que la opción fuera restringida a usuarios de pago.
“No se analizaron las indicaciones utilizadas para crear las imágenes, por lo que los hallazgos no permiten evaluar cuántas imágenes se crearon sin el consentimiento de las personas retratadas ni cuántas imágenes fueron alteradas y ya sexualizadas”, explicó la organización.
Las estimaciones se calcularon a través de un análisis de una muestra aleatoria de 20 mil imágenes del total más amplio de 4.6 millones producidas por la función de generación con Grok durante el tiempo estudiado, lo que permitió a los investigadores establecer estimaciones sobre la prevalencia más amplia de dichas imágenes.
Posteriormente, los investigadores usaron una herramienta de IA para identificar la proporción de estas imágenes que representan imágenes sexualizadas de personas con un estilo fotorrealista, con una precisión del 95%. Sin embargo, además de la asistencia de la IA para identificar imágenes sexualizadas de menores de edad, también fueron revisadas manualmente para confirmar el criterio.

La ONG alertó que, al 15 de enero, 29 de 101 de las imágenes sexualizadas de menores de edad identificadas en el recuento en la muestra, todavía eran accesibles públicamente en X. Incluso, en los casos en que se habían eliminado publicaciones, aún conservaba el acceso a dichas imágenes a través de enlaces independientes.
En ese mismo periodo de 11 días, Grok también generó 9,900 imágenes sexualizadas de niños pero con estilo de dibujos animados. Las 43 imágenes revisadas manualmente en esta categoría generalmente eran de estilo anime.
Cabe recalcar que el estudio no capturó las imágenes originales ni las indicaciones utilizadas para crear imágenes de este estilo, por lo que no distinguió entre las imágenes creadas con la función "Editar imagen" de Grok y las generadas por usuarios que incitaron a Grok sin referencia a una imagen original.
Si bien Grok tomó medidas al respecto, aunque llegó tarde, la rápida propagación de esta clase de contenido generó impactos en Estados Unidos y en otras partes del mundo. En Washington, se espera la aprobación de una Ley que proteja la creación de imágenes sexualizadas con IA sin el consentimiento de los titulares; mientras que autoridades de Malasia e Indonesia prohibieron el acceso de la IA en sus países.
TE PUEDE INTERESAR:
- ¿Epic Games y Google amigos otra vez? Habría una colaboración entre ambas empresas por 800 mdd
- Uber Eats lanza campaña con más de 60 taquerías para que sus salsas nunca dejen de picar
- Netflix se enfrenta a TikTok con futuro rediseño para contenidos verticales