La Inteligencia Artificial generativa ha logrado ser una de las tecnologÃas más influyentes en los últimos años, sin embargo, ha causado diversos usos poco beneficiosos para la sociedad. Uno de los ejemplos más recientes es el caso de Grok, -el sistema de Inteligencia Artificial desarrollado por xIA e integrado a la red social X, antes Twitter- en donde se ha permitido la creación de imágenes sexualizadas de personas reales sin su consentimiento, incluidas mujeres menores de edad.Â
¿Cómo es posible?
Se descubrió que Grok era capaz de crear este tipo de imágenes, cuando los usuarios detectaron que podÃa modificar fotografÃas públicas mediante instrucciones simples, como alterar la apariencia de mujeres para mostrarlas en contextos sexualizados. Las imágenes comenzaron a circular sin ningún problema dentro de la plataforma, lo que generó indignación, denuncias formales y se prestó atención sobre la responsabilidad de las empresas que desarrollan y operan este tipo de herramientas sin consideración previa.Â
Aunque xAI cuenta con polÃticas que prohÃben la generación de desnudos no consensuados y cualquier contenido sexual que involucre a menores, los hechos evidenciaron que los filtros no estaban funcionando de manera efectiva. La facilidad con la que se podÃan obtener estas imágenes pone en duda la seguridad técnica y revive la discusión que la industria tecnológica aún no logra resolver del todo, pues se ha prestado poca atención sobre cómo evitar que la IA amplifique formas de violencia digital ya existentes.
El uso de fotos públicas y la poca privacidad
Uno de los elementos más delicados del caso es que las imágenes utilizadas para generar los deepfakes provenÃan de fotografÃas públicas, tomadas de perfiles abiertos en redes sociales. Al no tratarse de material privado ni filtrado, los sistemas de IA no cuentan con un mecanismo automático para distinguir si existe o no consentimiento para reutilizar o alterar esas imágenes.
Usuarios aprovecharon esta vulnerabilidad para subir fotografÃas de mujeres y solicitar cambios en su vestimenta o apariencia corporal. En los casos más graves, las imágenes correspondÃan a menores de edad, lo que convierte el material generado en contenido de abuso sexual infantil, una infracción grave tanto a las normas de la plataforma como a la legislación de múltiples paÃses.
Reacción institucional y presión internacional
La polémica trascendió de lo digital y se trasladó a un problema institucional, pues en Francia, autoridades presentaron denuncias formales contra X por la difusión de contenidos sexistas generados con ayuda de Grok, argumentando que la plataforma no actuó con rapidez, ni estrategia para hacer valer sus normas digitales.
Ante la presión pública y mediática, X reconoció que existieron fallos en el sistema de generación de imágenes, y asÃ, compañÃa informó que comenzó a reforzar las restricciones relacionadas con la edición de fotografÃas de personas reales y que se están aplicando sanciones, incluyendo la suspensión de cuentas involucradas en la creación o difusión de este tipo de contenido.

xAI, por su parte, aseguró que trabaja en soluciones técnicas urgentes para bloquear solicitudes que impliquen desnudos, sexualización o manipulación corporal sin consentimiento, además de colaborar con autoridades cuando se detectan posibles delitos.Â
Grok no es el problema central
Lo ocurrido con Grok no es un caso aislado, sino parte de una tendencia más amplia. Desde la popularización de herramientas de generación de imágenes, los deepfakes sexuales se han convertido en uno de los usos más problemáticos de la inteligencia artificial. Diversos estudios y organizaciones han documentado que la mayorÃa de estas imágenes tienen como objetivo a mujeres.
A diferencia de la desinformación polÃtica o los montajes humorÃsticos, los deepfakes sexuales afectan directamente la dignidad, la seguridad y la vida privada de las personas. Una vez que estas imágenes circulan, retirarlas por completo es casi imposible, incluso cuando las plataformas actúan con rapidez.
El caso de Grok vuelve a poner sobre la mesa la necesidad de que las empresas tecnológicas integren la prevención del abuso como un eje central del diseño de sus sistemas, y no como un añadido posterior. También evidencia el rezago de muchos marcos legales frente a tecnologÃas que evolucionan a gran velocidad.
Asà puedes reducir el riesgo de que la IA utilice tus imágenes
Actualmente, no existe una herramienta que permita impedir de forma total que una IA genere versiones alteradas de fotografÃas que ya son públicas. Sin embargo, sà hay medidas que pueden disminuir la exposición.
Por ejemplo, se puede mantener cuentas privadas en redes sociales limitando el acceso a las imágenes, mientras que restringir quién puede responder o interactuar con publicaciones reduce su reutilización. También se recomienda evitar compartir fotografÃas fácilmente manipulables y considerar el uso de marcas de agua visibles.

Tienes que leer: La Inteligencia Artificiall se prepara para cambiar la forma de vivir el Mundial 2026
En México está penalizado el uso de Deepfakes mediante Inteligencia Artificial y los expertos coinciden que los mecanismos legales actuales resultan insuficientes para la magnitud del problema.Â
Para sumarle seguridad a nuestra identidad, la plataforma ofrece algunas -aunque pocas- funciones que permiten restringir el uso de los contenidos personales por parte de la IA. Para ajustar estas configuraciones, es necesario entrar al perfil de usuario y abrir el menú de opciones adicionales ubicado en la barra lateral. Desde ahÃ, se debe ir a la sección de Privacidad y seguridad y seleccionar el apartado dedicado a Grok y a terceros colaboradores.Â
En este espacio es posible desactivar el permiso que autoriza a la inteligencia artificial a utilizar información pública de la cuenta, asà como las interacciones, publicaciones y contenidos generados mediante Grok o xAI con fines de entrenamiento y mejora del sistema.
A pesar de ello y tras la controversia, Grok ha comenzado a rechazar con mayor frecuencia solicitudes explÃcitas para editar imágenes de personas reales o para usar fotos sin consentimiento. Aun asÃ, la propia plataforma reconoce que estas respuestas no son completamente infalibles y que el sistema sigue en proceso de ajuste.
No obstante, el caso dejó claro que reaccionar después de que el daño está hecho sigue siendo uno de los principales problemas en el ecosistema digital.
Â
Te podrÃa interesar:
-CES 2026: ROG apuesta por el gaming espacial con las nuevas gafas XREAL R1