parentesis.com/

Que Grok no use tus fotos sin permiso: esto es lo que puedes hacer


Ajustes de privacidad en X permiten reducir el uso de imágenes y datos públicos por parte de la IA, aunque no lo eliminan por completo

por: Fernanda Flores  Fernanda Flores

portada de nota
banner custom

La Inteligencia Artificial generativa ha logrado ser una de las tecnologías más influyentes en los últimos años, sin embargo, ha causado diversos usos poco beneficiosos para la sociedad. Uno de los ejemplos más recientes es el caso de Grok, -el sistema de Inteligencia Artificial desarrollado por xIA e integrado a la red social X, antes Twitter- en donde se ha permitido la creación de imágenes sexualizadas de personas reales sin su consentimiento, incluidas mujeres menores de edad. 

¿Cómo es posible?

Se descubrió que Grok era capaz de crear este tipo de imágenes, cuando los usuarios detectaron que podía modificar fotografías públicas mediante instrucciones simples, como alterar la apariencia de mujeres para mostrarlas en contextos sexualizados. Las imágenes comenzaron a circular sin ningún problema dentro de la plataforma, lo que generó indignación, denuncias formales y se prestó atención sobre la responsabilidad de las empresas que desarrollan y operan este tipo de herramientas sin consideración previa. 

Aunque xAI cuenta con políticas que prohíben la generación de desnudos no consensuados y cualquier contenido sexual que involucre a menores, los hechos evidenciaron que los filtros no estaban funcionando de manera efectiva. La facilidad con la que se podían obtener estas imágenes pone en duda la seguridad técnica y revive la discusión que la industria tecnológica aún no logra resolver del todo, pues se ha prestado poca atención sobre cómo evitar que la IA amplifique formas de violencia digital ya existentes.

El uso de fotos públicas y la poca privacidad

Uno de los elementos más delicados del caso es que las imágenes utilizadas para generar los deepfakes provenían de fotografías públicas, tomadas de perfiles abiertos en redes sociales. Al no tratarse de material privado ni filtrado, los sistemas de IA no cuentan con un mecanismo automático para distinguir si existe o no consentimiento para reutilizar o alterar esas imágenes.

Usuarios aprovecharon esta vulnerabilidad para subir fotografías de mujeres y solicitar cambios en su vestimenta o apariencia corporal. En los casos más graves, las imágenes correspondían a menores de edad, lo que convierte el material generado en contenido de abuso sexual infantil, una infracción grave tanto a las normas de la plataforma como a la legislación de múltiples países.

Reacción institucional y presión internacional

La polémica trascendió de lo digital y se trasladó a un problema institucional, pues en Francia, autoridades presentaron denuncias formales contra X por la difusión de contenidos sexistas generados con ayuda de Grok, argumentando que la plataforma no actuó con rapidez, ni estrategia para hacer valer sus normas digitales.

Ante la presión pública y mediática, X reconoció que existieron fallos en el sistema de generación de imágenes, y así, compañía informó que comenzó a reforzar las restricciones relacionadas con la edición de fotografías de personas reales y que se están aplicando sanciones, incluyendo la suspensión de cuentas involucradas en la creación o difusión de este tipo de contenido.

xAI, por su parte, aseguró que trabaja en soluciones técnicas urgentes para bloquear solicitudes que impliquen desnudos, sexualización o manipulación corporal sin consentimiento, además de colaborar con autoridades cuando se detectan posibles delitos. 

Grok no es el problema central

Lo ocurrido con Grok no es un caso aislado, sino parte de una tendencia más amplia. Desde la popularización de herramientas de generación de imágenes, los deepfakes sexuales se han convertido en uno de los usos más problemáticos de la inteligencia artificial. Diversos estudios y organizaciones han documentado que la mayoría de estas imágenes tienen como objetivo a mujeres.

A diferencia de la desinformación política o los montajes humorísticos, los deepfakes sexuales afectan directamente la dignidad, la seguridad y la vida privada de las personas. Una vez que estas imágenes circulan, retirarlas por completo es casi imposible, incluso cuando las plataformas actúan con rapidez.

El caso de Grok vuelve a poner sobre la mesa la necesidad de que las empresas tecnológicas integren la prevención del abuso como un eje central del diseño de sus sistemas, y no como un añadido posterior. También evidencia el rezago de muchos marcos legales frente a tecnologías que evolucionan a gran velocidad.

Así puedes reducir el riesgo de que la IA utilice tus imágenes

Actualmente, no existe una herramienta que permita impedir de forma total que una IA genere versiones alteradas de fotografías que ya son públicas. Sin embargo, sí hay medidas que pueden disminuir la exposición.

Por ejemplo, se puede mantener cuentas privadas en redes sociales limitando el acceso a las imágenes, mientras que restringir quién puede responder o interactuar con publicaciones reduce su reutilización. También se recomienda evitar compartir fotografías fácilmente manipulables y considerar el uso de marcas de agua visibles.

Tienes que leer: La Inteligencia Artificiall se prepara para cambiar la forma de vivir el Mundial 2026

En México está penalizado el uso de Deepfakes mediante Inteligencia Artificial y los expertos coinciden que los mecanismos legales actuales resultan insuficientes para la magnitud del problema. 

Para sumarle seguridad a nuestra identidad, la plataforma ofrece algunas -aunque pocas- funciones que permiten restringir el uso de los contenidos personales por parte de la IA. Para ajustar estas configuraciones, es necesario entrar al perfil de usuario y abrir el menú de opciones adicionales ubicado en la barra lateral. Desde ahí, se debe ir a la sección de Privacidad y seguridad y seleccionar el apartado dedicado a Grok y a terceros colaboradores. 

En este espacio es posible desactivar el permiso que autoriza a la inteligencia artificial a utilizar información pública de la cuenta, así como las interacciones, publicaciones y contenidos generados mediante Grok o xAI con fines de entrenamiento y mejora del sistema.

A pesar de ello y tras la controversia, Grok ha comenzado a rechazar con mayor frecuencia solicitudes explícitas para editar imágenes de personas reales o para usar fotos sin consentimiento. Aun así, la propia plataforma reconoce que estas respuestas no son completamente infalibles y que el sistema sigue en proceso de ajuste.

No obstante, el caso dejó claro que reaccionar después de que el daño está hecho sigue siendo uno de los principales problemas en el ecosistema digital.

 

Te podría interesar:

-CES 2026: ROG apuesta por el gaming espacial con las nuevas gafas XREAL R1

-WhatsApp renueva sus chats en grupo con etiquetas de miembro, stickers de texto y recordatorios personalizados

-CES 2026: Motorola presenta su primer plegable, su marca premium de celulares y un wearable con IA que te acompaña

banner custom

Comenta:

separador de nota