parentesis.com/

Instagram avisará a los padres cuando sus hijos publiquen cosas depresivas o peligrosas


Es una actualización que irá evolucionando en distintas regiones, pero, por lo pronto es un paso para proteger la salud mental y anticiparse.

por: Fernanda Flores  Fernanda Flores

portada de nota
banner custom

Las redes sociales siempre han atravesado por el cuestionamiento sobre el impacto en la salud mental de las personas, pero sobre todo en los adolescentes. Las compañías dueñas de estas plataformas de comunicación se han visto en la responsabilidad social de crear estrategias que respondan a la seguridad de sus usuarios. 

Meta, quien administra Instagram, Facebook y WhatsApp ha optado por implementar alertas parentales específicamente en Instagram, para notificar a los padres cuando un menor busque repetidamente contenido relacionado con suicidio o autolesión.

Es por eso que, la estrategia está en camino de reforzar sus plataformas ante diversas cuestiones regulatorias.

Adelantarse a los hechos

Aunque estas nuevas herramientas sea una respuesta regulatoria, es funcional para prevenir la salud de los adolescentes. Funciona de la siguiente manera en donde se detectan específicamente patrones de comportamiento dentro del buscador de Instagram. 

Según Meta, las alertas se activarán únicamente cuando un adolescente realice varias búsquedas relacionadas con suicidio o autolesión en un periodo corto de tiempo. Esto incluye términos explícitos, así como frases que sugieran intención de encontrar contenido que promueva o romantice estas conductas.

Aunque es verdad que la plataforma ya bloquea este tipo de contenido y redirige automáticamente a recursos de apoyo y a líneas de ayuda, es importante que los tutores sepan los pensamientos y comportamientos peligrosos de los adolescentes. Por otro lado, Meta afirma que la gran mayoría de ellos no realiza este tipo de búsquedas.

Tienes que leer: ¿Cuál es el futuro de Warner? Ahora que Netflix no apuesta pagar más por ellos y se retira

En ese sentido, las alertas no buscan vigilar cada interacción, sino detectar patrones que puedan indicar un posible riesgo.

¿Cómo llegan las notificaciones a los padres?

Cuando el sistema identifica búsquedas repetidas, los padres que tengan activada la supervisión parental reciben una alerta mediante correo electrónico, SMS, WhatsApp o una notificación dentro de la propia aplicación.

Al abrirla, aparece un mensaje a pantalla completa explicando que el menor ha buscado términos asociados a suicidio o autolesión en un periodo corto. Además, se incluyen recursos diseñados por especialistas para ayudar a los padres a abordar conversaciones delicadas, con guías prácticas y orientación sobre cómo buscar ayuda profesional.

Meta subraya que el objetivo no es intervenir directamente en la relación familiar, sino ofrecer información que permita actuar de manera oportuna.

Aún es un lanzamiento gradual 

La función comenzará a implementarse primero en Estados Unidos, Reino Unido, Australia y Canadá durante las semanas posteriores al anuncio.

La empresa señaló que planea expandirse a otras regiones en 2026, aunque por ahora no existe un calendario detallado para regiones como América Latina.

Uno de los puntos más sensibles del anuncio es el equilibrio entre la protección de los menores y el respeto a su privacidad. Meta explica que el sistema utiliza un diagnóstico de sensibilidad diseñado para evitar alertas constantes. Solo se activa cuando existen múltiples intentos de búsqueda en un periodo breve.

Aun así, la compañía reconoce que podrían generarse notificaciones en casos donde no exista un riesgo inmediato real. Para regular el sistema, Meta colabora con expertos en su grupo asesor sobre suicidio y autolesión, que ayuda a definir criterios y evaluar el comportamiento de búsqueda.

La estrategia también se apoya e incluye a la IA

La empresa está integrando la IA para hacer estas herramientas más utiles y precisas, por ejemplo, se mencina que en el futuro los padres podrían recibir notificaciones si un adolescente intenta mantener conversaciones con asistentes de IA sobre suicidio o autolesión, aunque estos desarrollos aún se encuentran en fase temprana.

Actualmente si se han detectado adolescentes hablando de temas delicados asociados son chats de IA. ChatGPT es de las plataformas que más se encuentran en el centro de la discusión, pues su modelo permite que este tipo de conversaciones no tengan límites y se han registrado casos en donde las personas se han hecho daño ayudados del asistente. 

 

Te podría interesar:
-Uber dona 1 millón de pesos a organización para mujeres
-Nano Banana vuelve a actualizarse mejorando su capacidad de generar imágenes
-Wearables, audífonos, tablet mini y más: conoce TODO lo que presentó Huawei en Madrid

banner custom

Comenta:

separador de nota