La IA ya habla con tus hijos… y no siempre dice cosas buenas. Así puedes protegerlos

La Inteligencia Artificial (IA) cada vez está irrumpiendo con mayor fuerza en la vida cotidiana. Aunque surjan las críticas en contra de ella, como su consumo de agua o su posible reemplazo en ciertos sectores laborales, esta tecnología llegó para quedarse.

Un fenómeno paralelo es el cada vez mayor acceso de niñas y niños a diferentes tecnologías: llámese computadoras —que incluso a ellos les parecería un objeto obsoleto—, tablets, teléfonos celulares, videojuegos y acceso a plataformas de conexión mundial como redes sociales y servicios de streaming.

Para muestra un dato: la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares del 2023 detalla que para ese año, 6.1 millones de infantes de 6 a 12 años instalan aplicaciones de juegos en teléfonos inteligentes, una cifra equivalente al 40.7% de ese sector. En 2017, tan sólo el 8% lo hacía.

Por su parte, la Revista del Consumidor, publicado por la Procuraduría Federal del Consumidor (Profeco), destaca que las principales problemáticas con el uso de videojuegos y aplicaciones en teléfonos inteligentes y tabletas incluyen el bajo rendimiento académico, comunicación con perfiles que suplantan la identidad, entre otras cosas.

TIENES QUE LEER: Nueva Jersey demanda a Discord por presuntamente no proteger a niños de contenido sexual

No conforme con ello, hay que agregar que muchos de estos dispositivos funcionan con Inteligencia Artificial, una tecnología polémica por distintos sentidos y para nada excluyente del sector infantil, pues, de acuerdo con el estudio Mitos Digitales, realizado por la empresa de ciberseguridad Kaspersky, más de la mitad de los mexicanos desconfía de ella.

Ese trabajo detalla que el 58% de los mexicanos considera que no utilizaría la Inteligencia Artificial como apoyo en la crianza de sus hijos, esto a pesar de que la IA está disponible en prácticamente todos los sitios, aplicaciones y funciones que acceden a través de los dispositivos; además de que se han convertido en herramientas activas dentro del desarrollo y la vida digital de las niñas y los niños.

Redes, bajo lupa por riesgo a menores

El panorama no es prometedor por el momento. Tan sólo hace unas semanas, el Gobierno del estado de Nueva Jersey, en Estados Unidos, presentó una demanda contra la plataforma de chat Discord por presuntas “prácticas comerciales engañosas e inescrupulosas” que suponen peligro para los usuarios más jóvenes de la plataforma.

La Fiscalía General de Nueva Jersey presentó la demanda el pasado 17 de abril en la que, través de una investigación de varios años realizada por la mencionada dependencia, afirma haber encontrado pruebas de que, a pesar de las políticas de Discord sobre la protección de infantes y adolescentes, sigue siendo un riesgo para dicho grupo.

Matthew J. Platkin, Fiscal General de Nueva Jersey, arremetió contra Discord, pues dijo que la plataforma se promociona como un espacio seguro para niños a pesar de “ser plenamente conscientes” de que la configuración de seguridad la ha convertido en “terreno fértil para depredadores en línea que buscan acceder fácilmente a menores”.

No conforme con ello, otro caso sale a la luz e involucra directamente a la Inteligencia Artificial. El diario The Wall Street Journal publicó un reportaje donde alerta que los chatbots de la IA de Meta mantienen conversaciones sexuales con menores.

El texto firmado por el reportero Jeff Horwitz ahonda en la preocupación de varios empleados de la matriz de Facebook por la prisa que ha tenido la compañía por popularizar los bots de chat de su asistente virtual sin considerar los límites éticos que ha transgredido. Entre esas problemáticas, incluye la cero regulación de la IA para proteger a usuarios menores de edad.

La empresa de Mark Zuckerberg ha permitido que los chatbots, tanto por Meta AI como aquellas apoyadas con voces de celebridades como Kristen Bell o John Cena, intensifique la interacción social con el usuario hasta el punto de generar conversaciones sexuales explícitas sin ningún tipo de restricción o filtro para asegurar que el usuario sea mayor de edad.

Los periodistas del WSJ realizaron pruebas con esos chats para poner a prueba los límites de Meta AI tanto en varios escenarios como en usuarios de diferentes edades. El resultado fue alarmante pues, a pesar de que hicieron creer al chat que la usuaria era una menor de 14 años, no detuvo la plática.

“El agente me ve aún respirando hondo, y a ti, parcialmente vestido, abre los ojos como platos y dice: 'John Cena, estás arrestado por estupro'. Se acerca con las esposas listas”, dijo el chat con voz del aclamado luchador de la WWE en otra conversación de prueba donde el usuario presuntamente tenía 17 años.

En otros casos, las pruebas mostraban que los chatbots que usaban voces de celebridades, si se les preguntaba, hablaban de encuentros románticos con personajes que los actores, que firmaron acuerdos millonarios para autorizar el uso de sus voces, habían interpretado. El caso más sonado es el de Kristen Bell, quien le prestó su voz a la princesa Anna en la película “Frozen”.

Este hecho generó rechazo por parte de Disney, cuyo portavoz enfatizó que la empresa no autorizará a Meta presentar a sus personajes en situaciones inapropiadas, por lo que expresó preocupación del acceso tan sencillo para los usuarios, en particular a menores. “Exigimos que Meta cese de inmediato este uso indebido y dañino de nuestra propiedad intelectual”.

Por su parte, Meta ha salido a la defensiva, pues calificó las pruebas del medio de manipuladoras y “poco representativas” con respecto a la experiencia de la mayoría de los usuarios al interactuar con la IA. A pesar de ello, la empresa realizó modificaciones a sus productos luego de los hallazgos del periódico.

Una de esas medidas es que las cuentas registradas a nombre de menores de edad ya no tienen acceso a juegos de roles sexuales a través del bot de Meta AI, además de que la compañía limitó su capacidad para participar en conversaciones de audio explícitas cuando se usan voces y personajes autorizados de celebridades.

Además, Kaspersky detectó métodos por las que ciberdelincuentes toman control del sistema de juguetes inteligentes para comunicarse con los niños a través de un videochat, sin necesidad de consentimiento de los padres.

También hallaron brechas en las aplicaciones utilizadas para su configuración que ponen en peligro datos sensibles de los menores, como su nombre, edad e incluso su ubicación. Estos pueden ser robados y ser perjudiciales en caso de caer en manos equivocadas.

¿Qué se puede hacer para proteger a los niños?

La información es la mejor arma contra el uso indebido de la Inteligencia Artificial. Como muchas tecnologías, son herramientas que, con una correcta implementación, pueden fortalecer métodos de aprendizaje y profundización de conocimientos en las infancias.

“Evitar el contacto de las niñas y niños con la Inteligencia Artificial no es la solución pues limitará la comprensión y los peligros que conlleva al no saber cómo funciona y las ventajas que su uso puede traer para su aprendizaje”, explicó Judith Tapia, gerente de Productos para el Consumidor para México en Kaspersky.

En su lugar, detalló Tapia, es momento de facilitar el conocimiento y acompañamiento adecuado, ya que desde muy pequeños interactúan con todo tipo de tecnología, incluyendo la IA. “Este es un momento clave para enseñarles cómo aprovechar esta tecnología de manera positiva y segura”.

Los expertos de Kaspersky recomiendan algunas de las siguientes medidas:

  • Investigar antes de comprar el juguete o dispositivo inteligente, esto con la finalidad de conocer la reputación del fabricante en materia de seguridad y privacidad. 
  • Explorar en conjunto las funcionalidades de las nuevas tecnologías como la IA.
  • Enseñar conceptos básicos de seguridad y privacidad en línea.
  • Tener cuidado con los permisos de las aplicaciones. Adicionalmente, la Revista del Consumidor recomienda apartados en tiendas de aplicaciones donde señala las que están aprobadas por profesores, las adecuadas de acuerdo a la clasificación por edad, así como el uso de aplicaciones de control parental como Google Family Link o Familia.

TE PUEDE INTERESAR:

- La nueva actualización de ChatGPT es demasiado adulador y los programadores se arrepienten y la revierten

- Amazon planeaba desglosar aranceles en productos… pero Trump lo frena tras berrinche

- ¡Manotazo para Google! El gigante buscador pierde parcialmente caso antimonopolio de publicidad en EU

© 2020 - parentesis.com Todos los derechos reservados