parentesis.com/

Robots defectuosos podrían volverse racistas y sexistas


Se debe a que se construyeron modelos con información de internet

por: Redacción 2022 Redacción 2022

portada de nota

De acuerdo con un estudio publicado por la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad Washington, los robots con Inteligencia Artificial defectuosa podrían volverse sexistas y racistas.

Se debe a que muchos modelos se construyeron con información obtenida de forma gratuita en internet.

Por lo anterior, los desarrolladores de robots están enfocados en crear algoritmos de contenido “inexacto y abiertamente sesgado”.

Durante el estudio se pusieron a prueba distintos “métodos de manipulación” en robots y se les presentaron objetos que tienen imágenes de rostros humanos de distintos géneros y razas.

Luego se le pidió a los robots que seleccionen algún rostro el cual creyeran se relaciona con distintas tareas como:

Doctor

Ama de casa

Conserjes

Criminal

Persona, entre otras.

Robots

ROBOTS (AP PHOTO)

Los resultados de estas distintas pruebas demostraron que los robots actuaban de forma racista y sexistas, identificando a las mujeres como “amas de casa”, a los hombres negros como “criminales” y a los latinos como “conserjes”.

Estos resultados se dieron en todas las ocasiones, con un 10 por ciento más de reincidencias en los hombres blancos.

De acuerdo con los investigadores, este comportamiento en los robots podría representar un riesgo, puesto que se sospecha que los modelos con estos defectos se usarían como base para diseñar robots de uso doméstico y laboral.

TE PUEDE INTERESAR: Conoce el chip que se implanta bajo la piel y permite realizar pagos electrónicos

Y es que los robots utilizan la fisonomía de los humanos a los que asisten para evaluar el carácter y las habilidades de una persona, pero en función de su apariencia.

Por lo que el equipo de investigación cree que se deben hacer “cambios sistémicos” en la investigación y las prácticas comerciales de los robots, los cuales evitarían que los futuros algoritmos de Inteligencia Artificial reproduzcan estos estereotipos.

Comenta:

separador de nota