parentesis.com/

Máquinas que aprenden, de la inteligencia a la integridad artificial


¿Cuáles son los riesgos de la manera de aprender de las inteligencias artificiales? ¿Necesitan humanizarse?

por: Alejandro Massa Varela Alejandro Massa Varela

portada de nota
banner custom

Las inteligencias artificiales no son robots sin materia con capacidades y acciones determinadas, sino sistemas de interacción con datos que integran de manera proactiva.

Su rápida evolución en tiempo real anima a los teóricos del transhumanismo del siglo XXI a averiguar cómo integrarnos más con ellas para lograr un remplazo de los aspectos supuestamente obsoletos, limitantes o contraproducentes de nuestra humanidad.

Sin embargo, pensadores como Yuval Noaḥ Harari advierten sobre los riesgos en la manera de aprender de las inteligencias artificiales y sobre su cada vez mayor agencia en los acervos de información de nuestra especie. Este historiador israelí incluso las considera armas potenciales de destrucción masiva, siempre que no les incorporemos algo tan simple y complejo como la moralidad, empezando por la habilidad de verificar y detenerse.

Lo más urgente parece ser que estas entidades no sean solo “tecnológicas”, sino coherentes con un utilitarismo basado en nuestro bienestar. Entramos cada vez más a una época donde sistemas proactivos así rinden mejor que nosotros en ciertas tareas críticas de ámbitos tan dispares como la sanidad, la educación, el comercio y la seguridad. Pueden remplazar puestos de trabajo y están tomando ventaja sobre trabajadores no cualificados.

Sin embargo, de acuerdo con el experto en tecnología Hamilton Mann, esto va más allá de que estos sistemas logren comprender las características de las necesidades humanas: hay un problema escondido sobre las características de la verdadera inteligencia que poseemos y sobre valores “intersubjetivos”. En su opinión, debemos transitar de las inteligencias a las “integridades artificiales”, su “integración ética” al marco de los derechos humanos.

Hasta ahora, los aprendizajes automático y profundo de las inteligencias artificiales solo les permite "autoinstruirse" y capacitarse para tomar nuestro lugar en nuevas funciones. Según Hamilton, es por aquí donde debería empezar su integración: cambiando esa dinámica de remplazo por una de adaptabilidad a principios mínimos de una ética más o menos universal, modificando así la manera en que estas entidades responden a información variada.

Con una mayor supervisión nuestra de sus modelos de aprendizaje y entrenamiento, estos podrían dejar de ser solo una consecución de tareas u objetivos, logrando la identificación de valores, algo que supone reconocer no solo contenido “deepfake”, sino aquel que no se alinea a nuestros procesos de desarrollo e inclusión democrática, social y económica.

Esto implica sumarlos en un proceso abierto o que cambia con el tiempo, siendo un reto que los valores y principios humanos sean subjetivos o efecto de una perspectiva. Sin embargo, el mayor peligro sigue siendo una tecnología amoral que actué como una multiherramienta aprovechable solo por centros de poder empresariales y autocráticos.

De acuerdo con Harari, resulta peligrosa nuestra creciente dependencia de esta tecnología. El interés por integrarnos a las inteligencias artificiales es: aceptar cómodamente nuestra desaparición en un sistema colectivo que ha creado uno totalmente nuevo que, si bien fue diseñado por humanos, terminará solo por infiltrarse y adueñarse del original.

Debemos preservar nuestro juicio, experiencia y capacidad de acción en los negocios, la educación, el derecho y la atención sanitaria, e integrar a las inteligencias artificiales nuestra intuición, empatía y razonamiento humanos o ético fundamentales. Esto implica hacerlas lo suficientemente flexibles como para “recalibrarse” de acuerdo con un mundo siempre emergente y que adquiere valores de manera colaborativa, creativa y convivencial.

 

Imagen: máquinas que aprenden de nosotros, Missouri Online.

banner custom

Comenta:

separador de nota