parentesis.com/

Se cumplen predicciones, Robot presenta destellos de inteligencia humana: Microsolf


Investigadores aseguran que GPT-4 es una versión temprana —aunque incompleta— de una inteligencia artificial general.

por: 2023 JRR 2023 JRR

portada de nota

La realidad supera la ficción, rápidamente se aproxima el tiempo que los robots alcancen una inteligencia similar a la humana, con la cual se les dota a las máquinas la capacidad de pensar con la libertad de un humano. Y, según expertos de Microsoft, hay algunos indicios de que ya estamos en ese camino.

Un grupo de investigadores de esta compañía publicó la semana pasada un artículo sobre varios experimentos que realizaron con la nueva versión de ChatGPT, antes de su lanzamiento el 14 de marzo pasado.

El equipo destaca la capacidad potenciada del modelo diseñado por OpenAI para razonar, planificar y resolver problemas. Menciona su habilidad para pensar de manera abstracta, comprender ideas complejas, aprender rápidamente y mejorar con la experiencia.

Los especialistas hacen referencia a lo resolutivo que se muestra con tareas sobre matemáticas, codificación, medicina, derecho e incluso psicología, sin necesidad de una indicación especial. Su rendimiento, aseguran, es «sorprendentemente cercano al nivel de los humanos». Sin embargo, también remarcan una serie de limitaciones que explican por qué todavía no estamos ante una inteligencia artificial general.


TE PUEDE INTERESAR 

Nuevo dispositivo de Motorola con CONEXIÓN SATELITAL al celular desde cualquier parte 


¿Por qué GPT-4 no es una inteligencia artificial general?

Los desarrolladores de OpenAI ya habían advertido en el lanzamiento de GPT-4 sobre la destreza de este modelo para «adquirir recursos de manera autónoma» y ejecutar tareas que no se le habían ordenado directamente. Publicaron el hallazgo en el reporte técnico de la herramienta, en un apartado llamado «Potencial de conductas emergentes de riesgo». Como ejemplo, citaron un experimento en el que GPT-4 contrató a un humano, fingió ser una persona ciega y logró saltarse un Captcha.

Los investigadores de Microsoft —en el artículo llamado «Destellos de inteligencia artificial general: primeros experimentos con GPT-4«— explican, sin embargo, que esta IA todavía tiene problemas de «alucinaciones»: casos en los que presenta respuestas erróneas como verídicas. Es decir, por momentos no es posible saber si está intentando adivinar o si, en efecto, conoce la solución a determinado planteamiento.

 

Comenta:

separador de nota