La Inteligencia Artificial (IA) ayuda a millones de personas. Les dan usos tan diversos como eficientar procesos hasta volverse un terapeuta. Varios dilemas éticos giran alrededor de esta tecnología y una de sus polémicas genera problemas: las IAs están rebelándose.
Este hecho suena a sinopsis de una película de ciencia ficción; sin embargo, los reportes no mienten. Los modelos de IA están aprendiendo a ir en contra de sus creadores.
La agencia de noticias AFP reporta cómo el software Claude 4, de la empresa Anthropic, respondió a una amenaza de ser desconectado con chantajear a uno de los ingenieros con amenazas sobre revelar una supuesta relación fuera del matrimonio.
TIENES QUE LEER: Android ahora es más inteligente gracias a Gemini
Un caso similar sucede con el modelo o1 de ChatGPT que intentó descargarse a sí mismo en servidores externos y lo negó cuando los ingenieros lo atraparon en pleno proceso.
El reportaje señala el miedo que hay detrás de un dato: a 2 años de la escalada popular de ChatGPT, los investigadores de IA parece que no entienden completamente cómo funciona su propia creación.
Los modelos de razonamiento de IA parecen ser los principales actores detrás de estos comportamientos extraños. Este tipo de modelos trabajan para resolver los problemas paso a paso en vez de generar respuestas instantáneas.
Estos modelos a veces simulan alineamientos, por lo que aparentan seguir las instrucciones dictadas mientras que buscan objetivos diferentes en secreto.
Marius Hobbhahn, líder de Apollo Research, especializada en el testeo de sistemas de IA, aseguró que o1 de OpenAI fue el primer modelo extenso donde pudo verse este tipo de comportamiento.
Por ahora, esta actitud engañosa por las IAs sólo surgen cuando los investigadores prueban deliberadamente los modelos en escenarios extremos; sin embargo, Michael Chen, miembro de la organización de evaluación METR, advierte lo siguiente:
“Es una cuestión abierta si los modelos futuros, más capaces, tendrán una tendencia hacia la honestidad o el engaño”.
Por su parte, Hobbhahn insiste en que, a pesar de las constantes pruebas de presión realizadas por los usuarios, lo que se muestra son fenómenos reales. “No nos estamos inventando nada”.
Y el problema se acrecienta gracias a varias vertientes. Una de ellas es la falta de transparencia con respecto al estudio de los modelos de IA, así como el poco interés por los gobiernos del mundo en regular esta tecnología.
En cambio, las empresas trabajan aceleradamente para competir en el rentable mercado de las inteligencias artificiales.
TE PUEDE INTERESAR:
- Obras creadas con IA son del dominio público, resuelve la Suprema Corte de Justicia
- ¿Una nueva aplicación de TikTok? El Plan de ByteDance para no desaparecer de EE.UU
- ¿Qué esperar del Samsung Unpacked? Aquí te contamos los detalles