parentesis.com/

Intenta charlar en videollamadas FaceTime con la IA, te sorprenderá


Es una aplicación que permite videollamar con inteligencia artificial, intenta probarla, aquí los pasos para el encuentro. ¿Será tu próxima amiga?

por: 2023 JRR 2023 JRR

portada de nota

Actualmente, la inteligencia artificial está de moda, principalmente porque Microsoft revolucionó la tecnología e integró el ChatGPT, esto dio paso a que más compañías se aventurada en la implementación de la IA en muchos productos, ahora hasta videollamadas con un bot de inteligencia artificial, por si fuera poco.

Cabe recordar que, aplicaciones como Call Annie, que incorpora la inteligencia artificial a un modelo gráfico representado por una mujer virtual con la que puedes hacer videollamadas desde tu iPhone.

Esto es hablar en videollamada con la IA

Resulta que un usuario de Twitter llamado @frantzfries publicó en redes sobre la experiencia que tuvo al charlar por videollamada FaceTime con un avatar de inteligencia artificial basado en ChatGPT. El resultado, según sus propias palabras, es "sorprendentemente humano".

La velocidad de respuesta del avatar de inteligencia artificial es muy alta. Como puedes apreciar en el vídeo del tweet, su conversación es clara, concisa y fluida. Como mencionamos con anterioridad, estas videollamadas de IA se pueden realizar gracias a una aplicación llamada Call Annie que podrás descargar en iPhone, en iPad y en Mac totalmente gratis.

En cuanto a Apple, refiere que actualmente desarrolla su propio modelo de IA para Siri, de tal forma que pronto podremos ponerle cara al asistente virtual. Aunque, según indican los expertos en la materia, Apple abandonó el potencial progreso de Siri debido a falta de ambición, disfunción organizacional y una base de código fuente muy problemática.

Consíguelo con esta app

Se llama Call Annie y la podemos encontrar en la App Store. Como su nombre indica, se trata de una app en la que hablamos con Annie, un avatar creado con inteligencia artificial, pero que tiene un aspecto de lo más real.

Y está alimentada por ChatGPT, por lo que conversar con ella es como hacerlo con esta inteligencia artificial de OpenAI. Lo más llamativo es lo bien conseguida esta Deepfake, ya que el movimiento de los labios está perfectamente sincronizado con las palabras que salen de su boca.

Al igual que hemos visto en otras versiones de ChatGPT, podemos elegir el tono de la conversación, para que sus respuestas sean más formales, o por el contrario más creativas y divertidas, nosotros elegimos.

Lo más sorprendente para la humanidad es que pronto podremos tener una amiga virtual con la que podemos charlar de todo, como nos ocurre normalmente con la versión de texto de ChatGPT. Dentro de la propia aplicación podemos identificarnos mediante una cuenta de Apple o de Google, si no tenemos ninguna, se puede hacer con el número de teléfono.

Esta es la primera versión de la aplicación, pero no dudamos que más adelante será posible conversar con otros avatares diferentes, también masculinos. De momento solo nos habla su conversamos en inglés, pero todo se andará lógicamente. Eso sí, para poder utilizar esta app necesitáis un iPhone medianamente moderno, que al menos cuente con iOS 16 como sistema operativo. Si no es así no puedes ni siquiera instalar la aplicación del teléfono.

Sin duda es una app que podemos tomar como un experimento, más que algo realmente útil y que pueda tener recorrido ahora mismo. Es una versión muy básica, pero nos da una idea de lo que podría ofrecernos la IA en poco tiempo, la posibilidad de tener amigos virtuales con los que conversar y quien sabe en el futuro, si intimar contándole todos nuestros problemas, y haciendo de alguna manera una terapia virtual.

Pero si tienes curiosidad de conversar con una inteligencia virtual, instala de ya está app, que como decimos es lo más cercano a un Facetime con una persona que no está realmente ante nosotros, aunque sus pensamientos y cavilaciones puedan decirnos lo contrario, esto es de lo más loco y sorprendente que hemos visto.

El problema por el que es un riesgo proyectar emociones en tecnologías como la IA, esto dicen los expertos

Igual que una imagen puede generar una sensación y un texto vehicular una emoción, hay ya personas mostrándose sorprendidas porque ChatGPT refleja su tristeza o felicidad en sus respuestas. ¿Cuál es el problema?, advierte la psicóloga Aurora Gómez, del Corio de Psicología. Cuando se proyectan emociones en esos sistemas ya no estamos pensando en la tecnología que hay detrás.

Es importante no perder de vista lo que las inteligencias artificiales no sienten. Pero al proyectar esas emociones sobre ellas, una vez se activa toda la capacidad de emoción, insiste Gómez, ya no pensamos en quién ha diseñado esta máquina, con qué fin, por qué y para qué se está utilizando. Perdemos esa capa de reflexión, y eso es preocupante.

En términos similares se expresa la especialista en ética tecnológica y auditorías algorítmicas Gemma Galdon. Al antropomorfizar la tecnología le damos unos atributos que no tienen, le imaginamos unas capacidades que no tienen. Un Tamagotchi, por ejemplo, está programado para hacer cosas que hagan pensar a los humanos que sienten y piensan. No es así.

El problema, continúa Galdon, es que proyectar emociones en la tecnología e incluso zambullirse en debates que pueden ser todavía extemporáneos lo transforma todo en un caso de ley de Amara. Esa ley de Amara, explica la tecnóloga, es la tendencia a sobrevalorar impactos futuros hipotéticos de la tecnología y a infravalorar impactos inmediatos.

Nos pasa constantemente. Mientras hablamos de si los robots deben pagar o no impuestos, o si la inteligencia artificial tiene sentimientos, no hablamos sobre cómo los modelos de decisión automatizada están impactando sobre derechos fundamentales, sobre cómo sistemas mal diseñados están tomando decisiones sesgadas, expone.

Nos olvidamos de todos esos riesgos inmediatos porque nos seduce mucho más la idea de una IA humana.

Las IA generadoras en video no sienten ni padecen, pero sí pueden ofrecerte desinformación y bulos

Javier Sánchez Monedero es doctor e investigador en la Universidad de Córdoba y en el Data Justice Lab de Cardiff (Gales, Reino Unido). En la entrevista citó las palabras de François Chollet, científico de Google y creador de la librería Keras. Si le pintamos una sonrisa a una piedra enseguida la tendemos a antropomorfizar y a pensar que la piedra está contenta.

El riesgo de la interpretación antropomórfica de la inteligencia artificial no es nuevo, pero el desafío aumenta a medida que herramientas como ChatGPT proliferan.

David Casacuberta, filósofo e investigador en tecnologías digitales, lo explicaba en una entrevista con Business Insider España: cuando un modelo de IA está recibiendo imágenes para entrenar un algoritmo de reconocimiento facial, en realidad no está reconociendo caras. Está reconociendo patrones, conjuntos de píxeles.

De la misma manera que un modelo de IA no reconoce de forma explícita el rostro de humanos, los humanos no pueden caer en el grave error de proyectar emociones a estos sistemas informáticos. No, no sienten, ríe Sánchez Monedero. Lo que hacen IA como ChatGPT es coger una secuencia de palabras más probables relacionadas con una entrada.

Por eso, proyectar emociones en una tecnología como esta puede también darle cierta autoridad que no tienen. Son instrumentos, tecnología que además puede reproducir de forma opaca sesgos humanos que pueden llegar a ser discriminatorios. Y en el ámbito de la generación de textos el riesgo es todavía mayor. Las IA también pueden crear bulos, expresaron los psicólogos sobre esta importante innovación.

Comenta:

separador de nota