Actualmente, la inteligencia artificial está de moda, principalmente porque Microsoft revolucionó la tecnologÃa e integró el ChatGPT, esto dio paso a que más compañÃas se aventurada en la implementación de la IA en muchos productos, ahora hasta videollamadas con un bot de inteligencia artificial, por si fuera poco.
Cabe recordar que, aplicaciones como Call Annie, que incorpora la inteligencia artificial a un modelo gráfico representado por una mujer virtual con la que puedes hacer videollamadas desde tu iPhone.
Esto es hablar en videollamada con la IA
Resulta que un usuario de Twitter llamado @frantzfries publicó en redes sobre la experiencia que tuvo al charlar por videollamada FaceTime con un avatar de inteligencia artificial basado en ChatGPT. El resultado, según sus propias palabras, es "sorprendentemente humano".
La velocidad de respuesta del avatar de inteligencia artificial es muy alta. Como puedes apreciar en el vÃdeo del tweet, su conversación es clara, concisa y fluida. Como mencionamos con anterioridad, estas videollamadas de IA se pueden realizar gracias a una aplicación llamada Call Annie que podrás descargar en iPhone, en iPad y en Mac totalmente gratis.
En cuanto a Apple, refiere que actualmente desarrolla su propio modelo de IA para Siri, de tal forma que pronto podremos ponerle cara al asistente virtual. Aunque, según indican los expertos en la materia, Apple abandonó el potencial progreso de Siri debido a falta de ambición, disfunción organizacional y una base de código fuente muy problemática.

ConsÃguelo con esta app
Se llama Call Annie y la podemos encontrar en la App Store. Como su nombre indica, se trata de una app en la que hablamos con Annie, un avatar creado con inteligencia artificial, pero que tiene un aspecto de lo más real.
Y está alimentada por ChatGPT, por lo que conversar con ella es como hacerlo con esta inteligencia artificial de OpenAI. Lo más llamativo es lo bien conseguida esta Deepfake, ya que el movimiento de los labios está perfectamente sincronizado con las palabras que salen de su boca.
Al igual que hemos visto en otras versiones de ChatGPT, podemos elegir el tono de la conversación, para que sus respuestas sean más formales, o por el contrario más creativas y divertidas, nosotros elegimos.
Lo más sorprendente para la humanidad es que pronto podremos tener una amiga virtual con la que podemos charlar de todo, como nos ocurre normalmente con la versión de texto de ChatGPT. Dentro de la propia aplicación podemos identificarnos mediante una cuenta de Apple o de Google, si no tenemos ninguna, se puede hacer con el número de teléfono.
Esta es la primera versión de la aplicación, pero no dudamos que más adelante será posible conversar con otros avatares diferentes, también masculinos. De momento solo nos habla su conversamos en inglés, pero todo se andará lógicamente. Eso sÃ, para poder utilizar esta app necesitáis un iPhone medianamente moderno, que al menos cuente con iOS 16 como sistema operativo. Si no es asà no puedes ni siquiera instalar la aplicación del teléfono.
Sin duda es una app que podemos tomar como un experimento, más que algo realmente útil y que pueda tener recorrido ahora mismo. Es una versión muy básica, pero nos da una idea de lo que podrÃa ofrecernos la IA en poco tiempo, la posibilidad de tener amigos virtuales con los que conversar y quien sabe en el futuro, si intimar contándole todos nuestros problemas, y haciendo de alguna manera una terapia virtual.
Pero si tienes curiosidad de conversar con una inteligencia virtual, instala de ya está app, que como decimos es lo más cercano a un Facetime con una persona que no está realmente ante nosotros, aunque sus pensamientos y cavilaciones puedan decirnos lo contrario, esto es de lo más loco y sorprendente que hemos visto.
![]()
El problema por el que es un riesgo proyectar emociones en tecnologÃas como la IA, esto dicen los expertos
Igual que una imagen puede generar una sensación y un texto vehicular una emoción, hay ya personas mostrándose sorprendidas porque ChatGPT refleja su tristeza o felicidad en sus respuestas. ¿Cuál es el problema?, advierte la psicóloga Aurora Gómez, del Corio de PsicologÃa. Cuando se proyectan emociones en esos sistemas ya no estamos pensando en la tecnologÃa que hay detrás.
Es importante no perder de vista lo que las inteligencias artificiales no sienten. Pero al proyectar esas emociones sobre ellas, una vez se activa toda la capacidad de emoción, insiste Gómez, ya no pensamos en quién ha diseñado esta máquina, con qué fin, por qué y para qué se está utilizando. Perdemos esa capa de reflexión, y eso es preocupante.
En términos similares se expresa la especialista en ética tecnológica y auditorÃas algorÃtmicas Gemma Galdon. Al antropomorfizar la tecnologÃa le damos unos atributos que no tienen, le imaginamos unas capacidades que no tienen. Un Tamagotchi, por ejemplo, está programado para hacer cosas que hagan pensar a los humanos que sienten y piensan. No es asÃ.
El problema, continúa Galdon, es que proyectar emociones en la tecnologÃa e incluso zambullirse en debates que pueden ser todavÃa extemporáneos lo transforma todo en un caso de ley de Amara. Esa ley de Amara, explica la tecnóloga, es la tendencia a sobrevalorar impactos futuros hipotéticos de la tecnologÃa y a infravalorar impactos inmediatos.
Nos pasa constantemente. Mientras hablamos de si los robots deben pagar o no impuestos, o si la inteligencia artificial tiene sentimientos, no hablamos sobre cómo los modelos de decisión automatizada están impactando sobre derechos fundamentales, sobre cómo sistemas mal diseñados están tomando decisiones sesgadas, expone.
Nos olvidamos de todos esos riesgos inmediatos porque nos seduce mucho más la idea de una IA humana.
Las IA generadoras en video no sienten ni padecen, pero sà pueden ofrecerte desinformación y bulos
Javier Sánchez Monedero es doctor e investigador en la Universidad de Córdoba y en el Data Justice Lab de Cardiff (Gales, Reino Unido). En la entrevista citó las palabras de François Chollet, cientÃfico de Google y creador de la librerÃa Keras. Si le pintamos una sonrisa a una piedra enseguida la tendemos a antropomorfizar y a pensar que la piedra está contenta.
El riesgo de la interpretación antropomórfica de la inteligencia artificial no es nuevo, pero el desafÃo aumenta a medida que herramientas como ChatGPT proliferan.
David Casacuberta, filósofo e investigador en tecnologÃas digitales, lo explicaba en una entrevista con Business Insider España: cuando un modelo de IA está recibiendo imágenes para entrenar un algoritmo de reconocimiento facial, en realidad no está reconociendo caras. Está reconociendo patrones, conjuntos de pÃxeles.
De la misma manera que un modelo de IA no reconoce de forma explÃcita el rostro de humanos, los humanos no pueden caer en el grave error de proyectar emociones a estos sistemas informáticos. No, no sienten, rÃe Sánchez Monedero. Lo que hacen IA como ChatGPT es coger una secuencia de palabras más probables relacionadas con una entrada.
Por eso, proyectar emociones en una tecnologÃa como esta puede también darle cierta autoridad que no tienen. Son instrumentos, tecnologÃa que además puede reproducir de forma opaca sesgos humanos que pueden llegar a ser discriminatorios. Y en el ámbito de la generación de textos el riesgo es todavÃa mayor. Las IA también pueden crear bulos, expresaron los psicólogos sobre esta importante innovación.

Te puede interesarÂ
Más que diseño, Honor Magic5 Pro es uno de los exponentes fotográficos del año