parentesis.com/

Google I/O: ¡Gemini quiere ser tu nuevo asistente! La IA brilla con su versión 2.5 Pro


Google presentó las nuevas funciones para la Gemini 2.5 Pro, su modelo de Inteligencia Artificial.

por: Carlos Daniel Martínez Carlos Daniel Martínez

portada de nota
banner custom

Google realizó este martes I/O, su conferencia anual para desarrolladores donde presenta las nuevas herramientas que implementará el gigante tecnológico. Su asistente por Inteligencia Artificial (IA), Gemini, fue la estrella de la gala.

El nuevo modelo de IA de Google promete mejoras como la generación de conversaciones más naturales y expresivas con el asistente, esto gracias a su nueva salida de audio nativa y mejoras en Live API.

Esta nueva función permite al usuario controlar su tono, acento y estilo de habla. Por ejemplo, se le puede indicar a Gemini que use una voz dramática al contar una historia. Además, admite el uso de herramientas para que pueda realizar búsquedas por ti.

TIENES QUE LEER: Google sigue en el juego de las IA con el lanzamiento de Gemini 2.5

Algunas de las funciones iniciales con salida de audio nativa incluyen el diálogo afectivo, donde el modelo detecta la emoción en la voz del usuario y responde apropiadamente; y audio proactivo, en donde ignorará las conversaciones de fondo y sabrá cuándo responder.

Esta función de habla está disponible en más de 24 idiomas y se alterna entre ellos sin problemas. 

Gemini 2.5 Pro incluye Deep Think, un modo de razonamiento que utiliza técnicas de investigación que permiten al modelo considerar múltiples hipótesis antes de responder. Esto lo había adelantado Google en marzo, cuando explicó que buscaba que sus nuevos modelos fueran de pensamiento, capaces de razonar a través de pensamientos antes de dar una respuesta.

Asimismo, cuenta con mejoras en la experiencia de desarrollador a través de los resúmenes de pensamientos, los cuales toman las ideas originales del modelo y las organizan en un formato claro con encabezados, detalles clave e información sobre las acciones del modelo, como cuándo se usan las herramientas.

Google espera que, con un formato más estructurado y simplificado del proceso de pensamiento del modelo, los desarrolladores y usuarios encuentren que las interacciones con los modelos de Gemini son más fáciles de entender y depurar.

Gemini rumbo a la asistencia universal

La empresa californiana también dio a conocer uno de sus planes más ambiciosos: convertir a Gemini en un modelo universal que pueda hacer planes e imaginar nuevas experiencias comprendiendo y simulando aspectos del mundo, tal como lo hace el cerebro.

“Convertir a Gemini en un modelo mundial es un paso crucial en el desarrollo de un nuevo tipo de IA más general y útil: un asistente universal de IA. Se trata de una IA inteligente que comprende el contexto en el que te encuentras y que puede planificar y actuar en tu nombre, desde cualquier dispositivo”, detalló Google en un boletín.

La visión final de Google es transformar la aplicación de Gemini en un asistente de IA que sea capaz de realizar tareas cotidianas para nosotros, como encargarse de la administración mundana, mostrar recomendaciones culinarias, hacer al usuario más productivo y enriquecer sus vidas.

Los avances de Google apuntan a incorporar las capacidades en vivo del Proyecto Astra como la comprensión de videos, el uso compartido de pantalla y la memoria. Además, explicó que, durante el último año, se ha integrado esas funciones en Gemini Live para que más personas puedan disfrutarlas hoy.

TE PUEDE INTERESAR:

- IBM y el TEC de Monterrey implementarán enseñanzas de IA para los jóvenes

- ¿Qué esperar de Google I/O 2025? ¡Empieza mañana!

- Fortnite en la mira: SAG demanda a Epic por usar voz de Darth Vader con IA sin negociar condiciones

banner custom

Comenta:

separador de nota