parentesis.com/

¡IAs super dotadas! Modelos de OpenAI y Gemini alcanzan oro en la Olimpiada Internacional de Matemáticas


Los modelos de ambas empresas obtuvieron un resultado equivalente a un ganador de medalla de oro en la Olimpiada Internacional de Matemáticas.

por: Carlos Daniel Martínez Carlos Daniel Martínez

portada de nota
banner custom

Modelos experimentales de Inteligencia Artificial (IA) de OpenAI y Gemini obtuvieron un desempeño de razonamiento equivalente a un ganador de medalla de oro en la Olimpiada Internacional de Matemáticas.

Alexander Wei, investigador de OpenAI, reveló los hallazgos en su cuenta de X. Ahí explicó que el modelo fue capaz de resolver 5 de los 6 problemas de álgebra propuestos a los participantes en la más reciente edición de la Olimpiada Internacional de Matemáticas, el campeonato mundial de matemáticas para estudiantes de secundaria más prestigioso del mundo.

La IA consiguió una puntuación de 35 sobre 42, una cifra que tan sólo 67 humanos de 630 consiguieron, esto de acuerdo con cifras del medio especializado Wired.

TIENES QUE LEER: ¿Fan de los deportes? Conoce Apple Sports, la nueva aplicación de Apple que te va a encantar

El modelo estuvo sujeto a las mismas reglas que los participantes humanos: dos sesiones de examen de 4.5 horas cada uno, sin acceso a herramientas ni internet, únicamente leyendo las formulaciones y escribiendo pruebas en lenguaje natural.

“De esta manera, hemos obtenido un modelo capaz de elaborar argumentos complejos y sólidos, al nivel de los matemáticos humanos”, explicó.

Por su parte, Google dio a conocer los esfuerzos de Deep Think y Gemini dentro del certamen matemático de clase mundial. “Sus soluciones fueron sorprendentes en muchos aspectos”, resaltó la tecnológica.

Una versión avanzada de Gemini Deep Think resolvió cinco de los seis problemas de la OMI a la perfección, también obteniendo 35 puntos de 42, equivalentes a un rendimiento de medalla de oro de un concursante humano.

Este logro representa un avance significativo con respecto al resultado innovador del año pasado. En IMO 2024, AlphaGeometry y AlphaProof requirieron que expertos tradujeran primero los problemas del lenguaje natural a lenguajes específicos del dominio, como Lean, y viceversa para las demostraciones.

En 2025, el modelo avanzado de Gemini funcionó de principio a fin en lenguaje natural, generando rigurosas demostraciones matemáticas directamente a partir de las descripciones oficiales de los problemas, todo dentro del límite de tiempo de la competencia de 4.5 horas.

Google DeepMind aseguró que colabora continuamente con la comunidad matemática, pero aún estamos en las primeras etapas del potencial de la IA para contribuir a las matemáticas. 

“Si bien este año nuestro enfoque se basó exclusivamente en el lenguaje natural con Gemini, también seguimos avanzando en nuestros sistemas formales, AlphaGeometry y AlphaProof”, agregó.

Google también cree que los agentes que combinan fluidez del lenguaje natural con un razonamiento riguroso se convertirán en herramientas invaluables para matemáticos, científicos, ingenieros e investigadores.

TE PUEDE INTERESAR:

- Roblox implementa filtros de seguridad para adolescentes

- Razer y Pokémon unen fuerzas en Latinoamérica con una colección especial

- X niega acusaciones francesas de fraude y manipulación de datos. "Tienen motivaciones políticas", asegura

banner custom

Comenta:

separador de nota