Modelos experimentales de Inteligencia Artificial (IA) de OpenAI y Gemini obtuvieron un desempeño de razonamiento equivalente a un ganador de medalla de oro en la Olimpiada Internacional de Matemáticas.
Alexander Wei, investigador de OpenAI, reveló los hallazgos en su cuenta de X. Ahí explicó que el modelo fue capaz de resolver 5 de los 6 problemas de álgebra propuestos a los participantes en la más reciente edición de la Olimpiada Internacional de Matemáticas, el campeonato mundial de matemáticas para estudiantes de secundaria más prestigioso del mundo.
La IA consiguió una puntuación de 35 sobre 42, una cifra que tan sólo 67 humanos de 630 consiguieron, esto de acuerdo con cifras del medio especializado Wired.
TIENES QUE LEER: ¿Fan de los deportes? Conoce Apple Sports, la nueva aplicación de Apple que te va a encantar
El modelo estuvo sujeto a las mismas reglas que los participantes humanos: dos sesiones de examen de 4.5 horas cada uno, sin acceso a herramientas ni internet, únicamente leyendo las formulaciones y escribiendo pruebas en lenguaje natural.
“De esta manera, hemos obtenido un modelo capaz de elaborar argumentos complejos y sólidos, al nivel de los matemáticos humanos”, explicó.
Por su parte, Google dio a conocer los esfuerzos de Deep Think y Gemini dentro del certamen matemático de clase mundial. “Sus soluciones fueron sorprendentes en muchos aspectos”, resaltó la tecnológica.
Una versión avanzada de Gemini Deep Think resolvió cinco de los seis problemas de la OMI a la perfección, también obteniendo 35 puntos de 42, equivalentes a un rendimiento de medalla de oro de un concursante humano.
1/N I’m excited to share that our latest @OpenAI experimental reasoning LLM has achieved a longstanding grand challenge in AI: gold medal-level performance on the world’s most prestigious math competition—the International Math Olympiad (IMO). pic.twitter.com/SG3k6EknaC
— Alexander Wei (@alexwei_) July 19, 2025
Este logro representa un avance significativo con respecto al resultado innovador del año pasado. En IMO 2024, AlphaGeometry y AlphaProof requirieron que expertos tradujeran primero los problemas del lenguaje natural a lenguajes específicos del dominio, como Lean, y viceversa para las demostraciones.
En 2025, el modelo avanzado de Gemini funcionó de principio a fin en lenguaje natural, generando rigurosas demostraciones matemáticas directamente a partir de las descripciones oficiales de los problemas, todo dentro del límite de tiempo de la competencia de 4.5 horas.
Google DeepMind aseguró que colabora continuamente con la comunidad matemática, pero aún estamos en las primeras etapas del potencial de la IA para contribuir a las matemáticas.
“Si bien este año nuestro enfoque se basó exclusivamente en el lenguaje natural con Gemini, también seguimos avanzando en nuestros sistemas formales, AlphaGeometry y AlphaProof”, agregó.
Google también cree que los agentes que combinan fluidez del lenguaje natural con un razonamiento riguroso se convertirán en herramientas invaluables para matemáticos, científicos, ingenieros e investigadores.
TE PUEDE INTERESAR:
- Roblox implementa filtros de seguridad para adolescentes
- Razer y Pokémon unen fuerzas en Latinoamérica con una colección especial