La startup china de IA DeepSeek acaba de anunciar el modelo DeepSeek-Math-V2 un nuevo paso en la direccion del desarrollo de la inteligencia artificial con capacidad de razonamiento matematico de alto nivel.
Lanzado el 27 de noviembre hora local el modelo esta especialmente diseñado para crear y autotestar teorias complejas al tiempo que muestra una fuerte capacidad de demostracion gracias a un conjunto de habilidades de razonamiento avanzadas.
DeepSeek-Math-V2 es una version especializada en matematicas heredada de DeepSeek-V3.2-Exp un modelo de prueba que se presento en septiembre de este año.
Todo el peso del modelo se hace publico bajo la licencia de codigo abierto Apache 2.0 en plataformas grandes como Hugging Face y GitHub lo que permite a la comunidad de investigacion acceder y expandirse.
Segun DeepSeek el nuevo modelo diseñado gira en torno a la filosofia de la 'prueba autoevaluada' que consta de dos componentes principales: un programa de acreditacion especializado en la comprobacion paso a paso de las pruebas de matematicas; un programa de creacion de teoria que tiene la capacidad de detectar y corregir errores por si mismo.
Este enfoque ayuda al modelo no solo a crear la solucion final sino que tambien garantiza la precision de todo el proceso de razonamiento.
En el documento tecnico adjunto DeepSeek señala que los metodos basados en el aprendizaje intensivo para optimizar la respuesta final han ayudado a los LLM a obtener altos resultados en concursos como AIME o HMMT pero ahora han comenzado a revelar limitaciones.
La respuesta correcta al final no garantiza que el modelo haya sido razonado correctamente especialmente con misiones de demostracion que requieren argumentos estrictos paso a paso.
Por lo tanto DeepSeek-Math-V2 fue construido para ampliar la capacidad de razonamiento auto-examinando y aumentando las pruebas de logica durante el tiempo de ejecucion.
En cuanto al rendimiento Math-V2 logro resultados impresionantes al ser probado en los problemas de la Olimpiada Internacional de Matematicas (IMO) 2025 y la Olimpiada Matematica CREST (CMO) 2024.
Se registro que el modelo obtuvo una puntuacion equivalente a una medalla de oro de la IMO 2025 y al mismo tiempo obtuvo 118/120 puntos en el problema del concurso Putnam 2024 uno de los concursos de matematicas mas dificiles del mundo.
DeepSeek cree que estos resultados demuestran que el razonamiento matematico autotestable es una direccion de desarrollo factible que abre oportunidades para construir sistemas de IA matematicos mas potentes en el futuro.
Cabe destacar que el rendimiento de Math-V2 se evalua a la par con los modelos de OpenAI y Google DeepMind que son dos unidades que dominan el campo de la IA matematica.
2025 es tambien la primera vez que la IMO reconoce oficialmente los modelos de IA participantes marcando la transformacion de la comunidad matematica.
Aunque Google esta en el primer grupo reconocido DeepSeek y OpenAI aun no han sido incluidos en esta lista.
Los expertos creen que el desarrollo de modelos de IA con capacidad de razonamiento profundo puede ayudar a resolver muchos problemas que duran decadas en campos como la criptografia la fisica teorica o la exploracion espacial.
Se espera que DeepSeek-Math-V2 sea un trampolin importante para la proxima generacion de IA matematicas.