Microsoft presentó el miércoles varios nuevos modelos de inteligencia artificial “abiertos”, siendo el más potente de ellos competitivo con el modelo o3-mini de OpenAI en al menos una prueba. Todos estos nuevos modelos, llamados Phi 4 mini reasoning, Phi 4 reasoning y Phi 4 reasoning plus, son modelos de “razonamiento”, lo que significa que pueden dedicar más tiempo a verificar soluciones a problemas complejos. Estos modelos amplían la familia de modelos “pequeños” Phi de Microsoft, lanzada hace un año para ofrecer una base a los desarrolladores de IA que crean aplicaciones en dispositivos ligeros.
El modelo Phi 4 mini reasoning fue entrenado con aproximadamente 1 millón de problemas matemáticos sintéticos generados por el modelo de razonamiento R1 de la startup china DeepSeek. Con alrededor de 3.8 mil millones de parámetros, Phi 4 mini reasoning está diseñado para aplicaciones educativas, como tutorías integradas en dispositivos ligeros. Los parámetros son una medida de las habilidades de resolución de problemas de un modelo, y generalmente, los modelos con más parámetros funcionan mejor que aquellos con menos.
El modelo Phi 4 reasoning, que tiene 14 mil millones de parámetros, fue entrenado utilizando datos de alta calidad de la web y demostraciones seleccionadas del modelo o3-mini de OpenAI. Según Microsoft, es ideal para aplicaciones de matemáticas, ciencias y programación. Por otro lado, Phi 4 reasoning plus es una versión adaptada del modelo Phi-4 de Microsoft, transformada en un modelo de razonamiento para lograr mayor precisión en tareas específicas. Microsoft afirma que Phi 4 reasoning plus se acerca al rendimiento del modelo R1, que tiene significativamente más parámetros (671 mil millones). Además, en las pruebas internas de Microsoft, Phi 4 reasoning plus iguala el rendimiento de o3-mini en la prueba de habilidades matemáticas OmniMath.
Los modelos Phi 4 mini reasoning, Phi 4 reasoning y Phi 4 reasoning plus están disponibles en la plataforma de desarrollo de IA Hugging Face, junto con informes técnicos detallados. Microsoft destacó en un blog que, utilizando destilación, aprendizaje por refuerzo y datos de alta calidad, estos nuevos modelos equilibran tamaño y rendimiento. Son lo suficientemente pequeños para entornos de baja latencia, pero mantienen capacidades de razonamiento sólidas que rivalizan con modelos mucho más grandes. Esta combinación permite que incluso dispositivos con recursos limitados realicen tareas de razonamiento complejas de manera eficiente.


