El martes pasado la startup francesa Mistral AI dio un paso significativo en el campo de la inteligencia artificial con el lanzamiento de Magistral, su primera familia de modelos de razonamiento. 

Compuesta por dos variantes (Magistral Small y Magistral Medium) esta línea de modelos está diseñada para abordar tareas complejas, desde cálculos estructurados hasta lógica programática y árboles de decisión. 

Gracias a su enfoque en la trazabilidad y la transparencia, Magistral se posiciona como una opción especialmente valiosa para sectores regulados como el legal, el financiero y el sanitario.

El enfoque de Mistral AI

Desde su fundación en 2023, Mistral AI se ha marcado como misión ofrecer soluciones de IA potentes, accesibles y eficientes.

Con Magistral, la compañía refuerza esa visión al presentar un modelo abierto y otro orientado a empresas, lo que refuerza su competitividad frente a gigantes como OpenAI o DeepSeek. 

Al mismo tiempo, la apuesta por un origen europeo y el soporte nativo de más de veinte idiomas refuerzan su ambición de alternativa sólida en el mercado global.

Características de Magistral Small

Magistral Small es un modelo de 24.000 millones de parámetros liberado bajo licencia Apache 2.0. 

Esto permite que cualquier desarrollador descargue el modelo desde Hugging Face y lo despliegue localmente, incluso en equipos modestos como un MacBook de 32 GB o un PC con una única GPU RTX 4090.

Su ventana de contexto alcanza los 128.000 tokens, aunque Mistral recomienda limitar las sesiones a unos 40.000 tokens para mantener un rendimiento óptimo.

A diferencia de otros modelos, Magistral Small integra un mecanismo de razonamiento en cadena de pensamiento delimitado por etiquetas `<think> … </think>`, que documenta cada paso lógico antes de ofrecer la respuesta final.

Esto facilita la auditabilidad y la comprensión de sus procesos internos. El modelo no admite todavía llamadas directas a funciones, pero compensa esa limitación con su capacidad de descomponer problemas en múltiples pasos y generar resúmenes finales claros y estructurados.

Su naturaleza de código abierto convierte al Small en una herramienta ideal para investigadores y entornos académicos, donde la adaptabilidad y la experimentación colaborativa resultan fundamentales.

Magistral Medium: rendimiento y velocidad para empresas

Magistral Medium es la variante pensada para entornos empresariales. Se ofrece en previsualización a través de Le Chat y la API de Mistral, con despliegue inminente en plataformas como Amazon SageMaker, IBM Watson X, Azure AI y Google Cloud Marketplace.

Entre sus innovaciones técnicas se incluyen dos modos destacados: “Pure Thinking”, optimizado para tareas matemáticas y de codificación, y “Velocidad 10x”, basado en la tecnología de aceleración de Cerebras, que multiplica por diez el rendimiento por token frente a modelos de la competencia.

Además, Magistral Medium utiliza un esquema de entrenamiento sofisticado. Tras partir de un checkpoint de Mistral Medium 3, se aplicó un aprendizaje por refuerzo con recompensas verificables (RLVR), logrando casi un 50 % de mejora en el benchmark AIME-24 para la métrica pass@1.

Este entrenamiento se complementó con el refinamiento SFT (fine-tuning supervisado) con trazas de razonamiento, lo que potencia aún más su fiabilidad en aplicaciones críticas.

Resultados de benchmark y comparativas

En la evaluación AIME-2024, Magistral Medium alcanzó un 73,6 % de acierto en pass@1, subiendo hasta el 90 % con votación múltiple, mientras que Magistral Small obtuvo un 70,7 % y un 83,3 % respectivamente. 

En otros tests, como GPQA Diamond o LiveCodeBench, modelos de OpenAI y Google, por ejemplo Gemini 2.5 Pro o Claude Opus 4, superan ligeramente a Magistral.

Sin embargo, el valor diferencial de la familia Magistral radica en la trazabilidad de sus cadenas de pensamiento y en su notable eficiencia, que en el caso de la versión Small permite ejecuciones locales sin necesidad de infraestructuras de gran escala.

Estos resultados demuestran que, aunque Mistral AI no aspire a liderar todos los rankings de rendimiento bruto, su estrategia se centra en ofrecer modelos equilibrados que combinen velocidad, transparencia y multilingüismo. 

Esto los hace especialmente atractivos en contextos donde la interpretabilidad y el control de cada paso de razonamiento resultan más importantes que la mera potencia bruta.

¿En qué ámbitos puede aplicarse Magistral?

Los modelos Magistral se adaptan a múltiples escenarios profesionales. En el sector legal, facilitan el análisis de contratos y sentencias al mostrar cada paso de razonamiento, lo que reduce el riesgo de sesgos y errores. 

En finanzas, sirven para modelar riesgos, generar predicciones y auditar cálculos complejos. En sanidad, apoyan decisiones clínicas mediante explicaciones detalladas y trazables. 

Asimismo, en desarrollo de software y planificación de proyectos, su estructura en cadena de pensamiento potencia la generación de lógica programática robusta y transparente.

Otro aspecto destacado es su capacidad multilingüe. Magistral admite más de veinte idiomas, entre ellos inglés, francés, español, alemán, italiano, árabe, ruso y chino simplificado. 

Esto lo convierte en una opción adecuada para empresas globales y proyectos internacionales que requieren coherencia y calidad en distintos idiomas.

Recepción y perspectivas de futuro

La comunidad de IA ha acogido Magistral con gran interés. En plataformas como X, usuarios como @WesRothMoney elogian su capacidad de razonamiento en cadena de pensamiento, mientras que expertos en despliegue local destacan la facilidad de uso con herramientas como Ollama

No obstante, se han señalado carencias temporales, como la ausencia de llamadas a funciones en la versión Small o ciertas restricciones de la API en Medium.

Bajo la dirección de Arthur Mensch, Mistral AI pretende consolidar Magistral como referencia europea en modelos de inferencia con razonamiento profundo.

A medio plazo, se espera que se extiendan las integraciones cloud y que surjan extensiones para llamadas a funciones y otros formatos de entrada. En paralelo, el código abierto del modelo Small posibilitará innovaciones comunitarias que podrían mejorar aún más su rendimiento y usabilidad.