Mistral se reincorpora al código abierto: presenta el modelo de IA de alto rendimiento Devstral para laptops.
Mistral Reingresa a la Comunidad de Código Abierto con el Lanzamiento del Modelo de IA Altamente Eficiente Devstral
En un movimiento significativo, el fabricante francés de modelos de IA Mistral ha regresado a la arena de código abierto tras las críticas de partes de la comunidad respecto a su último modelo de código cerrado, Medium3. La empresa se ha asociado con la startup de código abierto All Hands AI, creadores de OpenDevin, para introducir un nuevo modelo de lenguaje de código abierto llamado Devstral. Este modelo ligero, que cuenta con 24 millones de parámetros, está diseñado específicamente para el desarrollo de software de IA y ha demostrado un rendimiento que supera a muchos competidores con miles de millones de parámetros en ciertas pruebas de referencia.
A diferencia de los modelos de lenguaje grandes (LLMs) tradicionales que se centran principalmente en la finalización de código o en la generación de funciones independientes, Devstral está optimizado para actuar como un agente integral de ingeniería de software. Esta capacidad le permite entender el contexto a través de archivos, navegar por grandes bases de código y abordar desafíos reales en el desarrollo de software. Notablemente, Devstral se lanza bajo la licencia permisiva Apache 2.0, otorgando a desarrolladores y organizaciones la libertad de implementar, modificar y comercializar el modelo.
El científico investigador de Mistral AI, Baptiste Rozière, enfatizó el objetivo de proporcionar a la comunidad de desarrolladores una herramienta que pueda ejecutarse localmente y modificarse según necesidades específicas, con la licencia Apache 2.0 ofreciendo una flexibilidad significativa para los usuarios.
Construyendo sobre el Éxito de Codestral
Devstral representa el último avance en la serie de modelos centrados en código de Mistral, Codestral. Lanzado en mayo de 2024, Codestral cuenta con 22 mil millones de parámetros y admite más de 80 lenguajes de programación, destacándose en tareas de generación y finalización de código. La rápida iteración de Codestral ha llevado a versiones mejoradas, incluyendo Codestral-Mamba y el último Codestral 25.01, que han ganado popularidad entre los desarrolladores de plugins para IDE y usuarios empresariales. El éxito de la serie Codestral ha sentado una base sólida para el desarrollo de Devstral, permitiéndole expandirse de la simple finalización de código a la ejecución de tareas proxy completas.
Impresionante Rendimiento en Pruebas de Referencia SWE
En las pruebas de referencia SWE-Bench Verified, Devstral logró una puntuación sobresaliente del 46.8%. SWE-Bench Verified es un conjunto de datos que contiene 500 problemas reales de GitHub, verificados manualmente por su precisión. Esta puntuación no solo superó a todos los modelos de código abierto previamente lanzados, sino que también superó a varios modelos de código cerrado, incluyendo GPT-4.1-mini, por más de 20 puntos porcentuales. Rozière declaró con orgullo que Devstral es el modelo de código abierto con mejor rendimiento hasta la fecha en la verificación de SWE-bench y tareas de proxy de código, y notablemente, puede ejecutarse localmente en un MacBook con solo 24 millones de parámetros.
La líder de relaciones con desarrolladores de Mistral AI, la Dra. Sophia Yang, también señaló en las redes sociales que Devstral superó a muchas alternativas de código cerrado en varios marcos. El rendimiento excepcional del modelo se atribuye a técnicas de aprendizaje por refuerzo y ajuste de seguridad aplicadas al modelo base Mistral Small3.1.
Más Allá de la Generación de Código: Una Base para el Desarrollo de Software de IA
El objetivo de Devstral va más allá de la mera generación de código; está diseñado para integrarse sin problemas con marcos proxy como OpenHands, SWE-Agent y OpenDevin. Estos marcos permiten a Devstral interactuar con casos de prueba, navegar por archivos de código fuente y ejecutar tareas de múltiples pasos a través de proyectos. Rozière reveló que Devstral se lanzará junto con OpenDevin, que proporciona una estructura para proxies de código, sirviendo como el backend para modelos de desarrollador.
Para garantizar la fiabilidad del modelo, Mistral llevó a cabo pruebas rigurosas de Devstral en diversas bases de código y flujos de trabajo internos para prevenir el sobreajuste al benchmark de SWE-bench. Utilizaron exclusivamente datos de conjuntos de datos no SWE-bench para el entrenamiento y validaron el rendimiento del modelo en diferentes marcos.
Implementación Eficiente con Licencias de Código Abierto Amigables para Empresas
La arquitectura compacta de Devstral, con 24 millones de parámetros, permite a los desarrolladores ejecutarlo localmente con facilidad, ya sea en máquinas equipadas con una sola GPU RTX 4090 o en computadoras Mac con 32 GB de memoria. Esta característica es particularmente atractiva para aplicaciones que priorizan la privacidad y requieren implementación en dispositivos de borde. Rozière indicó que los usuarios objetivo para este modelo incluyen a desarrolladores y entusiastas interesados en operaciones locales y privatizadas, incluso en entornos fuera de línea.
Además de su rendimiento y portabilidad, la licencia Apache 2.0 de Devstral ofrece ventajas significativas para aplicaciones comerciales. Esta licencia permite el uso, adaptación y distribución sin restricciones, incluso en productos propietarios, reduciendo significativamente las barreras para la adopción empresarial.
Devstral cuenta con una ventana de contexto de 128,000 tokens y utiliza un tokenizador con un vocabulario de 131,000 palabras. Soporta implementación a través de plataformas de código abierto populares como Hugging Face, Ollama, Kaggle, LM Studio y Unsloth, y es compatible con bibliotecas como vLLM, Transformers y Mistral Inference.
Opciones de API y Despliegue Local
Los desarrolladores pueden acceder a Devstral a través de la API Le Platforme de Mistral, con el modelo llamado devstral-small-2505, con un precio de $0.10 por millón de tokens de entrada y $0.30 por millón de tokens de salida. Para los usuarios interesados en el despliegue local, el soporte para marcos como OpenHands permite una integración inmediata con bases de código y flujos de trabajo proxy. Rozière compartió sus propias experiencias utilizando Devstral para pequeñas tareas de desarrollo, como actualizar versiones de paquetes o modificar scripts tokenizados, elogiando su capacidad para localizar y modificar código con precisión.
Aunque Devstral está actualmente disponible en una vista previa de investigación, Mistral y All Hands AI ya están trabajando en el desarrollo de modelos de seguimiento más potentes y grandes. Rozière cree que la brecha entre modelos pequeños y grandes se está cerrando rápidamente, y el impresionante rendimiento de modelos como Devstral ahora es comparable al de algunos competidores más grandes.
Con su destacado rendimiento en benchmarks, licencia de código abierto permisiva y características optimizadas para el diseño de proxies, Devstral no solo es una poderosa herramienta de generación de código, sino que está preparada para convertirse en un modelo fundamental clave para construir sistemas de ingeniería de software autónomos.
Para más información sobre el mundo de la IA, mantente atento a nuestras actualizaciones diarias y explora las últimas tendencias e innovaciones en productos y aplicaciones de IA.
Descubre una amplia gama de soluciones innovadoras adaptadas a tus necesidades. Aprende más y explora herramientas de IA diseñadas para usuarios en nuestro Directorio de Herramientas de IA, donde puedes explorar características como búsqueda inteligente y asistentes de IA para encontrar la herramienta perfecta para ti.







