Mistral Rejoint l'Open Source : Dévoile le Modèle IA Haute Performance Devstral pour Ordinateurs Portables
Mistral Rejoint la Communauté Open Source avec le Lancement du Modèle AI Hautement Efficace Devstral
Dans un mouvement significatif, le fabricant français de modèles AI Mistral est revenu dans l'arène open source suite à des critiques de certaines parties de la communauté concernant son dernier modèle fermé, Medium3. L'entreprise s'est associée à la startup open source All Hands AI, créateurs d'OpenDevin, pour introduire un nouveau modèle de langage open source nommé Devstral. Ce modèle léger, comportant 24 millions de paramètres, est spécifiquement conçu pour le développement de logiciels AI et a démontré des performances qui surpassent de nombreux concurrents avec des milliards de paramètres dans certains tests de référence.
Contrairement aux modèles de langage traditionnels (LLMs) qui se concentrent principalement sur la complétion de code ou la génération de fonctions autonomes, Devstral est optimisé pour agir en tant qu'agent complet d'ingénierie logicielle. Cette capacité lui permet de comprendre le contexte à travers les fichiers, de naviguer dans de grands bases de code et de relever des défis réels de développement logiciel. Notamment, Devstral est publié sous la licence permissive Apache 2.0, offrant aux développeurs et aux organisations la liberté de déployer, modifier et commercialiser le modèle.
Le scientifique de recherche AI de Mistral, Baptiste Rozière, a souligné l'objectif de fournir à la communauté des développeurs un outil pouvant être exécuté localement et modifié selon des besoins spécifiques, la licence Apache 2.0 offrant une flexibilité significative aux utilisateurs.
S'appuyant sur le Succès de Codestral
Devstral représente le dernier avancement dans la série de modèles centrés sur le code de Mistral, Codestral. Lancé en mai 2024, Codestral comporte 22 milliards de paramètres et prend en charge plus de 80 langages de programmation, excelling dans les tâches de génération et de complétion de code. L'itération rapide de Codestral a conduit à des versions améliorées, y compris Codestral-Mamba et le dernier Codestral 25.01, qui ont gagné en popularité parmi les développeurs de plugins IDE et les utilisateurs d'entreprise. Le succès de la série Codestral a posé une base solide pour le développement de Devstral, lui permettant de passer de la simple complétion de code à l'exécution de tâches complètes de proxy.
Performances Impressionnantes dans les Tests de Référence SWE
Dans les tests de référence SWE-Bench Verified, Devstral a obtenu un score exceptionnel de 46,8 %. SWE-Bench Verified est un ensemble de données contenant 500 problèmes réels de GitHub, vérifiés manuellement pour leur précision. Ce score a non seulement surpassé tous les modèles open source précédemment publiés, mais a également dépassé plusieurs modèles fermés, y compris GPT-4.1-mini, de plus de 20 points de pourcentage. Rozière a fièrement déclaré que Devstral est le modèle open source le mieux performant à ce jour dans la vérification SWE-bench et les tâches de proxy de code, et remarquablement, il peut fonctionner localement sur un MacBook avec seulement 24 millions de paramètres.
Le responsable des relations développeurs de Mistral AI, Dr. Sophia Yang, a également noté sur les réseaux sociaux que Devstral a surpassé de nombreuses alternatives fermées à travers divers frameworks. Les performances exceptionnelles du modèle sont attribuées aux techniques d'apprentissage par renforcement et de réglage de sécurité appliquées au modèle de base Mistral Small3.1.
Au-delà de la Génération de Code : Une Fondation pour le Développement de Logiciels AI
L'objectif de Devstral va au-delà de la simple génération de code ; il est conçu pour s'intégrer parfaitement avec des frameworks de proxy tels qu'OpenHands, SWE-Agent et OpenDevin. Ces frameworks permettent à Devstral d'interagir avec des cas de test, de naviguer dans des fichiers de code source et d'exécuter des tâches en plusieurs étapes à travers des projets. Rozière a révélé que Devstral sera publié en même temps qu'OpenDevin, qui fournit une structure pour les proxies de code, servant de backend pour les modèles de développeurs.
Pour garantir la fiabilité du modèle, Mistral a effectué des tests rigoureux de Devstral à travers divers bases de code et flux de travail internes pour éviter le surajustement au benchmark SWE-bench. Ils ont exclusivement utilisé des données provenant de jeux de données non-SWE-bench pour l'entraînement et ont validé les performances du modèle à travers différents frameworks.
Déploiement Efficace avec une Licence Open Source Conviviale pour les Entreprises
L'architecture compacte de Devstral, avec 24 millions de paramètres, permet aux développeurs de l'exécuter localement avec aisance, que ce soit sur des machines équipées d'un seul GPU RTX 4090 ou sur des ordinateurs Mac avec 32 Go de mémoire. Cette fonctionnalité est particulièrement attrayante pour les applications qui privilégient la confidentialité et nécessitent un déploiement sur des appareils en périphérie. Rozière a indiqué que les utilisateurs cibles de ce modèle incluent des développeurs et des passionnés désireux d'opérations locales et privatisées, même dans des environnements hors ligne.
En plus de ses performances et de sa portabilité, la licence Apache 2.0 de Devstral offre des avantages significatifs pour les applications commerciales. Cette licence permet une utilisation, une adaptation et une distribution sans restrictions, y compris dans des produits propriétaires, réduisant considérablement les barrières à l'adoption par les entreprises.
Devstral dispose d'une fenêtre de contexte de 128 000 tokens et utilise un tokenizer avec un vocabulaire de 131 000 mots. Il prend en charge le déploiement via des plateformes open source populaires telles que Hugging Face, Ollama, Kaggle, LM Studio et Unsloth, et est compatible avec des bibliothèques comme vLLM, Transformers et Mistral Inference.
Options d'API et de Déploiement Local
Les développeurs peuvent accéder à Devstral via l'API Le Platforme de Mistral, le modèle étant nommé devstral-small-2505, au prix de 0,10 $ par million de tokens d'entrée et de 0,30 $ par million de tokens de sortie. Pour les utilisateurs intéressés par le déploiement local, le support pour des frameworks comme OpenHands permet une intégration immédiate avec des bases de code et des flux de travail de proxy. Rozière a partagé ses propres expériences en utilisant Devstral pour de petites tâches de développement, telles que la mise à jour des versions de paquets ou la modification de scripts tokenisés, louant sa capacité à localiser et modifier le code avec précision.
Bien que Devstral soit actuellement disponible dans un aperçu de recherche, Mistral et All Hands AI travaillent déjà sur le développement de modèles de suivi plus puissants et plus grands. Rozière croit que l'écart entre les petits et les grands modèles se réduit rapidement, et les performances impressionnantes de modèles comme Devstral sont désormais comparables à certains concurrents plus grands.
Avec ses performances exceptionnelles aux tests de référence, sa licence open source permissive et ses fonctionnalités optimisées pour la conception de proxy, Devstral n'est pas seulement un puissant outil de génération de code, mais est prêt à devenir un modèle fondamental clé pour la construction de systèmes d'ingénierie logicielle autonomes.
Pour plus d'informations sur le monde de l'IA, restez à l'écoute de nos mises à jour quotidiennes et explorez les dernières tendances et innovations dans les produits et applications AI.
Découvrez une large gamme de solutions innovantes adaptées à vos besoins. En savoir plus et explorer les outils AI conçus pour les utilisateurs dans notre Répertoire d'Outils AI, où vous pouvez explorer des fonctionnalités telles que la recherche intelligente et les assistants AI pour trouver l'outil parfait pour vous.







