Mistral Ritorna all'Open Source: Svela il Modello AI ad Alte Prestazioni Devstral per Laptop
Mistral Ritorna nella Comunità Open Source con il Lancio del Modello AI Altamente Efficiente Devstral
In una mossa significativa, il produttore francese di modelli AI Mistral è tornato nell'arena open-source dopo le critiche da parte di alcune sezioni della comunità riguardo al suo ultimo modello closed-source, Medium3. L'azienda ha collaborato con la startup open-source All Hands AI, creatori di OpenDevin, per introdurre un nuovo modello linguistico open-source chiamato Devstral. Questo modello leggero, con 24 milioni di parametri, è specificamente progettato per lo sviluppo di software AI e ha dimostrato prestazioni che superano molti concorrenti con miliardi di parametri in alcuni test di benchmark.
A differenza dei tradizionali modelli di linguaggio di grandi dimensioni (LLM) che si concentrano principalmente sul completamento del codice o sulla generazione di funzioni autonome, Devstral è ottimizzato per agire come un agente completo di ingegneria del software. Questa capacità gli consente di comprendere il contesto attraverso i file, navigare in grandi basi di codice e affrontare sfide reali nello sviluppo software. È importante notare che Devstral è rilasciato sotto la licenza permissiva Apache 2.0, che concede a sviluppatori e organizzazioni la libertà di distribuire, modificare e commercializzare il modello.
Il ricercatore di Mistral, Baptiste Rozière, ha sottolineato l'obiettivo di fornire alla comunità degli sviluppatori uno strumento che possa essere eseguito localmente e modificato secondo esigenze specifiche, con la licenza Apache 2.0 che offre una notevole flessibilità agli utenti.
Costruire sul Successo di Codestral
Devstral rappresenta l'ultimo avanzamento nella serie di modelli incentrati sul codice di Mistral, Codestral. Lanciato a maggio 2024, Codestral presenta 22 miliardi di parametri e supporta oltre 80 linguaggi di programmazione, eccellendo nei compiti di generazione e completamento del codice. L'iterazione rapida di Codestral ha portato a versioni migliorate, tra cui Codestral-Mamba e l'ultima Codestral 25.01, che hanno guadagnato popolarità tra gli sviluppatori di plugin IDE e gli utenti aziendali. Il successo della serie Codestral ha gettato una solida base per lo sviluppo di Devstral, consentendogli di espandersi dal semplice completamento del codice all'esecuzione di compiti proxy completi.
Prestazioni Impressionanti nei Test di Benchmark SWE
Nei test di benchmark SWE-Bench Verified, Devstral ha ottenuto un punteggio eccezionale del 46,8%. SWE-Bench Verified è un dataset contenente 500 problemi reali di GitHub, verificati manualmente per accuratezza. Questo punteggio non solo ha superato tutti i modelli open-source precedentemente rilasciati, ma ha anche superato diversi modelli closed-source, incluso GPT-4.1-mini, di oltre 20 punti percentuali. Rozière ha dichiarato con orgoglio che Devstral è il modello open-source con le migliori prestazioni fino ad oggi nella verifica SWE-bench e nei compiti proxy di codice, e notevolmente, può essere eseguito localmente su un MacBook con soli 24 milioni di parametri.
Il responsabile delle relazioni con gli sviluppatori di Mistral AI, Dr. Sophia Yang, ha anche notato sui social media che Devstral ha superato molte alternative closed-source in vari framework. Le eccezionali prestazioni del modello sono attribuite a tecniche di apprendimento per rinforzo e messa a punto della sicurezza applicate al modello base Mistral Small3.1.
Oltre la Generazione di Codice: Una Fondazione per lo Sviluppo Software AI
L'obiettivo di Devstral va oltre la semplice generazione di codice; è progettato per integrarsi perfettamente con framework proxy come OpenHands, SWE-Agent e OpenDevin. Questi framework consentono a Devstral di interagire con casi di test, navigare nei file di codice sorgente e eseguire compiti multi-step attraverso progetti. Rozière ha rivelato che Devstral sarà rilasciato insieme a OpenDevin, che fornisce una struttura per i proxy di codice, fungendo da backend per i modelli per sviluppatori.
Per garantire l'affidabilità del modello, Mistral ha condotto test rigorosi di Devstral su varie basi di codice e flussi di lavoro interni per prevenire l'overfitting al benchmark SWE-bench. Hanno utilizzato esclusivamente dati provenienti da dataset non SWE-bench per l'addestramento e hanno convalidato le prestazioni del modello attraverso diversi framework.
Distribuzione Efficiente con Licenze Open Source Adatte alle Aziende
L'architettura compatta di Devstral, con 24 milioni di parametri, consente agli sviluppatori di eseguirlo localmente con facilità, sia su macchine dotate di una singola GPU RTX 4090 che su computer Mac con 32 GB di memoria. Questa caratteristica è particolarmente attraente per applicazioni che danno priorità alla privacy e richiedono distribuzione su dispositivi edge. Rozière ha indicato che gli utenti target per questo modello includono sviluppatori ed appassionati desiderosi di operazioni locali e privatizzate, anche in ambienti offline.
Oltre alle sue prestazioni e portabilità, la licenza Apache 2.0 di Devstral offre vantaggi significativi per le applicazioni commerciali. Questa licenza consente un uso, adattamento e distribuzione illimitati, anche in prodotti proprietari, abbassando notevolmente le barriere per l'adozione da parte delle imprese.
Devstral presenta una finestra di contesto di 128.000 token e utilizza un tokenizer con un vocabolario di 131.000 parole. Supporta la distribuzione attraverso piattaforme open-source popolari come Hugging Face, Ollama, Kaggle, LM Studio e Unsloth, ed è compatibile con librerie come vLLM, Transformers e Mistral Inference.
Opzioni API e Distribuzione Locale
Gli sviluppatori possono accedere a Devstral tramite l'API Le Platforme di Mistral, con il modello denominato devstral-small-2505, al prezzo di $0,10 per milione di token di input e $0,30 per milione di token di output. Per gli utenti interessati alla distribuzione locale, il supporto per framework come OpenHands consente un'integrazione immediata con basi di codice e flussi di lavoro proxy. Rozière ha condiviso le proprie esperienze nell'utilizzare Devstral per piccoli compiti di sviluppo, come l'aggiornamento delle versioni dei pacchetti o la modifica di script tokenizzati, lodando la sua capacità di localizzare e modificare il codice con precisione.
Sebbene Devstral sia attualmente disponibile in anteprima di ricerca, Mistral e All Hands AI stanno già lavorando allo sviluppo di modelli successivi più potenti e di dimensioni maggiori. Rozière crede che il divario tra modelli piccoli e grandi si stia rapidamente riducendo, e le impressionanti prestazioni di modelli come Devstral sono ora comparabili a quelle di alcuni concorrenti più grandi.
Con le sue eccezionali prestazioni nei benchmark, la licenza open-source permissiva e le funzionalità ottimizzate per il design proxy, Devstral non è solo uno strumento potente per la generazione di codice, ma è pronto a diventare un modello fondamentale per la costruzione di sistemi autonomi di ingegneria del software.
Per ulteriori approfondimenti sul mondo dell'AI, rimanete sintonizzati sui nostri aggiornamenti quotidiani ed esplorate le ultime tendenze e innovazioni nei prodotti e nelle applicazioni AI.
Scopri una vasta gamma di soluzioni innovative su misura per le tue esigenze Scopri di più ed esplora gli strumenti AI costruiti per gli utenti nel nostro AI Tool Directory, dove puoi esplorare funzionalità come la ricerca intelligente e assistenti AI per trovare lo strumento perfetto per te.







