Mistral tritt wieder der Open-Source-Community bei: Enthüllt das Hochleistungs-AI-Modell Devstral für Laptops
Mistral kehrt mit der Einführung des hocheffizienten KI-Modells Devstral in die Open-Source-Community zurück
In einem bedeutenden Schritt hat der französische KI-Modellhersteller Mistral nach Kritik aus Teilen der Community bezüglich seines neuesten Closed-Source-Modells, Medium3, in die Open-Source-Arena zurückgekehrt. Das Unternehmen hat sich mit dem Open-Source-Startup All Hands AI, den Schöpfern von OpenDevin, zusammengetan, um ein neues Open-Source-Sprachmodell namens Devstral vorzustellen. Dieses leichte Modell mit 24 Millionen Parametern ist speziell für die Entwicklung von KI-Software konzipiert und hat in bestimmten Benchmark-Tests eine Leistung gezeigt, die viele Wettbewerber mit Milliarden von Parametern übertrifft.
Im Gegensatz zu traditionellen großen Sprachmodellen (LLMs), die sich hauptsächlich auf die Codevervollständigung oder die Generierung eigenständiger Funktionen konzentrieren, ist Devstral darauf optimiert, als umfassender Software-Engineering-Agent zu fungieren. Diese Fähigkeit ermöglicht es ihm, den Kontext über Dateien hinweg zu verstehen, große Codebasen zu navigieren und reale Herausforderungen in der Softwareentwicklung anzugehen. Bemerkenswerterweise wird Devstral unter der permissiven Apache 2.0-Lizenz veröffentlicht, die Entwicklern und Organisationen die Freiheit gibt, das Modell zu implementieren, zu modifizieren und kommerziell zu nutzen.
Der KI-Forschungswissenschaftler von Mistral, Baptiste Rozière, betonte das Ziel, der Entwicklergemeinschaft ein Werkzeug zur Verfügung zu stellen, das lokal ausgeführt und an spezifische Bedürfnisse angepasst werden kann, wobei die Apache 2.0-Lizenz den Nutzern erhebliche Flexibilität bietet.
Aufbau auf dem Erfolg von Codestral
Devstral stellt den neuesten Fortschritt in Mistrals codezentrierter Modellreihe, Codestral, dar. Codestral, das im Mai 2024 eingeführt wurde, verfügt über 22 Milliarden Parameter und unterstützt über 80 Programmiersprachen, wobei es in der Codegenerierung und -vervollständigung hervorragende Leistungen erbringt. Die schnelle Iteration von Codestral hat zu verbesserten Versionen geführt, darunter Codestral-Mamba und das neueste Codestral 25.01, die bei Entwicklern von IDE-Plugins und Unternehmensnutzern an Beliebtheit gewonnen haben. Der Erfolg der Codestral-Serie hat eine solide Grundlage für die Entwicklung von Devstral gelegt, wodurch es von einfacher Codevervollständigung zu vollständigen Proxy-Aufgaben übergehen kann.
Beeindruckende Leistung in SWE-Benchmark-Tests
In den SWE-Bench Verified Benchmark-Tests erzielte Devstral eine herausragende Punktzahl von 46,8 %. SWE-Bench Verified ist ein Datensatz, der 500 reale GitHub-Probleme enthält, die manuell auf Genauigkeit überprüft wurden. Diese Punktzahl übertraf nicht nur alle zuvor veröffentlichten Open-Source-Modelle, sondern übertraf auch mehrere Closed-Source-Modelle, einschließlich GPT-4.1-mini, um über 20 Prozentpunkte. Rozière erklärte stolz, dass Devstral das bisher leistungsstärkste Open-Source-Modell in der SWE-Bench-Verifizierung und bei Code-Proxy-Aufgaben sei und bemerkenswerterweise lokal auf einem MacBook mit nur 24 Millionen Parametern ausgeführt werden könne.
Die Leiterin der Entwicklerbeziehungen von Mistral AI, Dr. Sophia Yang, bemerkte ebenfalls in sozialen Medien, dass Devstral viele Closed-Source-Alternativen in verschiedenen Frameworks übertroffen hat. Die außergewöhnliche Leistung des Modells wird auf Techniken des verstärkenden Lernens und der Sicherheitstuning angewendet, die auf das Mistral Small3.1-Basismodell angewendet wurden.
Über die Codegenerierung hinaus: Eine Grundlage für die KI-Softwareentwicklung
Das Ziel von Devstral geht über die bloße Codegenerierung hinaus; es ist darauf ausgelegt, nahtlos mit Proxy-Frameworks wie OpenHands, SWE-Agent und OpenDevin zu interagieren. Diese Frameworks ermöglichen es Devstral, mit Testfällen zu interagieren, Quellcodedateien zu navigieren und mehrstufige Aufgaben über Projekte hinweg auszuführen. Rozière enthüllte, dass Devstral zusammen mit OpenDevin veröffentlicht wird, das eine Struktur für Code-Proxys bereitstellt und als Backend für Entwickler-Modelle dient.
Um die Zuverlässigkeit des Modells sicherzustellen, führte Mistral umfassende Tests von Devstral über verschiedene Codebasen und interne Arbeitsabläufe durch, um ein Überanpassen an den SWE-Bench-Benchmark zu verhindern. Sie verwendeten ausschließlich Daten aus Nicht-SWE-Bench-Datensätzen für das Training und validierten die Leistung des Modells über verschiedene Frameworks hinweg.
Effiziente Bereitstellung mit geschäftsfreundlicher Open-Source-Lizenzierung
Die kompakte Architektur von Devstral mit 24 Millionen Parametern ermöglicht es Entwicklern, es problemlos lokal auszuführen, sei es auf Maschinen mit einer einzelnen RTX 4090 GPU oder auf Mac-Computern mit 32 GB RAM. Dieses Merkmal ist besonders attraktiv für Anwendungen, die Datenschutz priorisieren und eine Bereitstellung auf Edge-Geräten erfordern. Rozière wies darauf hin, dass die Zielnutzer für dieses Modell Entwickler und Enthusiasten sind, die an lokalen und privatisierten Operationen interessiert sind, selbst in Offline-Umgebungen.
Neben seiner Leistung und Portabilität bietet die Apache 2.0-Lizenz von Devstral erhebliche Vorteile für kommerzielle Anwendungen. Diese Lizenz erlaubt uneingeschränkte Nutzung, Anpassung und Verbreitung, auch in proprietären Produkten, was die Hürden für die Unternehmensakzeptanz erheblich senkt.
Devstral verfügt über ein Kontextfenster von 128.000 Tokens und verwendet einen Tokenizer mit einem Vokabular von 131.000 Wörtern. Es unterstützt die Bereitstellung über beliebte Open-Source-Plattformen wie Hugging Face, Ollama, Kaggle, LM Studio und Unsloth und ist mit Bibliotheken wie vLLM, Transformers und Mistral Inference kompatibel.
API- und lokale Bereitstellungsoptionen
Entwickler können über die Le Platforme API von Mistral auf Devstral zugreifen, wobei das Modell devstral-small-2505 heißt und mit 0,10 USD pro Million Eingabetokens und 0,30 USD pro Million Ausgabetokens bepreist ist. Für Benutzer, die an einer lokalen Bereitstellung interessiert sind, ermöglicht die Unterstützung von Frameworks wie OpenHands eine sofortige Integration in Codebasen und Proxy-Workflows. Rozière teilte seine eigenen Erfahrungen mit der Verwendung von Devstral für kleine Entwicklungsaufgaben, wie das Aktualisieren von Paketversionen oder das Modifizieren von tokenisierten Skripten, und lobte seine Fähigkeit, Code genau zu lokalisieren und zu modifizieren.
Obwohl Devstral derzeit in einer Forschungs-Vorschau verfügbar ist, arbeiten Mistral und All Hands AI bereits an der Entwicklung leistungsstärkerer und größerer Folge-Modelle. Rozière glaubt, dass die Lücke zwischen kleinen und großen Modellen schnell schließt und die beeindruckende Leistung von Modellen wie Devstral jetzt mit einigen größeren Wettbewerbern vergleichbar ist.
Mit seiner herausragenden Benchmark-Leistung, der permissiven Open-Source-Lizenzierung und den für Proxy-Design optimierten Funktionen ist Devstral nicht nur ein leistungsstarkes Werkzeug zur Codegenerierung, sondern steht auch bereit, ein Schlüsselmodell für den Aufbau autonomer Software-Engineering-Systeme zu werden.
Für weitere Einblicke in die Welt der KI bleiben Sie dran für unsere täglichen Updates und erkunden Sie die neuesten Trends und Innovationen in KI-Produkten und -Anwendungen.
Entdecken Sie eine Vielzahl innovativer Lösungen, die auf Ihre Bedürfnisse zugeschnitten sind. Erfahren Sie mehr und erkunden Sie KI-Tools, die für Benutzer entwickelt wurden, in unserem AI Tool Directory, wo Sie Funktionen wie intelligente Suche und KI-Assistenten erkunden können, um das perfekte Tool für Sie zu finden.







