100% Lokal · DSGVO

Devstral

von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar

Mistrals spezialisiertes Coding-Modell für agentenbasierte Entwicklung

4.5 Gesamt
Verfügbare Größen: 24B

Was ist Devstral?

Devstral ist Mistral AIs spezialisiertes Open-Source-Modell für Softwareentwicklung und agentenbasierte Coding-Aufgaben. Mit 24 Milliarden Parametern und einem erweiterten Kontextfenster von 128.000 Tokens wurde Devstral gezielt darauf trainiert, umfangreiche Codebasen zu verstehen, komplexe Refactoring-Aufgaben durchzuführen und mehrstufige Programmieraufgaben selbstständig zu lösen. Das Modell übertrifft in Coding-Benchmarks wie SWE-bench und HumanEval viele deutlich größere Modelle und erreicht Ergebnisse auf dem Niveau von GPT-4o in Code-spezifischen Aufgaben.

Besonders stark ist Devstral bei der Arbeit mit ganzen Repositories — es kann Projektstrukturen analysieren, Abhängigkeiten verstehen und kontextbezogene Code-Änderungen über mehrere Dateien hinweg vorschlagen. Die Unterstützung für Programmiersprachen ist umfassend und deckt Python, JavaScript, TypeScript, Java, C++, Rust, Go und viele weitere Sprachen ab. Function Calling und Tool Use werden nativ unterstützt, was Devstral ideal für die Integration in Coding-Agenten wie Cursor, Continue oder eigene Entwicklungstools macht.

Die Hardware-Anforderungen sind mit 16 GB VRAM bei Q4-Quantisierung moderat, sodass das Modell auf einer RTX 4070 Ti oder vergleichbarer GPU flüssig läuft. Die Apache-2.0-Lizenz erlaubt uneingeschränkte kommerzielle Nutzung, was Devstral für Unternehmen attraktiv macht, die ihren Code nicht an externe APIs senden möchten. Ollama und LM Studio bieten optimierte Versionen an, und die Integration in bestehende Entwicklungsumgebungen ist dank der Mistral-API-Kompatibilität unkompliziert.

Fähigkeiten-Matrix

Was kann Devstral — und was nicht?

🇩🇪 Deutsch-Chat
3.5
🇬🇧 Englisch-Chat
4.5
🗣️ Multilingual
3.0
💻 Code-Generierung
5.0
🌍 Übersetzung
2.5
📋 Zusammenfassung
3.5
📄 RAG / Dokumente
4.0
🔧 Tool-Use / Function Calling
4.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
4.0
✍️ Kreatives Schreiben
2.5

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Rust, Go, PHP, SQL, C#, Kotlin, Swift, Ruby, Scala

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
24B 16 GB 16 GB ✗ Nein Q4_K_M RTX 4070 Ti 16GB oder RTX 3090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★★ 5.0/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Mistral Medium 3

Mistrals ausgewogenes Mittelklasse-Modell mit starker Effizienz

24B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mistral Small

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

24B
Details ansehen

Codestral

Mistrals erstes dediziertes 22B-Code-Modell mit 80+ Sprachen

22B
Details ansehen

BioMistral

Spezialisiertes medizinisches Sprachmodell auf Mistral-7B-Basis

7B
Details ansehen

War diese Übersicht hilfreich?