Codestral
von Mistral AI · Lizenz: Mistral AI Non-Production License · Eingeschränkte Lizenz
Mistrals erstes dediziertes 22B-Code-Modell mit 80+ Sprachen
Was ist Codestral?
Codestral ist Mistral AIs erstes dediziertes Code-Generierungsmodell mit 22 Milliarden Parametern, das auf einem vielfältigen Datensatz von über 80 Programmiersprachen trainiert wurde — darunter populäre Sprachen wie Python, Java, C++ und JavaScript, aber auch spezialisierte Sprachen wie Swift, Fortran und Bash. Das Modell wurde für Code-Completion, Code-Generierung und Fill-in-the-Middle-Aufgaben optimiert und zeigt in Benchmarks Leistungen auf dem Niveau deutlich größerer Modelle. Codestral unterstützt ein Kontextfenster von 32.000 Token, ausreichend für die meisten Code-Dateien und Projektstrukturen.
Die 22-Milliarden-Parameter-Architektur bietet einen guten Kompromiss zwischen Qualität und lokaler Ausführbarkeit: Mit Quantisierung (Q4/Q5) läuft das Modell auf GPUs mit 12 bis 16 GB VRAM. Auf Ollama stehen mehrere quantisierte Varianten von Q3 bis Q8 bereit, sodass Nutzer den optimalen Kompromiss zwischen Qualität und Geschwindigkeit für ihre Hardware wählen können. Codestral eignet sich besonders für IDE-Integrationen über das Continue-Plugin, lokale Code-Assistenten und automatisierte Code-Reviews.
Die Mistral AI Non-Production License beschränkt die Nutzung auf nicht-kommerzielle Zwecke, was Forschung und persönliche Projekte erlaubt, aber kommerzielle Anwendungen ausschließt. Für Entwickler, die einen leistungsstarken lokalen Code-Assistenten suchen, bietet Codestral eine überzeugende Kombination aus Qualität, Vielseitigkeit und Effizienz.
Fähigkeiten-Matrix
Was kann Codestral — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, Swift, Fortran, Bash
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 22B | 16 GB | 16 GB | ✓ Ja (langsam) | Q4_K_M | RTX 4070 Ti 16GB |
Kompatibilität
Bewertung
Weitere Mistral-Modelle
Mistral Large 2
Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern
Mixtral 8x7B
Erstes Open-Source Mixture-of-Experts-Modell mit effizienter Architektur
War diese Übersicht hilfreich?