100% Lokal · DSGVO

Codestral

von Mistral AI · Lizenz: Mistral AI Non-Production License · Eingeschränkte Lizenz

Mistrals erstes dediziertes 22B-Code-Modell mit 80+ Sprachen

4.0 Gesamt
Verfügbare Größen: 22B

Was ist Codestral?

Codestral ist Mistral AIs erstes dediziertes Code-Generierungsmodell mit 22 Milliarden Parametern, das auf einem vielfältigen Datensatz von über 80 Programmiersprachen trainiert wurde — darunter populäre Sprachen wie Python, Java, C++ und JavaScript, aber auch spezialisierte Sprachen wie Swift, Fortran und Bash. Das Modell wurde für Code-Completion, Code-Generierung und Fill-in-the-Middle-Aufgaben optimiert und zeigt in Benchmarks Leistungen auf dem Niveau deutlich größerer Modelle. Codestral unterstützt ein Kontextfenster von 32.000 Token, ausreichend für die meisten Code-Dateien und Projektstrukturen.

Die 22-Milliarden-Parameter-Architektur bietet einen guten Kompromiss zwischen Qualität und lokaler Ausführbarkeit: Mit Quantisierung (Q4/Q5) läuft das Modell auf GPUs mit 12 bis 16 GB VRAM. Auf Ollama stehen mehrere quantisierte Varianten von Q3 bis Q8 bereit, sodass Nutzer den optimalen Kompromiss zwischen Qualität und Geschwindigkeit für ihre Hardware wählen können. Codestral eignet sich besonders für IDE-Integrationen über das Continue-Plugin, lokale Code-Assistenten und automatisierte Code-Reviews.

Die Mistral AI Non-Production License beschränkt die Nutzung auf nicht-kommerzielle Zwecke, was Forschung und persönliche Projekte erlaubt, aber kommerzielle Anwendungen ausschließt. Für Entwickler, die einen leistungsstarken lokalen Code-Assistenten suchen, bietet Codestral eine überzeugende Kombination aus Qualität, Vielseitigkeit und Effizienz.

Fähigkeiten-Matrix

Was kann Codestral — und was nicht?

🇩🇪 Deutsch-Chat
2.5
🇬🇧 Englisch-Chat
3.5
🗣️ Multilingual
3.0
💻 Code-Generierung
4.5
🌍 Übersetzung
1.5
📋 Zusammenfassung
3.0
📄 RAG / Dokumente
3.0
🔧 Tool-Use / Function Calling
2.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.5
✍️ Kreatives Schreiben
2.0

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, Swift, Fortran, Bash

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
22B 16 GB 16 GB ✓ Ja (langsam) Q4_K_M RTX 4070 Ti 16GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★☆☆ 3.5/5
RAM/VRAM-Effizienz ★★★☆☆ 3.5/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mistral Small

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

24B
Details ansehen

Mixtral 8x7B

Erstes Open-Source Mixture-of-Experts-Modell mit effizienter Architektur

46.7B (12.9B aktiv)
Details ansehen

War diese Übersicht hilfreich?