Mistral Small
von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar
Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung
Was ist Mistral Small?
Mistral Small ist das 24-Milliarden-Parameter-Modell von Mistral AI und positioniert sich als goldener Mittelweg zwischen dem kompakten Nemo (12B) und dem großen Mistral Large 2 (123B). Mit 24B bietet es eine spürbar bessere Qualität als die kleineren Modelle, bleibt aber mit etwa 16 GB VRAM noch auf einer einzelnen High-End-Consumer-GPU wie der RTX 4090 betreibbar. Die Stärke von Mistral Small liegt in der ausgewogenen Performance über alle Aufgabenbereiche hinweg.
Konversationen auf Englisch und Deutsch sind flüssig und natürlich, Code-Generierung funktioniert zuverlässig für die meisten Programmiersprachen, und auch Function Calling sowie RAG-Aufgaben werden gut unterstützt. Mistral AI hat das Modell speziell für den Einsatz in Unternehmen optimiert, die ein gutes Verhältnis von Qualität zu Ressourcenverbrauch benötigen. Die Apache-2.0-Lizenz erlaubt volle kommerzielle Nutzung ohne Einschränkungen.
Als europäisches Modell profitiert Mistral Small von der starken mehrsprachigen Ausrichtung des Unternehmens — Französisch, Deutsch, Spanisch und weitere europäische Sprachen werden überdurchschnittlich gut unterstützt. Für den lokalen Betrieb ist Mistral Small ideal: Schnell genug für interaktive Nutzung, qualitativ hochwertig genug für produktive Anwendungen und ressourcenschonend genug für eine einzelne GPU. Wer keine 80 GB VRAM für Mistral Large 2 hat, aber mehr Qualität als Nemo braucht, findet in Mistral Small den perfekten Kompromiss.
Fähigkeiten-Matrix
Was kann Mistral Small — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, Rust, PHP, SQL
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 24B | 20 GB | 16 GB | ✗ Nein | Q4_K_M | RTX 4090 24GB oder RTX 3090 24GB |
Kompatibilität
Bewertung
Weitere Mistral-Modelle
Mistral Large 2
Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern
Mixtral 8x7B
Erstes Open-Source Mixture-of-Experts-Modell mit effizienter Architektur
War diese Übersicht hilfreich?