100% Lokal · DSGVO

Mistral Small

von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

4.0 Gesamt
Verfügbare Größen: 24B

Was ist Mistral Small?

Mistral Small ist das 24-Milliarden-Parameter-Modell von Mistral AI und positioniert sich als goldener Mittelweg zwischen dem kompakten Nemo (12B) und dem großen Mistral Large 2 (123B). Mit 24B bietet es eine spürbar bessere Qualität als die kleineren Modelle, bleibt aber mit etwa 16 GB VRAM noch auf einer einzelnen High-End-Consumer-GPU wie der RTX 4090 betreibbar. Die Stärke von Mistral Small liegt in der ausgewogenen Performance über alle Aufgabenbereiche hinweg.

Konversationen auf Englisch und Deutsch sind flüssig und natürlich, Code-Generierung funktioniert zuverlässig für die meisten Programmiersprachen, und auch Function Calling sowie RAG-Aufgaben werden gut unterstützt. Mistral AI hat das Modell speziell für den Einsatz in Unternehmen optimiert, die ein gutes Verhältnis von Qualität zu Ressourcenverbrauch benötigen. Die Apache-2.0-Lizenz erlaubt volle kommerzielle Nutzung ohne Einschränkungen.

Als europäisches Modell profitiert Mistral Small von der starken mehrsprachigen Ausrichtung des Unternehmens — Französisch, Deutsch, Spanisch und weitere europäische Sprachen werden überdurchschnittlich gut unterstützt. Für den lokalen Betrieb ist Mistral Small ideal: Schnell genug für interaktive Nutzung, qualitativ hochwertig genug für produktive Anwendungen und ressourcenschonend genug für eine einzelne GPU. Wer keine 80 GB VRAM für Mistral Large 2 hat, aber mehr Qualität als Nemo braucht, findet in Mistral Small den perfekten Kompromiss.

Fähigkeiten-Matrix

Was kann Mistral Small — und was nicht?

🇩🇪 Deutsch-Chat
4.0
🇬🇧 Englisch-Chat
4.5
🗣️ Multilingual
4.0
💻 Code-Generierung
4.0
🌍 Übersetzung
4.0
📋 Zusammenfassung
4.0
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
4.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
4.0
✍️ Kreatives Schreiben
4.0

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, Rust, PHP, SQL

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
24B 20 GB 16 GB ✗ Nein Q4_K_M RTX 4090 24GB oder RTX 3090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★☆☆ 3.5/5
RAM/VRAM-Effizienz ★★★☆☆ 3.5/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mixtral 8x7B

Erstes Open-Source Mixture-of-Experts-Modell mit effizienter Architektur

46.7B (12.9B aktiv)
Details ansehen

War diese Übersicht hilfreich?