100% Lokal · DSGVO

Ministral 3B

von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar

Ultraleichtes Edge-Modell von Mistral für Smartphones und IoT

3.0 Gesamt
Verfügbare Größen: 3B

Was ist Ministral 3B?

Ministral 3B ist das kleinste Modell der Mistral-Familie und wurde speziell für den Einsatz auf Edge-Geräten wie Smartphones, Tablets und IoT-Systemen entwickelt. Mit nur 3 Milliarden Parametern ist es extrem ressourcenschonend und kann sogar auf Geräten ohne dedizierte GPU flüssig betrieben werden. Trotz seiner kompakten Größe liefert Ministral 3B erstaunlich gute Ergebnisse bei einfachen bis mittelschweren Aufgaben wie Textzusammenfassung, Frage-Antwort-Dialogen und grundlegender Code-Generierung.

Das Modell basiert auf der bewährten Mistral-Architektur mit Sliding Window Attention und wurde auf einem kuratierten, multilingualen Datensatz trainiert. Die deutsche Sprachunterstützung ist für ein Modell dieser Größe beachtlich, wenngleich komplexe Formulierungen gelegentlich zu Qualitätseinbußen führen. Besonders beeindruckend ist die Inferenzgeschwindigkeit: Auf einer modernen CPU erreicht Ministral 3B Tokengenerierungsraten von über 30 Tokens pro Sekunde, auf einer GPU sind es deutlich mehr.

Die Hardware-Anforderungen sind minimal — 4 GB RAM reichen bei Quantisierung bereits aus, und selbst auf einem Raspberry Pi 5 ist ein Betrieb möglich. Das Modell unterstützt einen Kontextfenster von 32.768 Tokens, was für die meisten Anwendungsfälle mehr als ausreichend ist. Über Ollama und LM Studio ist Ministral 3B in Sekundenschnelle installiert.

Unter der Apache-2.0-Lizenz ist es vollständig kommerziell nutzbar. Für Entwickler, die einen schnellen, leichtgewichtigen Assistenten für Edge-Szenarien oder als Basis für einfache Chatbots benötigen, ist Ministral 3B eine hervorragende Wahl.

Fähigkeiten-Matrix

Was kann Ministral 3B — und was nicht?

🇩🇪 Deutsch-Chat
3.0
🇬🇧 Englisch-Chat
3.5
🗣️ Multilingual
2.5
💻 Code-Generierung
2.5
🌍 Übersetzung
2.5
📋 Zusammenfassung
3.0
📄 RAG / Dokumente
2.5
🔧 Tool-Use / Function Calling
2.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
2.0
✍️ Kreatives Schreiben
2.5

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
3B 4 GB 3 GB ✓ Ja (langsam) Q4_K_M Keine GPU nötig, läuft auf CPU

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★☆☆ 3.0/5
Inference-Speed ★★★★★ 5.0/5
RAM/VRAM-Effizienz ★★★★★ 5.0/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Mistral Medium 3

Mistrals ausgewogenes Mittelklasse-Modell mit starker Effizienz

24B
Details ansehen

Devstral

Mistrals spezialisiertes Coding-Modell für agentenbasierte Entwicklung

24B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mistral Small

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

24B
Details ansehen

Codestral

Mistrals erstes dediziertes 22B-Code-Modell mit 80+ Sprachen

22B
Details ansehen

War diese Übersicht hilfreich?