100% Lokal · DSGVO

Mistral Medium 3

von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar

Mistrals ausgewogenes Mittelklasse-Modell mit starker Effizienz

4.5 Gesamt
Verfügbare Größen: 24B

Was ist Mistral Medium 3?

Mistral Medium 3 ist das neueste Mittelklasse-Modell von Mistral AI und positioniert sich als optimale Balance zwischen Leistung und Effizienz. Mit 24 Milliarden Parametern liegt es zwischen dem kleinen Mistral Small und dem großen Mistral Large und bietet dabei ein hervorragendes Preis-Leistungs-Verhältnis für den lokalen Betrieb. Das Modell wurde speziell darauf trainiert, in praxisrelevanten Aufgaben wie Textverarbeitung, Zusammenfassung, Übersetzung und Coding eine hohe Qualität zu liefern, ohne dabei übermäßig viel Hardware zu beanspruchen.

Die europäische Herkunft von Mistral AI spiegelt sich in der besonders guten Unterstützung europäischer Sprachen wider — Deutsch wird auf einem sehr hohen Niveau beherrscht, was Mistral Medium 3 zu einer ausgezeichneten Wahl für deutschsprachige Anwendungen macht. Das Modell unterstützt Function Calling und strukturierte Ausgaben nativ, was die Integration in automatisierte Workflows und Agenten-Systeme erleichtert. Die Coding-Fähigkeiten sind solide und decken alle gängigen Programmiersprachen ab.

Für den lokalen Betrieb benötigt man eine GPU mit mindestens 16 GB VRAM bei Q4-Quantisierung, was die meisten modernen Gaming-GPUs abdeckt. Die Apache-2.0-Lizenz ermöglicht vollständige kommerzielle Nutzung ohne Einschränkungen. Ollama, LM Studio und alle gängigen Inference-Frameworks unterstützen das Modell bereits.

Die DSGVO-Konformität ist bei lokaler Ausführung vollständig gewährleistet, da keine Daten an externe Server übertragen werden.

Fähigkeiten-Matrix

Was kann Mistral Medium 3 — und was nicht?

🇩🇪 Deutsch-Chat
4.5
🇬🇧 Englisch-Chat
5.0
🗣️ Multilingual
4.0
💻 Code-Generierung
4.0
🌍 Übersetzung
4.5
📋 Zusammenfassung
4.5
📄 RAG / Dokumente
4.0
🔧 Tool-Use / Function Calling
4.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
4.0
✍️ Kreatives Schreiben
4.0

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, Rust, PHP, SQL

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
24B 16 GB 16 GB ✓ Ja (langsam) Q4_K_M RTX 4070 Ti 16GB oder RTX 3090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★★☆ 4.5/5
RAM/VRAM-Effizienz ★★★★☆ 4.5/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Devstral

Mistrals spezialisiertes Coding-Modell für agentenbasierte Entwicklung

24B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mistral Small

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

24B
Details ansehen

Codestral

Mistrals erstes dediziertes 22B-Code-Modell mit 80+ Sprachen

22B
Details ansehen

BioMistral

Spezialisiertes medizinisches Sprachmodell auf Mistral-7B-Basis

7B
Details ansehen

War diese Übersicht hilfreich?