100% Lokal · DSGVO

Mixtral 8x7B

von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar

Erstes Open-Source Mixture-of-Experts-Modell mit effizienter Architektur

3.5 Gesamt
Verfügbare Größen: 46.7B (12.9B aktiv)

Was ist Mixtral 8x7B?

Mixtral 8x7B war bei seiner Veröffentlichung eine Revolution in der Open-Source-KI-Welt: Als erstes frei verfügbares Mixture-of-Experts-Modell (MoE) bewies es, dass man nicht alle Parameter eines Modells gleichzeitig aktivieren muss, um exzellente Ergebnisse zu erzielen. Das Modell besteht aus 8 Experten mit jeweils 7 Milliarden Parametern, insgesamt also 46,7 Milliarden Parameter. Bei jeder Anfrage werden jedoch nur 2 Experten aktiviert, sodass effektiv nur 12,9 Milliarden Parameter genutzt werden — das macht Mixtral deutlich schneller als ein vergleichbar großes Dense-Modell.

Die Qualität kann sich sehen lassen: In vielen Benchmarks übertrifft Mixtral 8x7B sogar Llama 2 70B, obwohl es effektiv nur einen Bruchteil der Rechenleistung benötigt. Für Konversationen auf Englisch liefert es solide 4.0, auf Deutsch und Französisch ebenfalls gute Ergebnisse — die mehrsprachige Ausrichtung von Mistral AI kommt auch hier zum Tragen. Code-Generierung funktioniert zuverlässig, und die MoE-Architektur sorgt für besonders schnelle Inferenz.

Mit etwa 26 GB VRAM ist das Modell allerdings nicht ganz anspruchslos — eine RTX 3090 oder RTX 4090 ist empfehlenswert. Die Apache-2.0-Lizenz ermöglicht uneingeschränkte kommerzielle Nutzung. Mixtral 8x7B bleibt ein wichtiges Modell, weil es die MoE-Architektur im Open-Source-Bereich populär gemacht hat und weiterhin ein gutes Verhältnis von Qualität zu Geschwindigkeit bietet.

Fähigkeiten-Matrix

Was kann Mixtral 8x7B — und was nicht?

🇩🇪 Deutsch-Chat
3.5
🇬🇧 Englisch-Chat
4.0
🗣️ Multilingual
3.5
💻 Code-Generierung
3.5
🌍 Übersetzung
3.5
📋 Zusammenfassung
4.0
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
3.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.5
✍️ Kreatives Schreiben
3.5

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, PHP, SQL

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
8x7B 32 GB 26 GB ✗ Nein Q4_K_M RTX 3090 24GB oder RTX 4090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mistral Small

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

24B
Details ansehen

War diese Übersicht hilfreich?