Mistral Large 2
von Mistral AI · Lizenz: apache-2.0 · Kommerziell nutzbar
Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern
Was ist Mistral Large 2?
Mistral Large 2 ist das Flaggschiff von Mistral AI — dem führenden europäischen KI-Unternehmen mit Sitz in Paris — und mit 123 Milliarden Parametern das leistungsstärkste Open-Source-Modell aus der EU. Für europäische Unternehmen ist dies besonders relevant: Die Entwicklung erfolgt unter europäischen Werten und Datenschutzstandards, was Vertrauen schafft. Das Modell überzeugt in nahezu allen Disziplinen.
Die englische Konversationsqualität ist erstklassig und auf dem Niveau der besten geschlossenen Modelle. Deutsch wird hervorragend unterstützt — Mistral hatte von Anfang an einen starken Fokus auf europäische Sprachen. Besonders beeindruckend ist die Function-Calling-Fähigkeit mit einer Bewertung von 5.0: Mistral Large 2 kann zuverlässig strukturierte Tool-Aufrufe generieren und eignet sich damit perfekt für den Aufbau lokaler KI-Agenten.
Auch bei Code-Generierung und mathematischem Reasoning liefert das Modell Spitzenleistungen. Die Kehrseite: Mit 123B Parametern braucht Mistral Large 2 mindestens 80 GB VRAM für den Vollbetrieb, was eine professionelle GPU wie die A100 80GB oder mehrere Consumer-GPUs erfordert. Quantisiert lässt es sich mit etwa 48 GB VRAM betreiben.
Die Apache-2.0-Lizenz erlaubt uneingeschränkte kommerzielle Nutzung. Für Unternehmen, die das beste europäische Open-Source-Modell lokal hosten möchten und über die nötige Server-Infrastruktur verfügen, ist Mistral Large 2 die optimale Wahl — insbesondere wenn Wert auf EU-Herkunft und DSGVO-Nähe gelegt wird.
Fähigkeiten-Matrix
Was kann Mistral Large 2 — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, SQL, Kotlin, Swift
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 123B | 96 GB | 80 GB | ✗ Nein | Q4_K_M | A100 80GB oder 2x RTX 4090 (quantisiert) |
Kompatibilität
Bewertung
Weitere Mistral-Modelle
Mixtral 8x7B
Erstes Open-Source Mixture-of-Experts-Modell mit effizienter Architektur
War diese Übersicht hilfreich?