DeepSeek V3
von DeepSeek · Lizenz: MIT · Kommerziell nutzbar
Gigantisches 671B MoE-Modell — eines der besten Open-Source-Modelle überhaupt
Was ist DeepSeek V3?
DeepSeek V3 ist ein gewaltiges Mixture-of-Experts-Modell mit 671 Milliarden Parametern und eines der leistungsfähigsten Open-Source-Modelle, die jemals veröffentlicht wurden. Das chinesische Unternehmen DeepSeek hat damit bewiesen, dass Open-Source-Modelle auf dem gleichen Niveau wie GPT-4 und Claude 3.5 Sonnet operieren können. Bei jeder Anfrage werden nur etwa 37 Milliarden Parameter aktiviert, was die Inferenz trotz der enormen Gesamtgröße effizienter macht als bei einem vergleichbaren Dense-Modell.
Die Leistungsdaten sind beeindruckend: Coding erreicht eine perfekte 5.0, ebenso Mathematik und englischsprachige Konversation. Deutsch wird mit 4.0 gut unterstützt. DeepSeek V3 wurde unter der MIT-Lizenz veröffentlicht — der freizügigsten aller Open-Source-Lizenzen — was maximale Freiheit für kommerzielle Nutzung garantiert.
Der Haken: Mit über 400 GB VRAM Anforderung ist lokaler Betrieb nur auf professioneller Server-Hardware mit mehreren High-End-GPUs möglich. Selbst quantisiert benötigt das Modell mindestens 200 GB VRAM. Für Einzelpersonen und kleine Unternehmen ist lokaler Betrieb daher kaum realistisch — hier empfehlen sich die destillierten kleineren Varianten oder der API-Zugang.
Für Forschungseinrichtungen und Unternehmen mit entsprechender Infrastruktur bietet DeepSeek V3 jedoch eine unschlagbare Kombination aus Leistung und Lizenzfreiheit. Das Modell setzt neue Maßstäbe für Open-Source-KI und zeigt, dass die besten Modelle nicht zwangsläufig hinter geschlossenen APIs versteckt sein müssen.
Fähigkeiten-Matrix
Was kann DeepSeek V3 — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, SQL, Kotlin, Swift, Ruby
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 671B | 512 GB | 400 GB | ✗ Nein | Q4_K_M | 8x A100 80GB oder 4x H100 |
Kompatibilität
Bewertung
Weitere Deepseek-Modelle
DeepSeek R1
Reasoning-Spezialist — denkt Schritt für Schritt wie ein Mensch
War diese Übersicht hilfreich?