DeepSeek Coder V2
von DeepSeek · Lizenz: DeepSeek License · Kommerziell nutzbar
MoE-Code-Modell mit 236B Parametern und 128K Kontextfenster
Was ist DeepSeek Coder V2?
DeepSeek Coder V2 ist ein leistungsstarkes Code-Sprachmodell, das auf der DeepSeek-MoE-Architektur (Mixture of Experts) basiert und die Leistung geschlossener Modelle wie GPT-4 Turbo im Coding erreicht. Die Modellfamilie umfasst zwei Varianten: die Lite-Version mit 16 Milliarden Gesamtparametern (2,4 Milliarden aktiv) und die vollständige Version mit 236 Milliarden Gesamtparametern (21 Milliarden aktiv). Beide unterstützen ein beeindruckendes Kontextfenster von 128.000 Token, das komplexe Codebasen und lange Dokumentationen verarbeiten kann.
DeepSeek Coder V2 wurde auf einer Mischung aus Code- und natürlichsprachlichen Daten trainiert und unterstützt über 338 Programmiersprachen. In Coding-Benchmarks wie HumanEval und MBPP übertrifft es viele kommerzielle Modelle und bietet gleichzeitig starke Leistungen bei Mathematik und allgemeinem Reasoning. Die Lite-Version ist besonders attraktiv für lokale Nutzung, da sie dank MoE nur 2,4 Milliarden aktive Parameter pro Anfrage benötigt und somit auf Consumer-GPUs mit 12 bis 16 GB VRAM läuft.
Quantisierte GGUF-Versionen reduzieren den Speicherbedarf weiter. Das Modell ist über Ollama und LM Studio verfügbar und eignet sich hervorragend für Code-Completion, Code-Review, Bug-Fixing und Dokumentationsgenerierung. Die DeepSeek-Lizenz erlaubt kommerzielle Nutzung und macht es zu einer starken lokalen Alternative für Softwareentwickler.
Fähigkeiten-Matrix
Was kann DeepSeek Coder V2 — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, Ruby, Swift, Kotlin
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 16B Lite (2.4B aktiv) | 8 GB | 12 GB | ✓ Ja (langsam) | Q4_K_M | RTX 4070 12GB |
| 236B (21B aktiv) | 64 GB | 160 GB | ✗ Nein | bf16 | 8x A100 80GB |
Kompatibilität
Bewertung
Weitere Deepseek-Modelle
DeepSeek V3
Gigantisches 671B MoE-Modell — eines der besten Open-Source-Modelle überhaupt
DeepSeek R1
Reasoning-Spezialist — denkt Schritt für Schritt wie ein Mensch
War diese Übersicht hilfreich?