100% Lokal · DSGVO

DeepSeek Coder V2

von DeepSeek · Lizenz: DeepSeek License · Kommerziell nutzbar

MoE-Code-Modell mit 236B Parametern und 128K Kontextfenster

4.5 Gesamt
Verfügbare Größen: 16B 236B

Was ist DeepSeek Coder V2?

DeepSeek Coder V2 ist ein leistungsstarkes Code-Sprachmodell, das auf der DeepSeek-MoE-Architektur (Mixture of Experts) basiert und die Leistung geschlossener Modelle wie GPT-4 Turbo im Coding erreicht. Die Modellfamilie umfasst zwei Varianten: die Lite-Version mit 16 Milliarden Gesamtparametern (2,4 Milliarden aktiv) und die vollständige Version mit 236 Milliarden Gesamtparametern (21 Milliarden aktiv). Beide unterstützen ein beeindruckendes Kontextfenster von 128.000 Token, das komplexe Codebasen und lange Dokumentationen verarbeiten kann.

DeepSeek Coder V2 wurde auf einer Mischung aus Code- und natürlichsprachlichen Daten trainiert und unterstützt über 338 Programmiersprachen. In Coding-Benchmarks wie HumanEval und MBPP übertrifft es viele kommerzielle Modelle und bietet gleichzeitig starke Leistungen bei Mathematik und allgemeinem Reasoning. Die Lite-Version ist besonders attraktiv für lokale Nutzung, da sie dank MoE nur 2,4 Milliarden aktive Parameter pro Anfrage benötigt und somit auf Consumer-GPUs mit 12 bis 16 GB VRAM läuft.

Quantisierte GGUF-Versionen reduzieren den Speicherbedarf weiter. Das Modell ist über Ollama und LM Studio verfügbar und eignet sich hervorragend für Code-Completion, Code-Review, Bug-Fixing und Dokumentationsgenerierung. Die DeepSeek-Lizenz erlaubt kommerzielle Nutzung und macht es zu einer starken lokalen Alternative für Softwareentwickler.

Fähigkeiten-Matrix

Was kann DeepSeek Coder V2 — und was nicht?

🇩🇪 Deutsch-Chat
3.0
🇬🇧 Englisch-Chat
4.0
🗣️ Multilingual
3.5
💻 Code-Generierung
5.0
🌍 Übersetzung
2.0
📋 Zusammenfassung
3.5
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
2.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
4.5
✍️ Kreatives Schreiben
2.5

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, Ruby, Swift, Kotlin

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
16B Lite (2.4B aktiv) 8 GB 12 GB ✓ Ja (langsam) Q4_K_M RTX 4070 12GB
236B (21B aktiv) 64 GB 160 GB ✗ Nein bf16 8x A100 80GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.5/5

Weitere Deepseek-Modelle

DeepSeek V3

Gigantisches 671B MoE-Modell — eines der besten Open-Source-Modelle überhaupt

671B (37B aktiv)
Details ansehen

DeepSeek R1

Reasoning-Spezialist — denkt Schritt für Schritt wie ein Mensch

7B 14B 32B 70B 671B
Details ansehen

War diese Übersicht hilfreich?