DeepSeek R1
von DeepSeek · Lizenz: MIT · Kommerziell nutzbar
Reasoning-Spezialist — denkt Schritt für Schritt wie ein Mensch
Was ist DeepSeek R1?
DeepSeek R1 ist ein spezialisiertes Reasoning-Modell, das entwickelt wurde, um komplexe Probleme durch schrittweises Nachdenken zu lösen — ähnlich wie OpenAIs o1-Modell, aber vollständig Open Source. Das Besondere an R1: Es zeigt seinen Denkprozess transparent an und arbeitet sich systematisch durch mathematische Beweise, logische Schlussfolgerungen und komplexe Programmieraufgaben. In verschiedenen Größen von 7B bis 671B (als destillierte Versionen) verfügbar, bietet DeepSeek R1 für jede Hardware-Klasse eine passende Option.
Die 70B-Variante bietet den besten Kompromiss aus Leistung und Betreibbarkeit. Bei mathematischen Aufgaben erreicht R1 eine perfekte 5.0 und löst Probleme, an denen andere Modelle scheitern — von Hochschulmathematik über logische Rätsel bis hin zu wissenschaftlichen Berechnungen. Coding wird mit 4.5 bewertet, da das Modell besonders gut darin ist, Algorithmen zu entwickeln und zu optimieren.
Im normalen Chat ist R1 solide mit 5.0 auf Englisch und 4.0 auf Deutsch, wobei die Antworten tendenziell ausführlicher und analytischer ausfallen als bei reinen Chat-Modellen. Die MIT-Lizenz ermöglicht vollständig freie kommerzielle Nutzung. DeepSeek R1 hat die KI-Welt Anfang 2025 aufgerüttelt, da es bewies, dass Reasoning-Fähigkeiten nicht exklusiv geschlossenen Modellen vorbehalten sind.
Für Aufgaben, die tiefes Nachdenken erfordern — Mathe, Logik, komplexe Analysen — ist DeepSeek R1 die beste Open-Source-Wahl.
Fähigkeiten-Matrix
Was kann DeepSeek R1 — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, Rust, SQL
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 7B | 8 GB | 6 GB | ✓ Ja (langsam) | Q4_K_M | RTX 3060 12GB |
| 70B | 48 GB | 40 GB | ✗ Nein | Q4_K_M | RTX 4090 24GB (quantisiert) oder 2x RTX 3090 |
| 671B | 512 GB | 400 GB | ✗ Nein | Q4_K_M | 8x A100 80GB |
Kompatibilität
Bewertung
Weitere Deepseek-Modelle
DeepSeek V3
Gigantisches 671B MoE-Modell — eines der besten Open-Source-Modelle überhaupt
War diese Übersicht hilfreich?