QwQ-32B
von Alibaba / Qwen Team · Lizenz: Apache 2.0 · Kommerziell nutzbar
32B-Reasoning-Modell das mit DeepSeek-R1 und o1-mini konkurriert
Was ist QwQ-32B?
QwQ-32B (Qwen with Questions) ist Alibabas Open-Source-Reasoning-Modell mit 32,5 Milliarden Parametern, das speziell für fortgeschrittene logische Schlussfolgerungen, mathematisches Reasoning und komplexe Problemlösung entwickelt wurde. Trotz seiner vergleichsweise kompakten Größe konkurriert QwQ-32B direkt mit deutlich größeren Reasoning-Modellen wie DeepSeek-R1 (671B) und OpenAIs o1-mini und liefert dabei robuste und wettbewerbsfähige Ergebnisse. Das Modell nutzt Chain-of-Thought-Reasoning und zeigt seinen Denkprozess transparent, was die Nachvollziehbarkeit der Antworten deutlich verbessert.
QwQ-32B basiert auf der Qwen-2.5-Architektur und unterstützt ein Kontextfenster von 32.000 Token. Für die lokale Nutzung über Ollama stehen mehrere Quantisierungsstufen bereit: Q4_K_M, Q5_K_M, Q6_K und Q8_0. In der Q4-Variante läuft das Modell mit etwa 20 GB RAM, was es auf Consumer-GPUs wie der RTX 4090 nutzbar macht.
Die Reasoning-Fähigkeiten zeigen sich besonders stark bei mathematischen Beweisen, Logikrätseln, Code-Analyse und wissenschaftlichen Fragestellungen. Alibaba hat das Modell unter der Apache-2.0-Lizenz veröffentlicht, was uneingeschränkte kommerzielle Nutzung ermöglicht. QwQ-32B demonstriert eindrucksvoll, dass spezialisiertes Training bei Reasoning-Aufgaben die reine Modellgröße teilweise kompensieren kann — ein wichtiger Schritt hin zu effizienteren KI-Systemen.
Fähigkeiten-Matrix
Was kann QwQ-32B — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Rust
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 32.5B | 20 GB | 24 GB | ✓ Ja (langsam) | Q4_K_M | RTX 4090 24GB |
Kompatibilität
Bewertung
Weitere Qwen-Modelle
Qwen 2.5
Chinas stärkstes Open-Source-Modell — Spitzenreiter bei Code und Mathematik
War diese Übersicht hilfreich?