100% Lokal · DSGVO

QwQ-32B

von Alibaba / Qwen Team · Lizenz: Apache 2.0 · Kommerziell nutzbar

32B-Reasoning-Modell das mit DeepSeek-R1 und o1-mini konkurriert

4.5 Gesamt
Verfügbare Größen: 32.5B

Was ist QwQ-32B?

QwQ-32B (Qwen with Questions) ist Alibabas Open-Source-Reasoning-Modell mit 32,5 Milliarden Parametern, das speziell für fortgeschrittene logische Schlussfolgerungen, mathematisches Reasoning und komplexe Problemlösung entwickelt wurde. Trotz seiner vergleichsweise kompakten Größe konkurriert QwQ-32B direkt mit deutlich größeren Reasoning-Modellen wie DeepSeek-R1 (671B) und OpenAIs o1-mini und liefert dabei robuste und wettbewerbsfähige Ergebnisse. Das Modell nutzt Chain-of-Thought-Reasoning und zeigt seinen Denkprozess transparent, was die Nachvollziehbarkeit der Antworten deutlich verbessert.

QwQ-32B basiert auf der Qwen-2.5-Architektur und unterstützt ein Kontextfenster von 32.000 Token. Für die lokale Nutzung über Ollama stehen mehrere Quantisierungsstufen bereit: Q4_K_M, Q5_K_M, Q6_K und Q8_0. In der Q4-Variante läuft das Modell mit etwa 20 GB RAM, was es auf Consumer-GPUs wie der RTX 4090 nutzbar macht.

Die Reasoning-Fähigkeiten zeigen sich besonders stark bei mathematischen Beweisen, Logikrätseln, Code-Analyse und wissenschaftlichen Fragestellungen. Alibaba hat das Modell unter der Apache-2.0-Lizenz veröffentlicht, was uneingeschränkte kommerzielle Nutzung ermöglicht. QwQ-32B demonstriert eindrucksvoll, dass spezialisiertes Training bei Reasoning-Aufgaben die reine Modellgröße teilweise kompensieren kann — ein wichtiger Schritt hin zu effizienteren KI-Systemen.

Fähigkeiten-Matrix

Was kann QwQ-32B — und was nicht?

🇩🇪 Deutsch-Chat
3.5
🇬🇧 Englisch-Chat
4.5
🗣️ Multilingual
4.0
💻 Code-Generierung
4.0
🌍 Übersetzung
3.0
📋 Zusammenfassung
4.0
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
2.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
5.0
✍️ Kreatives Schreiben
3.0

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Rust

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
32.5B 20 GB 24 GB ✓ Ja (langsam) Q4_K_M RTX 4090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★☆☆ 3.5/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

Weitere Qwen-Modelle

Qwen 2.5

Chinas stärkstes Open-Source-Modell — Spitzenreiter bei Code und Mathematik

7B 32B 72B
Details ansehen

Qwen 2.5 Coder

Spezialisierter Code-Assistent auf Basis von Qwen 2.5

7B 32B
Details ansehen

War diese Übersicht hilfreich?