100% Lokal · DSGVO

GLM-4

von Zhipu AI / THUDM · Lizenz: Apache 2.0 · Kommerziell nutzbar

Chinesisches Open-Source-LLM mit starker mehrsprachiger Leistung

4.0 Gesamt
Verfügbare Größen: 1.5B 4B 9B

Was ist GLM-4?

GLM-4 ist ein leistungsstarkes Open-Source-Sprachmodell von Zhipu AI und der Tsinghua-Universitaet, das in mehreren Größen von 1,5B bis 9B Parametern verfügbar ist. Das Modell basiert auf der General Language Model-Architektur und wurde umfangreich mit mehrsprachigen Daten trainiert, wobei Chinesisch und Englisch die Schwerpunkte bilden. GLM-4 zeigt bemerkenswerte Leistungen in Benchmarks wie MMLU, C-Eval und HumanEval und kann mit deutlich größeren Modellen mithalten.

Besonders hervorzuheben ist die starke Performance bei Code-Generierung und mathematischem Denken. Das 9B-Modell bietet eine exzellente Balance zwischen Qualität und Ressourcenverbrauch und laeuft quantisiert bereits mit 8 GB RAM. Die deutsche Sprachunterstützung ist grundlegend vorhanden, wobei die Stärken klar bei Englisch und Chinesisch liegen.

GLM-4 unterstützt Tool-Calling und kann mit externen APIs interagieren. Die Apache-2.0-Lizenz erlaubt den uneingeschraenkten kommerziellen Einsatz. Das Modell ist über Ollama, LM Studio und llama.cpp einfach lokal zu betreiben und eignet sich besonders für mehrsprachige Anwendungen und Aufgaben, die präzises logisches Denken erfordern.

Die Vision-Variante GLM-4V erweitert das Modell um multimodale Fähigkeiten und kann Bilder analysieren und beschreiben. GLM-4 wird von einer aktiven Open-Source-Community weiterentwickelt und hat besonders in asiatischen Märkten eine große Nutzerbasis aufgebaut. Für europäische Nutzer bietet die lokale Ausführung volle DSGVO-Konformität.

Fähigkeiten-Matrix

Was kann GLM-4 — und was nicht?

🇩🇪 Deutsch-Chat
2.5
🇬🇧 Englisch-Chat
4.0
🗣️ Multilingual
4.0
💻 Code-Generierung
4.0
🌍 Übersetzung
3.0
📋 Zusammenfassung
4.0
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
4.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
4.5
✍️ Kreatives Schreiben
3.0

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
1.5B 3 GB 2 GB ✓ Ja (langsam) Q4_K_M Keine GPU nötig
9B 8 GB 6 GB ✓ Ja (langsam) Q4_K_M RTX 3060 12GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★★☆ 4.5/5
RAM/VRAM-Effizienz ★★★★☆ 4.5/5

War diese Übersicht hilfreich?