GLM-4
von Zhipu AI / THUDM · Lizenz: Apache 2.0 · Kommerziell nutzbar
Chinesisches Open-Source-LLM mit starker mehrsprachiger Leistung
Was ist GLM-4?
GLM-4 ist ein leistungsstarkes Open-Source-Sprachmodell von Zhipu AI und der Tsinghua-Universitaet, das in mehreren Größen von 1,5B bis 9B Parametern verfügbar ist. Das Modell basiert auf der General Language Model-Architektur und wurde umfangreich mit mehrsprachigen Daten trainiert, wobei Chinesisch und Englisch die Schwerpunkte bilden. GLM-4 zeigt bemerkenswerte Leistungen in Benchmarks wie MMLU, C-Eval und HumanEval und kann mit deutlich größeren Modellen mithalten.
Besonders hervorzuheben ist die starke Performance bei Code-Generierung und mathematischem Denken. Das 9B-Modell bietet eine exzellente Balance zwischen Qualität und Ressourcenverbrauch und laeuft quantisiert bereits mit 8 GB RAM. Die deutsche Sprachunterstützung ist grundlegend vorhanden, wobei die Stärken klar bei Englisch und Chinesisch liegen.
GLM-4 unterstützt Tool-Calling und kann mit externen APIs interagieren. Die Apache-2.0-Lizenz erlaubt den uneingeschraenkten kommerziellen Einsatz. Das Modell ist über Ollama, LM Studio und llama.cpp einfach lokal zu betreiben und eignet sich besonders für mehrsprachige Anwendungen und Aufgaben, die präzises logisches Denken erfordern.
Die Vision-Variante GLM-4V erweitert das Modell um multimodale Fähigkeiten und kann Bilder analysieren und beschreiben. GLM-4 wird von einer aktiven Open-Source-Community weiterentwickelt und hat besonders in asiatischen Märkten eine große Nutzerbasis aufgebaut. Für europäische Nutzer bietet die lokale Ausführung volle DSGVO-Konformität.
Fähigkeiten-Matrix
Was kann GLM-4 — und was nicht?
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 1.5B | 3 GB | 2 GB | ✓ Ja (langsam) | Q4_K_M | Keine GPU nötig |
| 9B | 8 GB | 6 GB | ✓ Ja (langsam) | Q4_K_M | RTX 3060 12GB |
Kompatibilität
Bewertung
War diese Übersicht hilfreich?