LeoLM
von LAION / Björn Plüster · Lizenz: llama-2-community · Kommerziell nutzbar
Erstes dediziertes deutsches Open-Source-Sprachmodell
Was ist LeoLM?
LeoLM (Linguistically Enhanced Open Language Model) ist ein Meilenstein in der deutschsprachigen KI-Landschaft — es war eines der ersten dedizierten, von Grund auf für Deutsch optimierten Open-Source-Sprachmodelle. Entwickelt von Björn Plüster unter dem Dach von LAION, basiert LeoLM auf der Llama-2-Architektur und wurde zunächst mit einem großen deutschsprachigen Textkorpus weitertrainiert, bevor es mit deutschen Instruction-Daten feinabgestimmt wurde. Dieser zweistufige Ansatz — erst Sprachverständnis, dann Instruktionsbefolgung — führt zu einem Modell, das die deutsche Sprache auf einem deutlich höheren Niveau beherrscht als vergleichbare Allzweck-Modelle.
LeoLM ist in Varianten mit 7B und 13B Parametern verfügbar, wobei die 13B-Version naturgemäß bessere Ergebnisse liefert. Die Stärken des Modells liegen in der natürlichen deutschen Textgenerierung, dem Verständnis deutscher Redewendungen und kultureller Kontexte sowie der korrekten Anwendung deutscher Grammatikregeln einschließlich Kasus, Genus und komplexer Satzstrukturen. Für einfache bis mittelschwere Aufgaben wie Textzusammenfassungen, Übersetzungen, Frage-Antwort-Dialoge und kreatives Schreiben auf Deutsch liefert LeoLM zuverlässig gute Ergebnisse.
Die Hardware-Anforderungen sind moderat: Die 7B-Version läuft mit 5 GB VRAM, die 13B-Version benötigt etwa 10 GB bei Quantisierung. Das Modell ist über Ollama und die Hugging Face Transformers-Bibliothek verfügbar. Unter der Llama-2-Community-Lizenz ist es kommerziell nutzbar.
Für deutschsprachige Unternehmen und Entwickler, die Wert auf natürliche deutsche Sprachausgabe legen, bleibt LeoLM eine relevante Option — insbesondere als effiziente Alternative zu größeren multilingualen Modellen.
Fähigkeiten-Matrix
Was kann LeoLM — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 7B | 8 GB | 5 GB | ✓ Ja (langsam) | Q4_K_M | RTX 3060 12GB |
| 13B | 16 GB | 10 GB | ✓ Ja (langsam) | Q4_K_M | RTX 4060 Ti 16GB |
Kompatibilität
Bewertung
Weitere Llama-Modelle
Llama 4 Maverick
Metas großes MoE-Flaggschiff mit 400B Parametern und 128 Experten
Llama 4 Scout
Metas effizientes MoE-Modell mit 109B Parametern und 16 Experten
Llama 3.2 Vision
Multimodales Open-Source-Modell mit Bildverständnis von Meta
War diese Übersicht hilfreich?