100% Lokal · DSGVO

LeoLM

von LAION / Björn Plüster · Lizenz: llama-2-community · Kommerziell nutzbar

Erstes dediziertes deutsches Open-Source-Sprachmodell

3.0 Gesamt
Verfügbare Größen: 7B 13B

Was ist LeoLM?

LeoLM (Linguistically Enhanced Open Language Model) ist ein Meilenstein in der deutschsprachigen KI-Landschaft — es war eines der ersten dedizierten, von Grund auf für Deutsch optimierten Open-Source-Sprachmodelle. Entwickelt von Björn Plüster unter dem Dach von LAION, basiert LeoLM auf der Llama-2-Architektur und wurde zunächst mit einem großen deutschsprachigen Textkorpus weitertrainiert, bevor es mit deutschen Instruction-Daten feinabgestimmt wurde. Dieser zweistufige Ansatz — erst Sprachverständnis, dann Instruktionsbefolgung — führt zu einem Modell, das die deutsche Sprache auf einem deutlich höheren Niveau beherrscht als vergleichbare Allzweck-Modelle.

LeoLM ist in Varianten mit 7B und 13B Parametern verfügbar, wobei die 13B-Version naturgemäß bessere Ergebnisse liefert. Die Stärken des Modells liegen in der natürlichen deutschen Textgenerierung, dem Verständnis deutscher Redewendungen und kultureller Kontexte sowie der korrekten Anwendung deutscher Grammatikregeln einschließlich Kasus, Genus und komplexer Satzstrukturen. Für einfache bis mittelschwere Aufgaben wie Textzusammenfassungen, Übersetzungen, Frage-Antwort-Dialoge und kreatives Schreiben auf Deutsch liefert LeoLM zuverlässig gute Ergebnisse.

Die Hardware-Anforderungen sind moderat: Die 7B-Version läuft mit 5 GB VRAM, die 13B-Version benötigt etwa 10 GB bei Quantisierung. Das Modell ist über Ollama und die Hugging Face Transformers-Bibliothek verfügbar. Unter der Llama-2-Community-Lizenz ist es kommerziell nutzbar.

Für deutschsprachige Unternehmen und Entwickler, die Wert auf natürliche deutsche Sprachausgabe legen, bleibt LeoLM eine relevante Option — insbesondere als effiziente Alternative zu größeren multilingualen Modellen.

Fähigkeiten-Matrix

Was kann LeoLM — und was nicht?

🇩🇪 Deutsch-Chat
4.0
🇬🇧 Englisch-Chat
3.0
🗣️ Multilingual
2.5
💻 Code-Generierung
2.0
🌍 Übersetzung
3.5
📋 Zusammenfassung
3.5
📄 RAG / Dokumente
2.5
🔧 Tool-Use / Function Calling
0.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
2.0
✍️ Kreatives Schreiben
3.5

Unterstützte Programmiersprachen: Python, JavaScript

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
7B 8 GB 5 GB ✓ Ja (langsam) Q4_K_M RTX 3060 12GB
13B 16 GB 10 GB ✓ Ja (langsam) Q4_K_M RTX 4060 Ti 16GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★☆☆ 3.5/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

Weitere Llama-Modelle

Llama 4 Maverick

Metas großes MoE-Flaggschiff mit 400B Parametern und 128 Experten

400B MoE (17B aktiv)
Details ansehen

Llama 3.3

Metas bester Open-Source-Allrounder mit 70 Milliarden Parametern

70B
Details ansehen

Llama 4 Scout

Metas effizientes MoE-Modell mit 109B Parametern und 16 Experten

109B MoE (17B aktiv)
Details ansehen

Llama 3.2 Vision

Multimodales Open-Source-Modell mit Bildverständnis von Meta

11B 90B
Details ansehen

CodeLlama

Metas spezialisierter Code-Assistent auf Llama-Basis

7B 34B 70B
Details ansehen

Llama 3.2

Kompakte Sprachmodelle für schwache Hardware und Edge-Geräte

1B 3B
Details ansehen

War diese Übersicht hilfreich?