100% Lokal · DSGVO

OLMo 2

von Allen Institute for AI (AI2) · Lizenz: Apache 2.0 · Kommerziell nutzbar

Vollständig offenes LLM — Modell, Daten, Training und Code transparent

3.5 Gesamt
Verfügbare Größen: 7B 13B

Was ist OLMo 2?

OLMo 2 (Open Language Model) ist das Flaggschiff-Sprachmodell des Allen Institute for AI (AI2) und zeichnet sich durch eine einzigartige Philosophie der vollständigen Offenheit aus: Nicht nur die Modellgewichte, sondern auch die Trainingsdaten, der Trainingscode, die Evaluierungstools und sogar die Trainingsinfrastruktur sind öffentlich zugänglich. OLMo 2 ist in Varianten mit 7 und 13 Milliarden Parametern verfügbar und wurde auf bis zu 5 Billionen Token trainiert. Das Modell erreicht in Benchmarks konkurrenzfähige Leistungen im Vergleich zu Llama 3.1 und Qwen 2.5 gleicher Größe.

Die vollständige Transparenz macht OLMo 2 besonders wertvoll für die Forschung: Wissenschaftler können den gesamten Trainingsprozess nachvollziehen, reproduzieren und darauf aufbauen. Für die praktische lokale Nutzung bietet OLMo 2 solide Chat-Fähigkeiten, Textzusammenfassung, Code-Generierung und Reasoning. Die Apache-2.0-Lizenz ermöglicht uneingeschränkte kommerzielle Nutzung — ein bewusster Kontrast zu restriktiveren Lizenzen vieler Konkurrenten.

OLMo 2 ist über Ollama, LM Studio und die Transformers-Bibliothek verfügbar und lässt sich mit Consumer-GPUs ab 8 GB VRAM (7B) oder 16 GB VRAM (13B) lokal betreiben. Für Nutzer, denen Transparenz und Nachvollziehbarkeit bei KI-Modellen wichtig sind, ist OLMo 2 die erste Wahl im Open-Source-Bereich.

Fähigkeiten-Matrix

Was kann OLMo 2 — und was nicht?

🇩🇪 Deutsch-Chat
3.0
🇬🇧 Englisch-Chat
4.0
🗣️ Multilingual
3.0
💻 Code-Generierung
3.0
🌍 Übersetzung
2.5
📋 Zusammenfassung
3.5
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
2.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.0
✍️ Kreatives Schreiben
3.0

Unterstützte Programmiersprachen: Python, JavaScript, Java, C++

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
7B 8 GB 8 GB ✓ Ja (langsam) Q4_K_M RTX 3060 8GB
13B 12 GB 16 GB ✓ Ja (langsam) Q4_K_M RTX 4070 Ti 16GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★☆☆ 3.5/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

War diese Übersicht hilfreich?