100% Lokal · DSGVO

NLLB-200

von Meta AI · Lizenz: CC-BY-NC 4.0 · Eingeschränkte Lizenz

Übersetzung zwischen 200 Sprachen — auch seltene und bedrohte Sprachen

4.0 Gesamt
Verfügbare Größen: 600M 1.3B 3.3B 54.5B

Was ist NLLB-200?

NLLB-200 (No Language Left Behind) ist Metas ambitioniertes Übersetzungsmodell, das als erstes System hochwertige maschinelle Übersetzung für über 200 Sprachen ermöglicht, darunter viele seltene und bedrohte Sprachen, die von kommerziellen Diensten nicht abgedeckt werden. Die Modellfamilie umfasst mehrere Größen: von der kompakten destillierten 600M-Variante bis zum vollständigen 3,3B-Modell und dem massiven 54,5B-MoE-Modell. NLLB-200 nutzt eine Sparsely Gated Mixture-of-Experts-Architektur, die je nach Sprachpaar nur einen Bruchteil der Gesamtparameter aktiviert und damit effiziente Inferenz ermöglicht.

Das destillierte 600M-Modell ist das beliebteste Übersetzungsmodell auf Hugging Face und läuft problemlos auf CPUs, während das 3,3B-Modell für höhere Qualität eine GPU mit mindestens 8 GB VRAM benötigt. Die Übersetzungsqualität übertrifft vorherige Open-Source-Modelle deutlich: NLLB erzielt auf dem FLORES-200 Benchmark durchschnittlich 44 Prozent bessere BLEU-Scores als das vorherige Modell M2M-100. Besonders stark ist das Modell bei niedrig-ressourcigen Sprachen wie Luganda, Urdu oder Quechua.

Für die lokale Nutzung bietet Hugging Face Transformers eine einfache Python-API. Die CC-BY-NC-4.0-Lizenz beschränkt die Nutzung auf nicht-kommerzielle Zwecke, was Forschung und persönlichen Einsatz erlaubt, aber kommerzielle Anwendungen ausschließt.

Fähigkeiten-Matrix

Was kann NLLB-200 — und was nicht?

🇩🇪 Deutsch-Chat
🇬🇧 Englisch-Chat
🗣️ Multilingual
💻 Code-Generierung
🌍 Übersetzung
5.0
📋 Zusammenfassung
📄 RAG / Dokumente
🔧 Tool-Use / Function Calling
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
✍️ Kreatives Schreiben

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
3.3B 8 GB 8 GB ✓ Ja (langsam) fp16 RTX 3060 8GB
600M (distilled) 2 GB 0 GB ✓ Ja (langsam) fp32 Nicht nu00f6tig

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Ollama
LM Studio
llama.cpp
vLLM
Open WebUI
Text Gen WebUI
Jan.ai

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

War diese Übersicht hilfreich?