Llama 4 Scout
von Meta · Lizenz: llama-4-community · Kommerziell nutzbar
Metas effizientes MoE-Modell mit 109B Parametern und 16 Experten
Was ist Llama 4 Scout?
Llama 4 Scout ist das effizientere der beiden Llama-4-Modelle von Meta und basiert auf einer Mixture-of-Experts-Architektur (MoE) mit 17 Milliarden aktiven Parametern bei insgesamt 109 Milliarden Parametern und 16 Experten. Dieses Design ermöglicht eine beeindruckende Balance zwischen Leistung und Ressourcenverbrauch: Obwohl das Modell insgesamt sehr groß ist, werden bei jeder Anfrage nur die relevanten Experten aktiviert, was den Speicherbedarf und die Rechenzeit deutlich reduziert. Llama 4 Scout unterstützt ein enormes Kontextfenster von bis zu 10 Millionen Tokens, was es ideal für die Verarbeitung sehr langer Dokumente, umfangreicher Codebasen oder komplexer Analyseaufgaben macht.
In Benchmarks übertrifft Scout viele etablierte Modelle wie Gemma 3 27B und Qwen 2.5 72B in zahlreichen Kategorien, darunter Textverständnis, Coding und mathematisches Reasoning. Die multilinguale Fähigkeit ist ebenfalls stark ausgeprägt — Deutsch wird gut unterstützt, wenn auch Englisch weiterhin die stärkste Sprache bleibt. Das Modell wurde unter der Llama-4-Community-Lizenz veröffentlicht, die kommerzielle Nutzung erlaubt.
Für den lokalen Betrieb benötigt man allerdings erhebliche Hardware: Mindestens 64 GB RAM und eine leistungsstarke GPU mit 48 GB VRAM sind empfehlenswert, wobei quantisierte Versionen auch auf Consumer-Hardware wie der RTX 4090 lauffähig sind. Ollama und LM Studio bieten bereits Unterstützung, und die Integration in bestehende Workflows ist dank der breiten Kompatibilität mit gängigen Inference-Frameworks problemlos möglich. Vision-Fähigkeiten sind integriert, sodass Scout auch Bilder analysieren und beschreiben kann.
Fähigkeiten-Matrix
Was kann Llama 4 Scout — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Rust, Go, PHP, SQL, C#
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 109B MoE | 64 GB | 48 GB | ✗ Nein | Q4_K_M | RTX 4090 24GB (Q4) oder A100 80GB |
Kompatibilität
Bewertung
Weitere Llama-Modelle
Llama 4 Maverick
Metas großes MoE-Flaggschiff mit 400B Parametern und 128 Experten
Llama 3.2 Vision
Multimodales Open-Source-Modell mit Bildverständnis von Meta
War diese Übersicht hilfreich?