SmolLM2
von Hugging Face · Lizenz: Apache 2.0 · Kommerziell nutzbar
State-of-the-Art kompaktes Modell für On-Device-KI mit 1.7B Parametern
Was ist SmolLM2?
SmolLM2 ist Hugging Faces Modellfamilie für kompakte, on-device-fähige Sprachmodelle und setzt neue Maßstäbe in der Klasse unter 2 Milliarden Parametern. Verfügbar in drei Größen — 135M, 360M und 1.7B Parameter — deckt SmolLM2 ein breites Spektrum an Einsatzszenarien ab, von Embedded-Systemen bis hin zu vollwertigen Laptop-Anwendungen. Das Flaggschiff-Modell mit 1,7 Milliarden Parametern wurde auf über 11 Billionen Token übertrainiert, was ihm trotz seiner kompakten Größe eine bemerkenswerte Leistungsfähigkeit verleiht.
In Benchmarks übertrifft SmolLM2-1.7B andere Modelle seiner Klasse wie TinyLlama und Qwen2-1.5B in den meisten Aufgaben deutlich. Das Modell eignet sich besonders für Textzusammenfassung, einfache Konversation, Textklassifikation und grundlegende Coding-Aufgaben. Die Hardware-Anforderungen sind minimal: SmolLM2-1.7B benötigt nur 2 bis 4 GB RAM und läuft flüssig auf jedem modernen Laptop ohne GPU.
Die kleineren Varianten (135M und 360M) sind sogar auf Smartphones und IoT-Geräten einsetzbar. SmolLM2 ist unter der Apache-2.0-Lizenz vollständig kommerziell nutzbar und über Ollama, LM Studio und die Hugging Face Transformers-Bibliothek verfügbar. Für Entwickler, die On-Device-KI implementieren möchten, ist SmolLM2 eine der besten verfügbaren Optionen im Open-Source-Bereich.
Fähigkeiten-Matrix
Was kann SmolLM2 — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 1.7B | 2 GB | 2 GB | ✓ Ja (langsam) | Q4_K_M | Nicht nu00f6tig |
| 360M | 1 GB | 0 GB | ✓ Ja (langsam) | fp16 | Nicht nu00f6tig |
Kompatibilität
Bewertung
War diese Übersicht hilfreich?