Phi-4 Mini
von Microsoft · Lizenz: MIT · Kommerziell nutzbar
Kompaktes 3.8B-Sprachmodell mit erstaunlicher Leistung
Was ist Phi-4 Mini?
Phi-4 Mini ist Microsofts ultra-kompaktes Sprachmodell mit nur 3,8 Milliarden Parametern, das trotz seiner geringen Größe beeindruckende Ergebnisse in Benchmarks wie MMLU, GSM8K und HumanEval erzielt. Das Modell wurde mit hochwertigen synthetischen Daten und kuratierten Textkorpora trainiert und nutzt eine innovative Architektur, die Effizienz und Qualität optimal verbindet. Phi-4 Mini eignet sich hervorragend für den lokalen Einsatz auf Consumer-Hardware, da es bereits mit 4 GB RAM auf der CPU laeuft.
Besonders stark ist das Modell bei logischem Denken, mathematischen Aufgaben und Code-Generierung - Bereiche, in denen es deutlich größere Modelle herausfordert. Die Unterstützung für Deutsch ist solide, wobei Englisch die primaere Sprache bleibt. Microsoft hat Phi-4 Mini unter der MIT-Lizenz veröffentlicht, was den kommerziellen Einsatz ohne Einschränkungen erlaubt.
Das Modell lässt sich problemlos über Ollama, LM Studio oder llama.cpp betreiben und ist ideal für Entwickler, die ein schnelles, ressourcenschonendes Modell für Chatbots, Zusammenfassungen oder einfache Programmieraufgaben benötigen. Die GGUF-Quantisierung ermöglicht eine weitere Komprimierung bei minimalem Qualitätsverlust, sodass das Modell sogar auf älteren Laptops und Raspberry Pi 5 funktioniert. Die Community hat bereits zahlreiche Fine-Tuned-Varianten erstellt, die das Modell für spezifische Anwendungsfälle wie medizinische Beratung oder juristische Analyse optimieren.
Microsoft plant weitere Verbesserungen der Phi-Serie mit Fokus auf Effizienz.
Fähigkeiten-Matrix
Was kann Phi-4 Mini — und was nicht?
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 3.8B | 4 GB | 3 GB | ✓ Ja (langsam) | Q4_K_M | Keine GPU nötig, optional iGPU |
Kompatibilität
Bewertung
Weitere Phi-Modelle
War diese Übersicht hilfreich?