Vicuna
von LMSYS · Lizenz: llama-2-community · Kommerziell nutzbar
Pionier der Open-Source-Chatbots — feinabgestimmtes Llama-Modell
Was ist Vicuna?
Vicuna ist eines der einflussreichsten Open-Source-Sprachmodelle und war einer der ersten erfolgreichen Versuche, ein mit ChatGPT vergleichbares Konversationsmodell frei verfügbar zu machen. Entwickelt vom LMSYS-Team (UC Berkeley, CMU, Stanford und UCSD), basiert Vicuna auf Metas Llama-Architektur und wurde auf einer kuratierten Sammlung von Konversationsdaten feinabgestimmt. Das Modell ist in Varianten mit 7B und 13B Parametern verfügbar und hat bei seiner Veröffentlichung gezeigt, dass auch offene Modelle eine bemerkenswerte Konversationsqualität erreichen können.
In Blindtests bewerteten Nutzer Vicuna-13B als gleichwertig oder besser als viele kommerzielle Alternativen seiner Zeit. Besonders beeindruckend ist die natürliche, flüssige Art der Konversation — Vicuna antwortet ausführlich, höflich und kontextsensitiv. Die deutsche Sprachunterstützung ist grundlegend vorhanden, aber deutlich schwächer als bei neueren multilingualen Modellen.
Für englischsprachige Konversationen und kreative Textgenerierung bleibt Vicuna jedoch eine solide Wahl. Die Hardware-Anforderungen sind je nach Variante moderat: Die 7B-Version läuft quantisiert bereits mit 6 GB VRAM, die 13B-Version benötigt etwa 10 GB. Vicuna hat als Grundlage für zahlreiche Weiterentwicklungen und Finetunes gedient und ist in der Open-Source-KI-Community fest verankert.
Über Ollama und LM Studio ist es einfach zu installieren. Obwohl es inzwischen leistungsstärkere Modelle gibt, bleibt Vicuna ein historisch bedeutsames Modell und für einfache Konversationsaufgaben nach wie vor brauchbar.
Fähigkeiten-Matrix
Was kann Vicuna — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 7B | 8 GB | 6 GB | ✓ Ja (langsam) | Q4_K_M | RTX 3060 12GB |
| 13B | 16 GB | 10 GB | ✓ Ja (langsam) | Q4_K_M | RTX 3060 12GB oder RTX 4060 Ti 16GB |
Kompatibilität
Bewertung
Weitere Llama-Modelle
Llama 4 Maverick
Metas großes MoE-Flaggschiff mit 400B Parametern und 128 Experten
Llama 4 Scout
Metas effizientes MoE-Modell mit 109B Parametern und 16 Experten
Llama 3.2 Vision
Multimodales Open-Source-Modell mit Bildverständnis von Meta
War diese Übersicht hilfreich?