100% Lokal · DSGVO

CodeLlama

von Meta · Lizenz: llama-community · Kommerziell nutzbar

Metas spezialisierter Code-Assistent auf Llama-Basis

3.5 Gesamt
Verfügbare Größen: 7B 34B 70B

Was ist CodeLlama?

CodeLlama ist Metas spezialisiertes Code-Modell, das auf der Llama-2-Architektur aufbaut und gezielt für Programmieraufgaben trainiert wurde. In den Größen 7B, 34B und 70B verfügbar, deckt CodeLlama ein breites Spektrum an Hardware-Anforderungen ab. Das Modell wurde auf über 500 Milliarden Code-Tokens zusätzlich trainiert und beherrscht eine Vielzahl von Programmiersprachen — von Python und JavaScript über C++ und Java bis hin zu spezialisierten Sprachen wie Haskell und Lua.

Die Code-Generierung erreicht eine starke 4.5 und ist besonders gut bei der Vervollständigung von Code, dem Generieren von Funktionen aus Dokumentation und dem Erklären bestehenden Codes. Ein besonderes Feature ist die 'Infill'-Fähigkeit: CodeLlama kann Code nicht nur fortsetzen, sondern auch Lücken in bestehendem Code intelligent füllen — ideal für Code-Completion in IDEs. Die 34B-Variante bietet den besten Kompromiss aus Qualität und Hardware-Anforderungen und benötigt etwa 20 GB VRAM.

Allerdings ist CodeLlama kein Chat-Modell — die allgemeine Konversationsfähigkeit liegt bei nur 2.0. Es ist ein reiner Code-Spezialist, der genau das tut, wofür er gebaut wurde. Die Llama-Community-Lizenz erlaubt kommerzielle Nutzung.

Obwohl neuere Modelle wie Qwen 2.5 Coder in manchen Benchmarks mittlerweile vorne liegen, bleibt CodeLlama ein bewährtes und zuverlässiges Werkzeug für lokale Code-Generierung — besonders für Teams, die bereits im Llama-Ökosystem unterwegs sind.

Fähigkeiten-Matrix

Was kann CodeLlama — und was nicht?

🇩🇪 Deutsch-Chat
1.5
🇬🇧 Englisch-Chat
2.0
🗣️ Multilingual
1.0
💻 Code-Generierung
4.5
🌍 Übersetzung
1.0
📋 Zusammenfassung
1.5
📄 RAG / Dokumente
2.0
🔧 Tool-Use / Function Calling
1.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.0
✍️ Kreatives Schreiben
1.0

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, C#, Go, Rust, PHP, SQL, Ruby, Haskell, Lua

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
7B 8 GB 6 GB ✓ Ja (langsam) Q4_K_M RTX 3060 12GB
34B 24 GB 20 GB ✗ Nein Q4_K_M RTX 4090 24GB
70B 48 GB 40 GB ✗ Nein Q4_K_M 2x RTX 3090 oder A100 80GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★☆☆ 3.5/5
RAM/VRAM-Effizienz ★★★☆☆ 3.5/5

Weitere Llama-Modelle

Llama 3.3

Metas bester Open-Source-Allrounder mit 70 Milliarden Parametern

70B
Details ansehen

Llama 3.2 Vision

Multimodales Open-Source-Modell mit Bildverständnis von Meta

11B 90B
Details ansehen

Llama 3.2

Kompakte Sprachmodelle für schwache Hardware und Edge-Geräte

1B 3B
Details ansehen

War diese Übersicht hilfreich?