100% Lokal · DSGVO

DBRX

von Databricks / Mosaic ML · Lizenz: Databricks Open Model License · Kommerziell nutzbar

132B-MoE-Modell von Databricks mit 36B aktiven Parametern

4.0 Gesamt
Verfügbare Größen: 132B

Was ist DBRX?

DBRX ist ein Open-Source Large Language Model von Databricks, das eine feinkörnige Mixture-of-Experts-Architektur (MoE) mit 132 Milliarden Gesamtparametern nutzt, von denen bei jeder Anfrage 36 Milliarden aktiv sind. Das Modell wurde auf 12 Billionen Token aus Text- und Code-Daten vortrainiert und übertraf zum Zeitpunkt seiner Veröffentlichung etablierte Open-Source-Modelle wie LLaMA-2-70B und Mixtral-8x7B in zahlreichen Benchmarks. DBRX nutzt eine Transformer-Architektur mit feinkörnigem MoE, bei dem 16 Experten verfügbar sind und 4 pro Token ausgewählt werden — deutlich granularer als beispielsweise Mixtral mit 8 Experten und 2 aktiven.

Diese Architektur ermöglicht effizientere Inferenz bei höherer Modellkapazität. Das Modell zeigt starke Leistungen bei allgemeinem Chat, Code-Generierung, Textanalyse und Reasoning-Aufgaben. Für die lokale Nutzung über Ollama stehen quantisierte Varianten bereit, wobei das Modell aufgrund seiner Größe idealerweise GPUs mit mindestens 24 GB VRAM benötigt (Q4-Quantisierung).

Die Databricks Open Model License erlaubt kommerzielle Nutzung mit der Einschränkung, dass DBRX nicht zum Training anderer LLMs verwendet werden darf und ein Limit von 700 Millionen monatlichen Nutzern gilt. DBRX demonstriert Databricks Ambition im Foundation-Model-Bereich und bietet eine interessante Alternative zu Llama- und Mistral-Modellen.

Fähigkeiten-Matrix

Was kann DBRX — und was nicht?

🇩🇪 Deutsch-Chat
3.0
🇬🇧 Englisch-Chat
4.5
🗣️ Multilingual
3.5
💻 Code-Generierung
4.0
🌍 Übersetzung
3.0
📋 Zusammenfassung
4.0
📄 RAG / Dokumente
4.0
🔧 Tool-Use / Function Calling
3.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.5
✍️ Kreatives Schreiben
3.5

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, Rust

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
132B (36B aktiv) 32 GB 48 GB ✗ Nein Q4_K_M 2x RTX 4090 oder A100 80GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Ollama
LM Studio
llama.cpp
vLLM
Jan.ai

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★☆☆ 3.5/5
RAM/VRAM-Effizienz ★★★☆☆ 3.5/5

War diese Übersicht hilfreich?