100% Lokal · DSGVO

Dolphin Mixtral

von Eric Hartford · Lizenz: apache-2.0 · Kommerziell nutzbar

Unzensiertes MoE-Modell ohne eingebaute Guardrails

3.5 Gesamt
Verfügbare Größen: 46.7B (12.9B aktiv)

Was ist Dolphin Mixtral?

Dolphin Mixtral ist eine spezielle Feinabstimmung des Mixtral-8x7B-Modells von Eric Hartford, die bewusst ohne die üblichen Sicherheits-Guardrails trainiert wurde. Das Modell folgt der Dolphin-Philosophie: Der Nutzer — nicht der Modellentwickler — soll entscheiden, welche Inhalte generiert werden dürfen. Dies macht Dolphin Mixtral besonders interessant für Forscher, kreative Autoren und Entwickler, die ein Modell ohne künstliche Einschränkungen benötigen.

Die Basis bildet Mixtral 8x7B mit seiner effizienten Mixture-of-Experts-Architektur, sodass nur 12,9 Milliarden der insgesamt 46,7 Milliarden Parameter bei jeder Anfrage aktiviert werden. Im englischen Chat erreicht Dolphin Mixtral eine solide 4.0 — die Antworten sind direkt, unverblümt und ohne die typischen Ausweichmanöver zensierten Modelle. Code-Generierung funktioniert auf einem brauchbaren Niveau.

Eric Hartford hat das Modell mit speziell kuratierten Datensätzen trainiert, aus denen Ablehnungs-Muster und Zensur-Antworten systematisch entfernt wurden. Die Apache-2.0-Lizenz erlaubt volle kommerzielle Nutzung. Es liegt in der Verantwortung des Betreibers, angemessene Nutzungsrichtlinien zu implementieren.

Hardware-seitig benötigt Dolphin Mixtral etwa 26 GB VRAM, vergleichbar mit dem Original-Mixtral. Das Modell hat in der Open-Source-Community eine treue Anhängerschaft, die die Freiheit schätzt, ein Modell ohne vorgegebene inhaltliche Grenzen nutzen zu können. Für Produktionsumgebungen sollten eigene Sicherheitsmechanismen implementiert werden.

Fähigkeiten-Matrix

Was kann Dolphin Mixtral — und was nicht?

🇩🇪 Deutsch-Chat
3.0
🇬🇧 Englisch-Chat
4.0
🗣️ Multilingual
3.0
💻 Code-Generierung
3.5
🌍 Übersetzung
3.0
📋 Zusammenfassung
3.5
📄 RAG / Dokumente
3.0
🔧 Tool-Use / Function Calling
2.5
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.0
✍️ Kreatives Schreiben
4.5

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, PHP, SQL

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
8x7B 32 GB 26 GB ✗ Nein Q4_K_M RTX 3090 24GB oder RTX 4090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★☆☆ 3.5/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

War diese Übersicht hilfreich?