100% Lokal · DSGVO

BioMistral

von BioMistral Team (Universität Toulouse) · Lizenz: apache-2.0 · Kommerziell nutzbar

Spezialisiertes medizinisches Sprachmodell auf Mistral-7B-Basis

4.0 Gesamt
Verfügbare Größen: 7B

Was ist BioMistral?

BioMistral ist ein spezialisiertes Open-Source-Sprachmodell für den medizinischen und biomedizinischen Bereich, das auf der bewährten Mistral-7B-Architektur aufbaut. Das Modell wurde von einem Forschungsteam der Universität Toulouse entwickelt und auf einem umfangreichen Korpus medizinischer Fachliteratur feinabgestimmt, darunter PubMed-Artikel, medizinische Lehrbücher und klinische Leitlinien. In medizinischen Benchmarks wie MedQA, PubMedQA und MMLU-Medical übertrifft BioMistral allgemeine Modelle vergleichbarer Größe deutlich und erreicht Ergebnisse, die sich mit wesentlich größeren Modellen messen können.

Das Modell eignet sich hervorragend für medizinische Frage-Antwort-Systeme, die Zusammenfassung klinischer Studien, die Analyse von Arztbriefen und die Unterstützung bei der medizinischen Dokumentation. Besonders wertvoll ist BioMistral für Krankenhäuser, Arztpraxen und Forschungseinrichtungen, die sensible Patientendaten lokal verarbeiten müssen — die lokale Ausführung stellt sicher, dass keine medizinischen Daten an externe Server übertragen werden, was die DSGVO-Konformität erheblich vereinfacht. Mit nur 7 Milliarden Parametern ist das Modell vergleichsweise kompakt und läuft bereits auf einer GPU mit 6 GB VRAM in quantisierter Form oder sogar auf der CPU, wenn auch langsamer.

Die Apache-2.0-Lizenz erlaubt den kommerziellen Einsatz, wobei bei medizinischen Anwendungen natürlich die üblichen regulatorischen Vorgaben zu beachten sind. BioMistral ist über Ollama und LM Studio verfügbar und lässt sich einfach in bestehende medizinische IT-Infrastrukturen integrieren.

Fähigkeiten-Matrix

Was kann BioMistral — und was nicht?

🇩🇪 Deutsch-Chat
3.0
🇬🇧 Englisch-Chat
4.5
🗣️ Multilingual
2.5
💻 Code-Generierung
2.0
🌍 Übersetzung
2.5
📋 Zusammenfassung
4.5
📄 RAG / Dokumente
4.0
🔧 Tool-Use / Function Calling
2.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
3.0
✍️ Kreatives Schreiben
2.0

Unterstützte Programmiersprachen: Python, R

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
7B 8 GB 6 GB ✓ Ja (langsam) Q4_K_M RTX 3060 12GB oder RTX 4060 8GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★★☆ 4.5/5
RAM/VRAM-Effizienz ★★★★☆ 4.5/5

Weitere Mistral-Modelle

Mistral Large 2

Europas stärkstes Open-Source-Modell mit 123 Milliarden Parametern

123B
Details ansehen

Mistral Medium 3

Mistrals ausgewogenes Mittelklasse-Modell mit starker Effizienz

24B
Details ansehen

Devstral

Mistrals spezialisiertes Coding-Modell für agentenbasierte Entwicklung

24B
Details ansehen

Mistral Nemo

Kompaktes 12B-Modell aus Europa — der beste seiner Größenklasse

12B
Details ansehen

Mistral Small

Effizienter 24B-Allrounder aus Frankreich für lokale Nutzung

24B
Details ansehen

Codestral

Mistrals erstes dediziertes 22B-Code-Modell mit 80+ Sprachen

22B
Details ansehen

War diese Übersicht hilfreich?