100% Lokal · DSGVO

Faster Whisper

von SYSTRAN / Guillaume Klein · Lizenz: MIT · Kommerziell nutzbar

Bis zu 4x schnellere Whisper-Transkription mit CTranslate2-Backend

4.5 Gesamt
Verfügbare Größen: 39M 74M 244M 769M 1.55B

Was ist Faster Whisper?

Faster Whisper ist eine hochoptimierte Reimplementierung von OpenAIs Whisper-Modell, die das CTranslate2-Backend von SYSTRAN nutzt und dadurch bis zu vier Mal schnellere Transkription bei gleichzeitig geringerem Speicherverbrauch ermöglicht. Das Projekt übernimmt die Gewichte der originalen Whisper-Modelle, konvertiert sie in das effiziente CTranslate2-Format und nutzt optimierte Inferenz-Algorithmen wie INT8-Quantisierung und Batch-Verarbeitung. Im Vergleich zum Original-Whisper reduziert Faster Whisper den VRAM-Bedarf erheblich: Das Large-V3-Modell läuft bereits mit 4 GB VRAM flüssig, während die INT8-Version sogar auf noch bescheidenerer Hardware funktioniert.

Die Geschwindigkeitsvorteile machen Faster Whisper besonders attraktiv für Echtzeit-Anwendungen wie Live-Untertitelung, Sprachsteuerung für Smart-Home-Systeme und lokale Diktiersoftware. Die Bibliothek ist als Python-Paket über pip installierbar und bietet eine einfache API für Transkription und Übersetzung. Faster Whisper unterstützt alle Whisper-Modellgrößen von tiny bis large-v3 und ist mit der gleichen breiten Sprachabdeckung von 99 Sprachen ausgestattet.

Besonders in der Home-Assistant-Community hat sich Faster Whisper als bevorzugte Lösung für lokale Spracherkennung etabliert. Die MIT-Lizenz erlaubt uneingeschränkte kommerzielle Nutzung, und die aktive Open-Source-Community sorgt für regelmäßige Updates und Optimierungen. Für Entwickler, die Whisper lokal einsetzen möchten, ist Faster Whisper mittlerweile die empfohlene Standard-Implementierung.

Fähigkeiten-Matrix

Was kann Faster Whisper — und was nicht?

🇩🇪 Deutsch-Chat
🇬🇧 Englisch-Chat
🗣️ Multilingual
💻 Code-Generierung
🌍 Übersetzung
4.5
📋 Zusammenfassung
📄 RAG / Dokumente
🔧 Tool-Use / Function Calling
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
✍️ Kreatives Schreiben

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
1.55B (large-v3) 8 GB 4 GB ✓ Ja (langsam) int8 RTX 3060
244M (small) 2 GB 2 GB ✓ Ja (langsam) int8 Nicht nu00f6tig

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Ollama
LM Studio
llama.cpp
vLLM
Text Gen WebUI
Jan.ai

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★★★ 5.0/5
RAM/VRAM-Effizienz ★★★★★ 5.0/5

Weitere Whisper-Modelle

Whisper Large V3

Führendes lokales Spracherkennungsmodell mit 99 Sprachen

39M 74M 244M 769M 1.55B
Details ansehen

War diese Übersicht hilfreich?