100% Lokal · DSGVO

Kolors

von Kuaishou Technology · Lizenz: apache-2.0 · Kommerziell nutzbar

Chinesisches Bildmodell mit exzellenter Textverständnis-Fähigkeit

4.0 Gesamt
Verfügbare Größen: 2.6B

Was ist Kolors?

Kolors ist ein leistungsstarkes Text-zu-Bild-Modell, das von Kuaishou Technology (dem Unternehmen hinter der Kwai-App) entwickelt wurde und sich durch ein besonders tiefes Textverständnis auszeichnet. Das Modell basiert auf einer Latent-Diffusion-Architektur und nutzt den ChatGLM-Sprachencoder, was ihm ein außergewöhnlich gutes Verständnis komplexer und detaillierter Prompts verleiht — sowohl auf Englisch als auch auf Chinesisch. In Vergleichstests erreicht Kolors eine Bildqualität, die mit SDXL und Midjourney v5 vergleichbar ist, wobei es besonders bei Porträts, Landschaften und stilisierten Illustrationen überzeugt.

Das Modell unterstützt verschiedene Auflösungen bis zu 1024x1024 Pixeln und bietet eine beeindruckende Vielfalt an Kunststilen. Für den lokalen Betrieb werden etwa 10 GB VRAM empfohlen, was mit einer RTX 3060 12GB oder vergleichbarer GPU gut machbar ist. Kolors ist unter der Apache-2.0-Lizenz veröffentlicht, was uneingeschränkte kommerzielle Nutzung ermöglicht — ein wichtiger Vorteil gegenüber vielen anderen Bildmodellen mit restriktiveren Lizenzen.

Die Integration in ComfyUI und die Diffusers-Bibliothek ist problemlos möglich, und auf Hugging Face sind vorgefertigte Pipelines verfügbar. Besonders interessant ist Kolors für Anwender, die Wert auf genaue Prompt-Befolgung legen, da das Modell selbst komplexe Beschreibungen mit mehreren Elementen, Farben und Stilen präzise umsetzen kann. Für die lokale Bildgenerierung stellt Kolors eine starke und lizenzfreundliche Alternative dar.

Fähigkeiten-Matrix

Was kann Kolors — und was nicht?

🇩🇪 Deutsch-Chat
🇬🇧 Englisch-Chat
🗣️ Multilingual
💻 Code-Generierung
🌍 Übersetzung
📋 Zusammenfassung
📄 RAG / Dokumente
🔧 Tool-Use / Function Calling
🌐 Browser-Automatisierung
👁️ Bildverständnis
4.5
🧮 Mathematik / Logik
✍️ Kreatives Schreiben
4.5

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
2.6B 12 GB 10 GB ✗ Nein FP16 RTX 3060 12GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Ollama
LM Studio
llama.cpp
vLLM
Open WebUI
Text Gen WebUI
Jan.ai

Bewertung

Output-Qualität ★★★★☆ 4.5/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

War diese Übersicht hilfreich?