DeepSeek V4: Chinas Open-Source-Offensive erschüttert den KI-Markt
11. Mai 2026 | Von: KI-Katalog Redaktion
Als DeepSeek im Januar 2025 mit V3 die KI-Welt überraschte, hielten es viele für einen Einmal-Erfolg. Mit DeepSeek V4 Pro, veröffentlicht am 24. April 2026, beweist das chinesische Labor das Gegenteil: Ein Open-Source-Modell mit 1,6 Billionen Parametern, das bei Coding und Mathematik mit den teuersten geschlossenen Modellen gleichzieht — zu einem Bruchteil der Kosten.
Die Zahlen sprechen für sich
DeepSeek V4 Pro ist ein Mixture-of-Experts-Modell (MoE) mit 1,6 Billionen Gesamtparametern, von denen pro Anfrage nur 49 Milliarden aktiviert werden. Das bedeutet: Die Intelligenz eines Riesenmodells bei der Geschwindigkeit und den Kosten eines mittelgroßen Modells.
| Eigenschaft | DeepSeek V4 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| Parameter | 1,6T (49B aktiv) | Unbekannt | Unbekannt |
| Kontextfenster | 1 Million Tokens | 128k | 200k |
| Input-Preis/1M Tokens | $0,145 | ~$1,00 | ~$1,00 |
| Output-Preis/1M Tokens | $1,74 | ~$10,00 | ~$10,00 |
| Open Source | Ja (Hugging Face) | Nein | Nein |
Der Preisunterschied ist dramatisch: DeepSeek V4 Pro ist beim Input 7x günstiger als GPT-5.5 und beim Output 6x günstiger. Für Unternehmen mit hohem API-Volumen kann das den Unterschied zwischen einem wirtschaftlichen und einem unwirtschaftlichen KI-Projekt ausmachen.
Wo DeepSeek V4 glänzt
Coding und Mathematik
In unabhängigen Benchmarks schlägt DeepSeek V4 Pro alle offenen Modelle bei Coding, Mathematik und STEM-Aufgaben. Laut MIT Technology Review rivalisiert es sogar mit den besten geschlossenen Modellen. In unserem eigenen Test mit Python- und JavaScript-Aufgaben lieferte V4 Pro Code, der auf Anhieb funktionierte — vergleichbar mit Claude Sonnet.
1-Million-Token-Kontext
Das Kontextfenster von einer Million Tokens ist das größte unter allen Modellen dieser Leistungsklasse. Damit kann DeepSeek V4 ganze Codebases, umfangreiche Dokumentensammlungen oder lange Gesprächsverläufe verarbeiten. Die neue Hybrid-Attention-Architektur benötigt dabei nur 27 Prozent der Rechenleistung und 10 Prozent des Speichers im Vergleich zum Vorgänger.
Zwei Modi: Denken oder Antworten
DeepSeek V4 unterstützt einen Thinking-Modus, der die Reasoning-Fähigkeiten deutlich verbessert, und einen Non-Thinking-Modus für schnelle Antworten. Entwickler können je nach Aufgabe den passenden Modus wählen.
Wo DeepSeek V4 schwächelt
- Deutsche Sprache: Englisch und Chinesisch sind deutlich stärker als Deutsch. Für deutsche Texte bleibt Claude die bessere Wahl
- DSGVO: Die Server stehen in China, es gibt keinen AVV nach europäischem Standard. Für personenbezogene Daten in deutschen Unternehmen ist DeepSeek V4 nicht geeignet
- Self-Hosting nötig: Um die DSGVO-Problematik zu umgehen, kann man V4 Pro lokal betreiben — braucht dafür aber erhebliche GPU-Ressourcen (mindestens 8x A100 oder vergleichbar)
Was das für den KI-Markt bedeutet
DeepSeek V4 verstärkt einen Trend, der OpenAI und Anthropic zunehmend unter Druck setzt: Open-Source-Modelle holen bei der Qualität auf und sind dramatisch günstiger. Für Entwickler und Unternehmen, die KI über APIs nutzen, gibt es immer weniger Gründe, für teure geschlossene Modelle zu bezahlen — es sei denn, man braucht Garantien bei Datenschutz und Support.
Die Gewinner dieses Trends sind Plattformen, die verschiedene Modelle zugänglich machen: Ollama für lokale Nutzung, OpenRouter für API-Zugang zu allen Modellen über eine Schnittstelle, und Self-Hosting-Lösungen für Unternehmen.
Zum DeepSeek-Test | Lokale KI-Modelle im Vergleich | Ollama-Tutorial