DeepSeek V4: Das Open-Source-Modell, das GPT-5.5 beim Coding schlägt — und 7x günstiger ist

DeepSeek V4: Das Open-Source-Modell, das GPT-5.5 beim Coding schlägt — und 7x günstiger ist

DeepSeek V4: Chinas Open-Source-Offensive erschüttert den KI-Markt

11. Mai 2026 | Von: KI-Katalog Redaktion

Als DeepSeek im Januar 2025 mit V3 die KI-Welt überraschte, hielten es viele für einen Einmal-Erfolg. Mit DeepSeek V4 Pro, veröffentlicht am 24. April 2026, beweist das chinesische Labor das Gegenteil: Ein Open-Source-Modell mit 1,6 Billionen Parametern, das bei Coding und Mathematik mit den teuersten geschlossenen Modellen gleichzieht — zu einem Bruchteil der Kosten.

Die Zahlen sprechen für sich

DeepSeek V4 Pro ist ein Mixture-of-Experts-Modell (MoE) mit 1,6 Billionen Gesamtparametern, von denen pro Anfrage nur 49 Milliarden aktiviert werden. Das bedeutet: Die Intelligenz eines Riesenmodells bei der Geschwindigkeit und den Kosten eines mittelgroßen Modells.

EigenschaftDeepSeek V4 ProGPT-5.5Claude Opus 4.7
Parameter1,6T (49B aktiv)UnbekanntUnbekannt
Kontextfenster1 Million Tokens128k200k
Input-Preis/1M Tokens$0,145~$1,00~$1,00
Output-Preis/1M Tokens$1,74~$10,00~$10,00
Open SourceJa (Hugging Face)NeinNein

Der Preisunterschied ist dramatisch: DeepSeek V4 Pro ist beim Input 7x günstiger als GPT-5.5 und beim Output 6x günstiger. Für Unternehmen mit hohem API-Volumen kann das den Unterschied zwischen einem wirtschaftlichen und einem unwirtschaftlichen KI-Projekt ausmachen.

Wo DeepSeek V4 glänzt

Coding und Mathematik

In unabhängigen Benchmarks schlägt DeepSeek V4 Pro alle offenen Modelle bei Coding, Mathematik und STEM-Aufgaben. Laut MIT Technology Review rivalisiert es sogar mit den besten geschlossenen Modellen. In unserem eigenen Test mit Python- und JavaScript-Aufgaben lieferte V4 Pro Code, der auf Anhieb funktionierte — vergleichbar mit Claude Sonnet.

1-Million-Token-Kontext

Das Kontextfenster von einer Million Tokens ist das größte unter allen Modellen dieser Leistungsklasse. Damit kann DeepSeek V4 ganze Codebases, umfangreiche Dokumentensammlungen oder lange Gesprächsverläufe verarbeiten. Die neue Hybrid-Attention-Architektur benötigt dabei nur 27 Prozent der Rechenleistung und 10 Prozent des Speichers im Vergleich zum Vorgänger.

Zwei Modi: Denken oder Antworten

DeepSeek V4 unterstützt einen Thinking-Modus, der die Reasoning-Fähigkeiten deutlich verbessert, und einen Non-Thinking-Modus für schnelle Antworten. Entwickler können je nach Aufgabe den passenden Modus wählen.

Wo DeepSeek V4 schwächelt

  • Deutsche Sprache: Englisch und Chinesisch sind deutlich stärker als Deutsch. Für deutsche Texte bleibt Claude die bessere Wahl
  • DSGVO: Die Server stehen in China, es gibt keinen AVV nach europäischem Standard. Für personenbezogene Daten in deutschen Unternehmen ist DeepSeek V4 nicht geeignet
  • Self-Hosting nötig: Um die DSGVO-Problematik zu umgehen, kann man V4 Pro lokal betreiben — braucht dafür aber erhebliche GPU-Ressourcen (mindestens 8x A100 oder vergleichbar)

Was das für den KI-Markt bedeutet

DeepSeek V4 verstärkt einen Trend, der OpenAI und Anthropic zunehmend unter Druck setzt: Open-Source-Modelle holen bei der Qualität auf und sind dramatisch günstiger. Für Entwickler und Unternehmen, die KI über APIs nutzen, gibt es immer weniger Gründe, für teure geschlossene Modelle zu bezahlen — es sei denn, man braucht Garantien bei Datenschutz und Support.

Die Gewinner dieses Trends sind Plattformen, die verschiedene Modelle zugänglich machen: Ollama für lokale Nutzung, OpenRouter für API-Zugang zu allen Modellen über eine Schnittstelle, und Self-Hosting-Lösungen für Unternehmen.

Zum DeepSeek-Test | Lokale KI-Modelle im Vergleich | Ollama-Tutorial