KI-Woche 11/2026: GPT-5.4, Llama 4, Grok 5 im Training – das war die wildeste KI-Woche des Jahres

KI-Woche 11/2026: GPT-5.4, Llama 4, Grok 5 im Training – das war die wildeste KI-Woche des Jahres

Manchmal verdichtet sich das gesamte Tempo der KI-Industrie in einer einzigen Woche – und die KW11 von 2026 war so eine Woche. Während in Brüssel Lobbyisten die EU-KI-Verordnung aufweichen, verbrennen in San Francisco Investoren Milliarden auf der Suche nach dem nächsten Durchbruch. Und mittendrin erscheinen Open-Source-Modelle, die das Versprechen demokratisierter KI plötzlich wieder ernst nehmen. Ein Überblick, was zwischen dem 10. und 17. März wirklich wichtig war.

OpenAI: 110 Milliarden Dollar – und trotzdem Druck von allen Seiten

Die größte Schlagzeile der Woche kommt aus der Finanzwelt: OpenAI hat seine bisher größte Finanzierungsrunde abgeschlossen – 110 Milliarden US-Dollar, angeführt von Amazon, SoftBank und Nvidia. Das treibt die Bewertung des Unternehmens auf astronomische 340 Milliarden Dollar. Zum Vergleich: Das entspricht dem Börsenwert von BMW, Volkswagen und Mercedes zusammen.

Gleichzeitig hat OpenAI das Modell herausgebracht, auf das viele gewartet haben: GPT-5.4 erscheint in drei Varianten – Nano (schnell und günstig), Standard (ausgewogenes Allround-Modell) und Max (das neue Flaggschiff). Die Max-Variante unterstützt einen Kontextfenster von 1,05 Millionen Token – das entspricht etwa 800.000 Wörtern oder drei vollständigen Romanen in einem einzigen Gespräch. Auf dem GDPVal-Benchmark, der sprachliches Verständnis und Reasoning kombiniert, erreicht GPT-5.4 Max 83 Prozent – ein Wert, den bislang kein öffentlich verfügbares Modell erreicht hatte.

Doch nicht alles läuft glatt bei OpenAI: Der Versuch, sich stärker auf kommerzielle Bereiche auszuweiten, stößt auf Widerstand. Insider berichten über interne Spannungen rund um die geplante Umstrukturierung in eine vollständige Aktiengesellschaft. Sam Altmans ursprüngliche Non-Profit-Mission hängt wie ein unbequemer Zeuge über den Verhandlungen.

KI-Investitionen und Chips – das Fundament des KI-Booms

Anthropic, Speicher und ein Pentagon-Streit

Während OpenAI die Scheinwerfer auf sich zieht, arbeitet Anthropic im Hintergrund an etwas Fundamentalerem: Gedächtnis. Mit dem Rollout von Claude Opus 4.6 und dem dazugehörigen Memory-Feature beginnt Claude erstmals, sich an Nutzer über Gespräche hinweg zu erinnern – nicht durch statische Notizen, sondern durch ein dynamisches System, das relevante Kontexte abruft und unwichtige Details vergisst.

Das klingt nach einem kleinen Feature-Update, ist aber ein erheblicher konzeptioneller Schritt: KI-Assistenten, die sich wirklich an dich erinnern, verhalten sich anders. Sie lernen deine Arbeitsweise, deine Präferenzen, deine Schwachstellen. Das ist enorm nützlich – und wirft gleichzeitig ernsthafte Fragen über Datensouveränität auf.

Diese Woche wurden die Fragen lauter: Das US-Verteidigungsministerium hat Anthropic intern als „potenzielle Lieferketten-Sicherheitsrisiko" eingestuft – ein Schritt, der die Zusammenarbeit zwischen dem Unternehmen und Bundesbehörden einschränken könnte. Anthropic hat dagegen rechtliche Schritte angekündigt und betont, dass kein einziges Sicherheitsproblem jemals dokumentiert worden sei. Die Auseinandersetzung zeigt, wie politisch das KI-Geschäft in den USA geworden ist: Zwischen Regulierung, Beschaffung und geopolitischer Paranoia navigieren die Unternehmen auf immer engerem Raum.

Parallel dazu: Anthropic wird nach einer weiteren Finanzierungsrunde mit 380 Milliarden Dollar bewertet – fast doppelt so viel wie noch vor einem Jahr. Das Rennen zwischen Claude und GPT ist nicht mehr Underdog gegen Champion. Es ist ein Duell auf Augenhöhe.

Meta Llama 4 – Open Source mit Millionen-Token-Kontext

Die aufregendste technische Neuigkeit der Woche kommt nicht aus einem geschlossenen Labor, sondern aus Metas Open-Source-Initiative: Llama 4 ist da – und es ist ein Quantensprung. Mit einem Kontextfenster von 10 Millionen Token übertrifft es selbst GPT-5.4 Max um fast das Zehnfache. Theoretisch könnte das Modell die komplette Dokumentation einer mittelgroßen Software in einem einzigen Kontext verarbeiten.

Llama 4 erscheint in mehreren Größen, von schlanken Modellen für lokale Ausführung bis hin zu leistungsfähigen Varianten für Serverumgebungen. Und das entscheidende Detail: Es ist frei nutzbar, frei anpassbar, frei deploybar. Für Unternehmen, die KI ohne Abhängigkeit von einem einzigen Anbieter einsetzen wollen, ist das ein Geschenk.

Open Source Code und KI-Entwicklung

Alibaba, Mistral, Grok – der Multipolarer Wettbewerb

Das Bild der KI-Welt wird bunter – und das ist gut so. Alibabas Forschungsabteilung hat diese Woche Qwen 3.5 Small veröffentlicht, ein 9-Milliarden-Parameter-Modell, das auf mehreren Benchmarks bessere Ergebnisse liefert als OpenAIs GPT-4-äquivalente Open-Source-Modelle mit 120 Milliarden Parametern. Anders formuliert: Qwen 3.5 Small braucht 13-mal weniger Rechenleistung für vergleichbare Ergebnisse. Das ist keine Kleinigkeit – das ist die Richtung, in die sich die ganze Industrie bewegen muss, wenn KI wirklich skalieren soll.

Aus Europa kommt Bewegung von Mistral: Die Mistral-3-Familie erscheint mit mehreren Varianten, die sowohl Instruction-Following als auch mehrsprachige Aufgaben deutlich besser beherrschen als der Vorgänger. Mistral bleibt das wichtigste europäische Open-Weights-Modell und die Hoffnung, dass nicht alles aus San Francisco oder Hangzhou kommen muss.

Und dann ist da noch Elon Musks xAI: Grok 4.1 hat sich auf der LMArena-Plattform – wo Menschen KI-Antworten anonym bewerten – an die Spitze geschoben und übertrifft dort in der menschlichen Präferenzwertung sogar GPT-5.4 Standard. Das ist methodisch eine andere Aussage als Benchmark-Werte, aber eine, die zählt. Und: Grok 5 ist bereits im Training. Das Rennen geht in die nächste Runde.

Video-KI: LTX 2.3 kann 4K mit 50 fps

Wer dachte, KI-Videogenerierung hätte ihren Höhepunkt bereits erreicht, wurde diese Woche eines Besseren belehrt. LTX 2.3 generiert Videos in echter 4K-Auflösung mit bis zu 50 Frames pro Sekunde – ein Wert, der noch vor einem halben Jahr als technisch unmöglich galt. Das Schwesterprodukt Helios geht in eine andere Richtung: 60-sekündige Videos in Echtzeit. Nicht hochauflösend, aber sofort – für Social-Media-Content, automatisierte Präsentationen, schnelle Produktvisualisierungen.

Die Kombination dieser beiden Richtungen – maximale Qualität einerseits, maximale Geschwindigkeit andererseits – wird den Video-Produktionsmarkt in den nächsten zwölf Monaten grundlegend verändern.

EU AI Act: Vereinfachung oder Aufweichung?

In Brüssel dreht sich die Diskussion um den EU AI Act Omnibus VII. Die Europäische Kommission schlägt in diesem Reformpaket vor, die Anforderungen für KMU erheblich zu vereinfachen: weniger Dokumentationspflichten, höhere Schwellenwerte für die Risikoeinstufung, längere Übergangsfristen. Auf den ersten Blick klingt das vernünftig – gerade kleine Unternehmen stöhnen unter dem bürokratischen Gewicht des ursprünglichen Gesetzes.

Kritiker sehen das anders: Die Vereinfachungen betreffen vor allem jene Bereiche, in denen Bürgerrechtsorganisationen die stärksten Schutzmaßnahmen gefordert hatten. Biometrische Überwachung, algorithmische Entscheidungen in Sozialleistungen, automatisierte Personalentscheidungen – ausgerechnet dort werden die Anforderungen gelockert. Die Debatte darüber, ob Europa den ersten weltweit ernstzunehmenden KI-Rechtsrahmen geschaffen hat oder nur das bürokratischste KI-Marketingdokument der Geschichte, geht weiter.

NVIDIA und die agentische KI: Das nächste Kapitel beginnt

Zum Abschluss ein Blick auf eine Entwicklung, die noch keine großen Schlagzeilen macht, aber die längste Halbwertszeit haben wird: NVIDIA hat seinen Agent Toolkit in der finalen Version veröffentlicht – ein Framework, das es erlaubt, mehrere KI-Modelle als koordinierte Agenten-Netzwerke zu betreiben. Nicht ein Modell, das einen Task ausführt, sondern zehn Modelle, die gemeinsam ein komplexes Projekt managen.

Das MIT Technology Review hat diese Woche Mechanistic Interpretability in seine Liste der zehn wichtigsten Durchbruchstechnologien des Jahres aufgenommen – die Forschung, die versucht zu verstehen, warum neuronale Netze die Entscheidungen treffen, die sie treffen. Das klingt akademisch, ist aber praktisch: Ohne diese Forschung können wir KI-Systemen nicht wirklich vertrauen. Mit ihr haben wir zumindest eine Chance.

Die KW11 zeigt: Die KI-Industrie ist nicht mehr ein Projekt einiger weniger Unternehmen. Sie ist globale Infrastruktur – mit allem, was dazu gehört. Mit gewaltigen Investitionen und kleinen Effizienzwundern, mit politischen Kämpfen und technischen Quantensprüngen, mit Open Source als Gegengewicht zu proprietären Giganten. Wer heute wegschaut, verpasst die Transformationsgeschwindigkeit dieser Epoche.

Alle genannten Tools findest du auf KI-Katalog.de mit DSGVO-Bewertung, Preisvergleich und unabhängigen Nutzerbewertungen.