Modelle & Technik

Kontextfenster (Context Window)

Das Kontextfenster ist das „Kurzzeitgedächtnis" einer KI – es bestimmt, wie viel Text das Modell gleichzeitig berücksichtigen kann. Gemessen wird es in Tokens. GPT-4 Turbo hat ein Kontextfenster von 128.000 Tokens (ca. 300 Buchseiten). Ein größeres Kontextfenster bedeutet, dass die KI längere Dokumente am Stück verarbeiten kann.

Was ist das Kontextfenster?

Das Kontextfenster (englisch: Context Window) bezeichnet die maximale Menge an Text, die ein KI-Sprachmodell bei einer einzelnen Anfrage gleichzeitig beruecksichtigen kann. Es umfasst sowohl Ihre Eingabe als auch die Antwort des Modells -- alles zusammen darf das Kontextfenster nicht ueberschreiten. Gemessen wird es in Tokens, der kleinsten Texteinheit, die ein Large Language Model verarbeitet.

Das Kontextfenster ist einer der wichtigsten Unterscheidungsmerkmale zwischen verschiedenen KI-Modellen, denn es bestimmt direkt, wie umfangreiche Aufgaben ein Modell bewaeltigen kann.

Warum ist das Kontextfenster wichtig?

Stellen Sie sich das Kontextfenster als das "Arbeitsgedaechtnis" der KI vor. Alles, was innerhalb dieses Fensters liegt, kann das Modell beruecksichtigen. Was ausserhalb liegt, existiert fuer das Modell nicht.

Das hat praktische Konsequenzen:

  • Lange Dokumente analysieren: Wenn Sie ein 100-seitiges Vertragsdokument zusammenfassen moechten, brauchen Sie ein Modell mit genuegend grossem Kontextfenster, um den gesamten Text aufzunehmen.
  • Mehrstufige Gespraeche: Bei laengeren Dialogen mit einem Chatbot wird die gesamte Konversationshistorie als Kontext mitgefuehrt. Bei kleinem Kontextfenster "vergisst" der Chatbot den Anfang des Gespraechs.
  • Komplexe Aufgaben: Programmieraufgaben, bei denen mehrere Dateien gleichzeitig beruecksichtigt werden muessen, erfordern grosse Kontextfenster.
  • Kontextfenster im Vergleich

    Die Groesse des Kontextfensters unterscheidet sich erheblich zwischen den Modellen (Stand 2026):

  • GPT-4o (OpenAI): 128.000 Tokens -- das entspricht etwa 100 Seiten Text oder einem kurzen Buch
  • Claude 3.5 Sonnet / Claude 4 (Anthropic): 200.000 Tokens -- etwa 150 Seiten Text, eines der groessten Fenster bei Premium-Modellen
  • Gemini 1.5 Pro (Google): bis zu 1.000.000 Tokens -- ein Durchbruch, der die Verarbeitung ganzer Buecher oder grosser Codebasen ermoeglicht
  • Llama 3.1 (Meta): 128.000 Tokens -- beeindruckend fuer ein Open-Source-Modell
  • Aeltere Modelle (GPT-3.5): nur 4.096 bis 16.385 Tokens -- damals Standard, heute stark limitierend
  • Zum Vergleich: Ein durchschnittlicher Roman hat etwa 70.000 bis 100.000 Woerter, was ungefaehr 90.000 bis 150.000 Tokens entspricht. Gemini 1.5 Pro koennte also ein ganzes Buch auf einmal verarbeiten.

    Groesseres Kontextfenster heisst nicht immer besser

    Ein grosses Kontextfenster hat auch Nachteile, die Unternehmen beruecksichtigen sollten:

  • Kosten: Mehr Tokens bedeuten hoehere Kosten. Wenn Sie 100.000 Tokens als Eingabe senden, zahlen Sie fuer jeden einzelnen -- auch wenn das Modell nur einen kleinen Teil davon fuer die Antwort braucht.
  • Needle-in-a-Haystack-Problem: Studien zeigen, dass Modelle Informationen in der Mitte langer Kontexte schlechter beruecksichtigen als solche am Anfang oder Ende. Bei sehr langen Eingaben kann relevante Information uebersehen werden.
  • Geschwindigkeit: Je mehr Tokens verarbeitet werden, desto laenger dauert die Antwort. Der Rechenaufwand steigt ueberproportional mit der Kontextlaenge.
  • Strategien fuer den Umgang mit Kontextgrenzen

    Wenn Ihr Text das Kontextfenster ueberschreitet, gibt es mehrere Loesungsansaetze:

  • Chunking: Teilen Sie lange Dokumente in kleinere Abschnitte auf und verarbeiten Sie diese nacheinander
  • Retrieval Augmented Generation (RAG): Statt das gesamte Dokument zu senden, werden nur die relevanten Abschnitte mithilfe von Embeddings ausgewaehlt und als Kontext eingefuegt
  • Zusammenfassung: Lassen Sie laengere Passagen zunaechst zusammenfassen und arbeiten Sie dann mit der kompakten Version weiter
  • Modellwahl: Waehlen Sie fuer Aufgaben mit langen Dokumenten gezielt Modelle mit grossem Kontextfenster
  • Bedeutung fuer Unternehmen

    Das Kontextfenster ist ein entscheidendes Kriterium bei der Auswahl eines KI-Modells fuer Ihren Anwendungsfall. Fragen Sie sich:

  • Wie lang sind die Texte, die Sie typischerweise verarbeiten moechten?
  • Brauchen Sie lange Konversationsverlaeufe mit Kontexterhalt?
  • Wie wichtig sind Kosten im Verhaeltnis zur Kontextlaenge?
Fuer die meisten Bueroanwendungen reichen 128.000 Tokens voellig aus. Fuer spezialisierte Anwendungen wie die Analyse juristischer Dokumente, wissenschaftlicher Arbeiten oder grosser Codebasen kann ein groesseres Kontextfenster den entscheidenden Unterschied machen.

Fazit

Das Kontextfenster bestimmt die Grenzen dessen, was ein Large Language Model in einer einzelnen Anfrage leisten kann. Es waechst von Generation zu Generation und eroeffnet damit immer neue Anwendungsmoeglichkeiten. Fuer Unternehmen ist es wichtig, die richtige Balance zwischen Kontextgroesse, Kosten und Antwortqualitaet zu finden.