Grundbegriffe

Tokenisierung

Tokenisierung ist der Prozess, bei dem Text in kleine Einheiten (Tokens) zerlegt wird, die ein Sprachmodell verarbeiten kann. Ein Token entspricht etwa 3-4 Zeichen auf Deutsch. Das Wort "Tokenisierung" wäre mehrere Tokens. Tokenisierung beeinflusst direkt die Kosten bei API-Nutzung (Preis pro Token) und das Kontextfenster eines Modells.

Tokenisierung ist der Prozess, bei dem Text in kleine Einheiten (Tokens) zerlegt wird, die ein Sprachmodell verarbeiten kann. Ein Token entspricht etwa 3-4 Zeichen auf Deutsch. Das Wort "Tokenisierung" wäre mehrere Tokens. Tokenisierung beeinflusst direkt die Kosten bei API-Nutzung (Preis pro Token) und das Kontextfenster eines Modells.

Passende KI-Tools

Diese KI-Tools stehen in direktem Zusammenhang mit dem Begriff Tokenisierung: