Tokenisierung ist der Prozess, bei dem Text in kleine Einheiten (Tokens) zerlegt wird, die ein Sprachmodell verarbeiten kann. Ein Token entspricht etwa 3-4 Zeichen auf Deutsch. Das Wort "Tokenisierung" wäre mehrere Tokens. Tokenisierung beeinflusst direkt die Kosten bei API-Nutzung (Preis pro Token) und das Kontextfenster eines Modells.
Passende KI-Tools
Diese KI-Tools stehen in direktem Zusammenhang mit dem Begriff Tokenisierung:
Claude
KritischAnthropics KI mit 1M Token Context und überlegener Coding-Qualität
HeyGen
Kritisch4.8/5 - AI Avatars in 175 Sprachen
Fireflies
Kritisch116 Sprachen! - Besser als Otter
Luma Dream Machine
KritischCinematische KI-Videogenerierung auf Hollywood-Niveau von Luma AI
ChatGPT
KritischDas führende KI-Sprachmodell für Konversation und Produktivität
GitHub Copilot
KritischMarktführer mit 15M Usern - spart 2h/Woche