InternLM 2.5
von Shanghai AI Lab · Lizenz: apache-2.0 · Kommerziell nutzbar
Chinesisches Forschungsmodell mit starkem Tool-Use und Reasoning
Was ist InternLM 2.5?
InternLM 2.5 stammt vom Shanghai AI Laboratory, einem der führenden KI-Forschungsinstitute Chinas, und überzeugt besonders durch seine starken Tool-Use- und Reasoning-Fähigkeiten. In den Größen 7B und 20B verfügbar, bietet das Modell eine beeindruckende Funktionsvielfalt für seine Parameterzahl. Der Fokus liegt auf der Fähigkeit, externe Tools und APIs zuverlässig aufzurufen — Function Calling erreicht eine Bewertung von 4.0, was InternLM 2.5 zu einer ausgezeichneten Basis für den Aufbau lokaler KI-Agenten macht.
Das Modell unterstützt einen langen Kontext von bis zu 256K Tokens, was die Verarbeitung umfangreicher Dokumente ermöglicht. In Chinesisch und Englisch liefert InternLM 2.5 starke Ergebnisse, Deutsch wird grundlegend unterstützt. Ein besonderes Feature ist die integrierte Code-Interpreter-Fähigkeit: Das Modell kann eigenständig Python-Code generieren und ausführen, um mathematische Probleme zu lösen oder Daten zu analysieren.
Die Apache-2.0-Lizenz ermöglicht volle kommerzielle Nutzung. Die 20B-Variante benötigt etwa 14 GB VRAM und ist damit auf einer RTX 4090 komfortabel betreibbar. Shanghai AI Lab investiert kontinuierlich in die Weiterentwicklung und veröffentlicht regelmäßig verbesserte Versionen.
Für Entwickler, die ein lokales Modell mit starken Agenten-Fähigkeiten und Tool-Nutzung suchen, ist InternLM 2.5 eine hervorragende — wenn auch weniger bekannte — Alternative zu den westlichen Modellen.
Fähigkeiten-Matrix
Was kann InternLM 2.5 — und was nicht?
Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, SQL
Hardware-Anforderungen
| Größe | Min. RAM | Empf. VRAM | CPU möglich? | Quantisierung | Empfohlene GPU |
|---|---|---|---|---|---|
| 7B | 8 GB | 6 GB | ✓ Ja (langsam) | Q4_K_M | RTX 3060 12GB |
| 20B | 16 GB | 14 GB | ✗ Nein | Q4_K_M | RTX 4090 24GB |
Kompatibilität
Bewertung
War diese Übersicht hilfreich?