100% Lokal · DSGVO

InternLM 2.5

von Shanghai AI Lab · Lizenz: apache-2.0 · Kommerziell nutzbar

Chinesisches Forschungsmodell mit starkem Tool-Use und Reasoning

3.5 Gesamt
Verfügbare Größen: 7B 20B

Was ist InternLM 2.5?

InternLM 2.5 stammt vom Shanghai AI Laboratory, einem der führenden KI-Forschungsinstitute Chinas, und überzeugt besonders durch seine starken Tool-Use- und Reasoning-Fähigkeiten. In den Größen 7B und 20B verfügbar, bietet das Modell eine beeindruckende Funktionsvielfalt für seine Parameterzahl. Der Fokus liegt auf der Fähigkeit, externe Tools und APIs zuverlässig aufzurufen — Function Calling erreicht eine Bewertung von 4.0, was InternLM 2.5 zu einer ausgezeichneten Basis für den Aufbau lokaler KI-Agenten macht.

Das Modell unterstützt einen langen Kontext von bis zu 256K Tokens, was die Verarbeitung umfangreicher Dokumente ermöglicht. In Chinesisch und Englisch liefert InternLM 2.5 starke Ergebnisse, Deutsch wird grundlegend unterstützt. Ein besonderes Feature ist die integrierte Code-Interpreter-Fähigkeit: Das Modell kann eigenständig Python-Code generieren und ausführen, um mathematische Probleme zu lösen oder Daten zu analysieren.

Die Apache-2.0-Lizenz ermöglicht volle kommerzielle Nutzung. Die 20B-Variante benötigt etwa 14 GB VRAM und ist damit auf einer RTX 4090 komfortabel betreibbar. Shanghai AI Lab investiert kontinuierlich in die Weiterentwicklung und veröffentlicht regelmäßig verbesserte Versionen.

Für Entwickler, die ein lokales Modell mit starken Agenten-Fähigkeiten und Tool-Nutzung suchen, ist InternLM 2.5 eine hervorragende — wenn auch weniger bekannte — Alternative zu den westlichen Modellen.

Fähigkeiten-Matrix

Was kann InternLM 2.5 — und was nicht?

🇩🇪 Deutsch-Chat
2.5
🇬🇧 Englisch-Chat
4.0
🗣️ Multilingual
4.0
💻 Code-Generierung
3.5
🌍 Übersetzung
3.0
📋 Zusammenfassung
3.5
📄 RAG / Dokumente
3.5
🔧 Tool-Use / Function Calling
4.0
🌐 Browser-Automatisierung
👁️ Bildverständnis
🧮 Mathematik / Logik
4.0
✍️ Kreatives Schreiben
3.0

Unterstützte Programmiersprachen: Python, JavaScript, TypeScript, Java, C++, Go, SQL

Hardware-Anforderungen

Größe Min. RAM Empf. VRAM CPU möglich? Quantisierung Empfohlene GPU
7B 8 GB 6 GB ✓ Ja (langsam) Q4_K_M RTX 3060 12GB
20B 16 GB 14 GB ✗ Nein Q4_K_M RTX 4090 24GB

GPU-Kaufberatung mit aktuellen Preisen ansehen

Kompatibilität

Bewertung

Output-Qualität ★★★★☆ 4.0/5
Inference-Speed ★★★★☆ 4.0/5
RAM/VRAM-Effizienz ★★★★☆ 4.0/5

War diese Übersicht hilfreich?