ChatGPT Plus kostet 20 Dollar im Monat. Eine gebrauchte RTX 3090 kostet 900 Euro — einmal. Doch welche Variante ist wirklich günstiger? Die Antwort hängt davon ab, wie viele Personen KI nutzen, wie intensiv der Einsatz ist und welche Anforderungen an Datenschutz bestehen. Dieser Artikel rechnet mit echten, aktuellen Zahlen durch — keine Schätzungen, keine Marketing-Versprechen. Drei konkrete Szenarien zeigen, ab wann sich lokale KI rechnet und wo Cloud-Lösungen die bessere Wahl bleiben.
1. Die Cloud-Anbieter und ihre aktuellen Preise (Stand April 2026)
Bevor wir rechnen können, brauchen wir belastbare Zahlen. Die folgenden Preise stammen direkt von den offiziellen Pricing-Seiten der Anbieter und gelten für April 2026. Alle Preise in US-Dollar, sofern nicht anders angegeben — der aktuelle Wechselkurs liegt bei etwa 1 USD = 0,92 EUR.
Abo-Modelle für Endnutzer
| Anbieter | Plan | Preis/Monat | Preis/Jahr |
|---|---|---|---|
| ChatGPT | Plus | 20 USD | 240 USD (~221 EUR) |
| ChatGPT | Pro | 200 USD | 2.400 USD (~2.208 EUR) |
| ChatGPT | Team/Business | 25 USD/Seat | 300 USD/Seat (~276 EUR) |
| Claude | Pro | 20 USD | 240 USD (~221 EUR) |
| Claude | Max | 200 USD | 2.400 USD (~2.208 EUR) |
| Microsoft | Copilot Business | 21 USD/User | 252 USD/User (~232 EUR) |
| Microsoft | Copilot Enterprise | 30 USD/User | 360 USD/User (~331 EUR) |
| GitHub | Copilot Pro | 10 USD | 120 USD (~110 EUR) |
| GitHub | Copilot Business | 19 USD/User | 228 USD/User (~210 EUR) |
API-Preise für Entwickler
Wer KI programmatisch einbindet — etwa für Chatbots, Automatisierung oder interne Tools — zahlt nach Verbrauch:
| Modell | Input/1M Tokens | Output/1M Tokens |
|---|---|---|
| GPT-4o | 2,50 USD | 10,00 USD |
| GPT-4o mini | 0,15 USD | 0,60 USD |
| Claude Sonnet 4.6 | 3,00 USD | 15,00 USD |
Konkretes Beispiel: Ein Team, das pro Tag 100 Anfragen mit jeweils 1.000 Input- und 500 Output-Tokens an GPT-4o stellt, zahlt pro Monat: 100 × 30 × (1.000 × 0,0000025 + 500 × 0,00001) = 22,50 USD (~20,70 EUR). Bei intensiverer Nutzung mit 1.000 Anfragen pro Tag steigt das auf 225 USD (~207 EUR).
2. Die echten Kosten lokaler KI
Lokale KI klingt nach "einmal kaufen, für immer nutzen". Ganz so einfach ist es nicht — aber die Kostenstruktur ist fundamental anders als bei Cloud-Diensten. Statt monatlicher Abo-Gebühren pro Nutzer fallen einmalige Hardwarekosten und laufende Stromkosten an. Software ist in der Regel kostenlos.
Hardware: Die RTX 3090 als Preis-Leistungs-König
Die Nvidia RTX 3090 mit ihren 24 GB VRAM ist auch 2026 die meistempfohlene GPU für lokale KI-Anwendungen. In unserem ausführlichen Kaufberatungs-Artikel haben wir die Gründe im Detail analysiert. Hier die aktuellen Marktpreise (April 2026):
| Komponente | Preis (EUR) | Anmerkung |
|---|---|---|
| RTX 3090 (gebraucht) | 850–1.100 EUR | Kleinanzeigen/eBay, Durchschnitt ~950 EUR |
| Komplett-PC (falls nötig) | 500–800 EUR | Gebrauchter Workstation-PC mit 32+ GB RAM |
| 850W Netzteil (falls nötig) | 80–120 EUR | Mindestens 850W für RTX 3090 |
Realistischer Gesamtpreis für einen lokalen KI-Server: Wer bereits einen leistungsfähigen PC hat, investiert nur in die GPU — also rund 950 EUR. Wer von Null anfängt, landet bei 1.500–1.900 EUR für ein komplettes System.
Laufende Kosten: Strom
Die RTX 3090 hat eine TDP von 350 Watt, im KI-Betrieb (Inferenz) liegt der tatsächliche Verbrauch bei etwa 300–330 Watt. Der Rest des Systems verbraucht weitere 100–150 Watt. Rechnen wir mit realistischen Zahlen:
- Strompreis Deutschland 2026: Durchschnittlich 37 Cent/kWh (Grundversorgung), bei günstigem Tarif ab 28 Cent/kWh. Wir rechnen mit 0,35 EUR/kWh als realistischem Mittelwert.
- Verbrauch unter Last: ~450 Watt Gesamtsystem (GPU + CPU + RAM + Lüfter)
- Annahme: 8 Stunden aktive Nutzung pro Werktag, 22 Arbeitstage/Monat
- Ollama: Lokaler LLM-Server — 0 EUR
- Open WebUI: Web-Interface (ChatGPT-ähnlich) — 0 EUR
- Modelle: Llama 3.3, Gemma 4, Mistral, Qwen 2.5 — alle kostenlos downloadbar
- Spezial-Tools: Stable Diffusion (Bilder), Whisper (Transkription) — 0 EUR
- ChatGPT, Claude, Copilot: Daten werden auf US-Servern verarbeitet — auch mit EU-Rechenzentren ist der Zugriff durch US-Behörden (CLOUD Act) nicht ausgeschlossen
- DPA (Data Processing Agreement): Vorhanden, aber Restrisiko bleibt
- Kosten bei Datenschutzverstößen: Bis zu 20 Millionen EUR oder 4 % des Jahresumsatzes (DSGVO Art. 83)
- Enterprise-Pläne mit besseren Garantien: Verfügbar, aber deutlich teurer
- Daten verlassen nie das Firmen-Netzwerk — kein Cloud Act, kein Drittland-Transfer
- Kein DPA nötig — Sie sind selbst Verantwortlicher und Verarbeiter
- Compliance by Design: Audits, Dokumentation, Löschfristen — alles in eigener Hand
- Besonders relevant für: Gesundheitswesen, Rechtsberatung, Finanzsektor, Personalwesen, öffentliche Verwaltung
- Lokale KI für: Alltagsaufgaben (E-Mails, Zusammenfassungen, Entwürfe), sensible Daten, Massenverarbeitung, Code-Completion
- Cloud-KI (wenige Lizenzen) für: Komplexe Aufgaben, die Top-Modelle erfordern (2–3 Power-User mit ChatGPT Pro oder Claude Max)
- Hardware beschaffen: RTX 3090 auf Kleinanzeigen oder eBay kaufen. Achten Sie auf unsere Kaufberatung.
- Ollama installieren: Ein Befehl unter Linux/macOS, Installer unter Windows. Anleitung: Gemma 4 lokal installieren.
- Open WebUI einrichten: Docker-Container starten — alle Mitarbeiter können über den Browser zugreifen wie bei ChatGPT.
- Modell wählen: Für den Start empfehlen wir Llama 3.3 8B (schnell, gut für Alltagsaufgaben) oder Gemma 4 27B (höhere Qualität, braucht mehr VRAM). Alle Optionen in unserem Modell-Vergleich.
- Hardware-Check: Passt Ihre vorhandene Hardware? Unser Hardware-Guide zeigt die Mindestanforderungen für jedes Modell.
- OpenAI: ChatGPT Pricing (April 2026)
- Anthropic: Claude Plans & Pricing (April 2026)
- Microsoft: Copilot for Business Pricing (April 2026)
- GitHub: Copilot Plans & Pricing (April 2026)
- OpenAI: API Pricing — GPT-4o, GPT-4o mini (April 2026)
- Anthropic: Claude API Pricing — Sonnet 4.6 (April 2026)
- Verivox: Strompreisentwicklung Deutschland 2026
- Kleinanzeigen: RTX 3090 Gebrauchtpreise (April 2026)
- eBay: Nvidia RTX 3090 Marktpreise (April 2026)
- Strom-Report: Strompreisentwicklung 2026
Rechnung: 0,45 kW × 8h × 22 Tage × 0,35 EUR/kWh = 27,72 EUR/Monat
Im Standby (wenn keine Anfragen laufen) sinkt der Verbrauch auf ca. 80 Watt. Wer den Server 24/7 laufen lässt, zahlt im Standby zusätzlich: 0,08 kW × 16h × 30 × 0,35 = 13,44 EUR/Monat. Insgesamt also etwa 28–41 EUR/Monat für Strom.
Software: Komplett kostenlos
Das ist der entscheidende Kostenvorteil lokaler KI: Die gesamte Software-Infrastruktur ist Open Source und kostenlos:
Eine Übersicht aller verfügbaren lokalen Modelle mit Fähigkeiten-Matrix und Hardware-Anforderungen finden Sie in unserem Lokale-KI-Verzeichnis.
Versteckte Kosten: Arbeitszeit
Was die meisten Kostenvergleiche verschweigen: Lokale KI erfordert technisches Know-how. Die Ersteinrichtung dauert 2–4 Stunden (bei Erfahrung) bis 1–2 Tage (für Einsteiger). Laufende Wartung — Updates, Modellwechsel, Troubleshooting — schätzen wir auf 2–3 Stunden pro Monat. Je nach internem Stundensatz ist das ein relevanter Kostenfaktor.
3. Szenario 1: Freelancer (1 Person, moderate Nutzung)
Profil: Ein Freelancer nutzt KI für Texterstellung, Recherche, Code-Unterstützung und Brainstorming. Geschätzt 20–40 Anfragen pro Tag, keine besonders sensiblen Daten.
Cloud-Kosten pro Jahr
| Variante | Monat | Jahr |
|---|---|---|
| ChatGPT Plus | 18,40 EUR | 221 EUR |
| Claude Pro | 18,40 EUR | 221 EUR |
| ChatGPT Plus + GitHub Copilot Pro | 27,60 EUR | 331 EUR |
Lokal-Kosten pro Jahr
| Posten | Einmalig | Pro Jahr |
|---|---|---|
| RTX 3090 (gebraucht) | 950 EUR | — |
| Strom (4h/Tag, 22 Tage) | — | 166 EUR |
| Wartung (2h/Monat × 60 EUR) | — | 1.440 EUR |
| Gesamt Jahr 1 | 2.556 EUR |
Ausnahme: Wer mit sensiblen Kundendaten arbeitet (Anwälte, Ärzte, Steuerberater) und DSGVO-Compliance braucht, für den ist lokale KI trotz höherer Kosten die einzig sichere Option. Daten verlassen nie den eigenen Rechner. Mehr dazu in Abschnitt 6.
4. Szenario 2: 10-Personen-Team (tägliche Nutzung)
Profil: Ein mittelständisches Unternehmen oder eine Agentur. 10 Mitarbeiter nutzen KI täglich für Texte, Zusammenfassungen, E-Mails, Code-Reviews und Kundenservice. Durchschnittlich 30–50 Anfragen pro Person und Tag.
Cloud-Kosten pro Jahr
| Variante | Monat (10 User) | Jahr |
|---|---|---|
| ChatGPT Business | 230 EUR | 2.760 EUR |
| Microsoft Copilot Enterprise | 276 EUR | 3.312 EUR |
| ChatGPT Business + GitHub Copilot Business | 406 EUR | 4.867 EUR |
| Mix: 5× ChatGPT Business + 5× Copilot Enterprise | 253 EUR | 3.036 EUR |
Lokal-Kosten pro Jahr
| Posten | Einmalig | Pro Jahr |
|---|---|---|
| Server mit RTX 3090 (komplett) | 1.800 EUR | — |
| Strom (8h/Tag, 22 Tage) | — | 333 EUR |
| IT-Admin (3h/Monat × 80 EUR) | — | 2.880 EUR |
| Einrichtung (8h einmalig) | 640 EUR | — |
| Gesamt Jahr 1 | 5.653 EUR | |
| Gesamt ab Jahr 2 | 3.213 EUR/Jahr |
5. Szenario 3: 50-Personen-Firma (intensive Nutzung)
Profil: Ein Unternehmen mit 50 Mitarbeitern, die alle KI nutzen. Unterschiedliche Anwendungsfälle: Marketing, Vertrieb, Support, Entwicklung, HR. Einige Power-User, viele moderate Nutzer.
Cloud-Kosten pro Jahr
| Variante | Monat (50 User) | Jahr |
|---|---|---|
| ChatGPT Business (50 Seats) | 1.150 EUR | 13.800 EUR |
| Microsoft Copilot Enterprise (50 Seats) | 1.380 EUR | 16.560 EUR |
| Mix: ChatGPT + Copilot + GitHub (50 User) | 2.300 EUR | 27.600 EUR |
Lokal-Kosten pro Jahr
Für 50 gleichzeitige Nutzer reicht eine einzelne RTX 3090 nicht. Realistisch braucht man 2–3 GPUs für parallele Inferenz oder eine dedizierte Server-Lösung. Wir rechnen mit 2× RTX 3090 und einem dedizierten Server:
| Posten | Einmalig | Pro Jahr |
|---|---|---|
| Server-Hardware (Dual-GPU-fähig) | 1.200 EUR | — |
| 2× RTX 3090 (gebraucht) | 1.900 EUR | — |
| 1.200W Netzteil | 150 EUR | — |
| Strom (10h/Tag, 22 Tage, ~800W) | — | 739 EUR |
| IT-Admin (5h/Monat × 80 EUR) | — | 4.800 EUR |
| Einrichtung + Schulung (16h) | 1.280 EUR | — |
| Gesamt Jahr 1 | 10.069 EUR | |
| Gesamt ab Jahr 2 | 5.539 EUR/Jahr |
6. Der Faktor, den man nicht in Euro messen kann: DSGVO und Datensouveränität
Bei reinen Kostenvergleichen wird ein entscheidender Faktor oft unterschätzt: Wo landen die Daten? Seit dem EU AI Act (Anwendung ab August 2026) und der verschärften DSGVO-Durchsetzung wird Datenschutz vom "Nice-to-have" zum harten Compliance-Risiko.
Cloud-KI: Das Datenschutz-Dilemma
Lokale KI: Volle Kontrolle
Für Branchen mit hohen Datenschutzanforderungen ist lokale KI keine Kostenfrage — sie ist eine Pflichtfrage. Lesen Sie dazu auch unseren Artikel über den EU AI Act ab August 2026.
7. Wo Cloud-KI klar besser ist: Ehrliche Gegenargumente
Ein ehrlicher Kostenvergleich muss auch die Stärken der Cloud benennen. Lokale KI ist nicht in jedem Szenario die bessere Wahl:
Modellqualität und Updates
Cloud gewinnt. Die besten proprietären Modelle — GPT-4o, Claude Opus, Gemini Ultra — sind lokalen Open-Source-Modellen bei komplexen Aufgaben (mehrstufiges Reasoning, Coding, kreatives Schreiben) noch überlegen. Open-Source holt rasant auf (Llama 3.3 70B, Gemma 4 27B), aber der Abstand existiert.
Skalierbarkeit
Cloud gewinnt. Wenn 50 Mitarbeiter gleichzeitig Anfragen stellen, skaliert die Cloud automatisch. Lokale Hardware hat physische Grenzen: Eine RTX 3090 verarbeitet eine Anfrage nach der anderen. Für hohe Parallelität braucht man entweder mehr GPUs, kleinere Modelle oder Warteschlangen-Management.
Wartungsfreiheit
Cloud gewinnt. Kein Server-Management, keine GPU-Treiber, keine Modell-Updates, kein Troubleshooting. Abo abschließen, Browser öffnen, loslegen. Für Unternehmen ohne IT-Abteilung ist das ein starkes Argument.
Multimodalität und Spezialfunktionen
Cloud gewinnt (noch). Bildanalyse, Echtzeit-Sprachinteraktion, Web-Suche, Plugin-Ökosysteme — hier sind Cloud-Dienste deutlich weiter. Lokale Alternativen existieren (LLaVA für Bilder, Whisper für Audio), sind aber weniger integriert.
8. Die Hybrid-Lösung: Das Beste aus beiden Welten
In der Praxis fahren viele Unternehmen am besten mit einer Kombination:
Kostenbeispiel Hybrid (50 Personen)
| Komponente | Kosten/Jahr |
|---|---|
| Lokaler KI-Server (2× RTX 3090 + Betrieb) | 5.539 EUR |
| 3× ChatGPT Pro (Power-User) | 6.624 EUR |
| Gesamt Hybrid (ab Jahr 2) | 12.163 EUR |
| Ersparnis vs. 50× ChatGPT Business | 1.637 EUR/Jahr |
| Ersparnis vs. 50× Copilot Enterprise | 4.397 EUR/Jahr |
Die Hybrid-Lösung kombiniert DSGVO-Sicherheit für 95 % der Aufgaben mit Top-Modell-Zugang für komplexe Fälle — und ist gleichzeitig günstiger als eine reine Cloud-Lösung. Nutzen Sie unseren KI-Kostenrechner, um Ihre individuelle Konfiguration durchzuspielen.
9. Zusammenfassung: Die Entscheidungsmatrix
| Kriterium | 1 Person | 10 Personen | 50 Personen |
|---|---|---|---|
| Günstiger? | Cloud | Lokal (ab Jahr 2) | Lokal (ab Jahr 1) |
| Break-Even | 5–6 Jahre | ~22 Monate | ~8 Monate |
| Ersparnis 3 Jahre | -2.000 EUR (Cloud billiger) | +1.500 EUR | +25.000 EUR |
| DSGVO-Sicherheit | Lokal | Lokal | Lokal |
| Modellqualität | Cloud | Cloud | Hybrid |
| Empfehlung | Cloud-Abo | Lokal + 1–2 Cloud | Lokal + 3–5 Cloud |
10. So starten Sie: Der konkrete Einstiegsplan
Falls Sie sich für lokale KI entschieden haben, ist der Einstieg einfacher als gedacht:
Fazit: Die Wahrheit liegt in den Zahlen
Der Kostenvergleich zeigt ein klares Bild: Für Einzelpersonen sind Cloud-Abos die pragmatische Wahl. Für Teams ab 10 Personen wird lokale KI innerhalb von 1–2 Jahren günstiger — und für Unternehmen mit 50+ Mitarbeitern ist sie bereits im ersten Jahr die wirtschaftlichere Option.
Dazu kommt der Datenschutz-Faktor, der sich nicht in EUR beziffern lässt, aber im Ernstfall Millionen kosten kann. Wer sensible Daten verarbeitet — und das tun die meisten Unternehmen — bekommt mit lokaler KI nicht nur eine günstigere, sondern auch eine rechtlich sicherere Lösung.
Die smarteste Strategie für die meisten Unternehmen ist der Hybrid-Ansatz: Ein lokaler KI-Server für 90 % der Aufgaben, kombiniert mit wenigen Cloud-Lizenzen für die Fälle, in denen man die besten proprietären Modelle braucht. So maximieren Sie Kosteneinsparung und Datenschutz gleichzeitig.
Weiterführende Ressourcen auf KI-Katalog.de:
→ Alle lokalen KI-Modelle im Vergleich
→ Hardware-Guide: Welche GPU für welches Modell?
→ RTX 3090 Kaufberatung mit Benchmarks
→ KI-Kostenrechner: Ihr individuelles Setup berechnen
→ EU AI Act 2026: Was Unternehmen jetzt tun müssen