KI-Sicherheit und Cyberrisiken

Sicherheit & Risiken beim Umgang mit KI

Künstliche Intelligenz revolutioniert unseren Alltag - doch mit den Chancen kommen erhebliche Risiken. Dieser umfassende Guide zeigt dir, worauf du achten musst.

Datenschutz und KI

1. Datenschutz & DSGVO-Risiken

Jedes Mal, wenn du einen Prompt in ChatGPT, Gemini oder ein anderes KI-Tool eingibst, werden deine Daten an externe Server übertragen. Was dort mit deinen Daten passiert, unterscheidet sich erheblich je nach Anbieter.

Anbieter Training mit deinen Daten? Datenspeicherung Datenschutz-Kontrolle
ChatGPT (OpenAI) Ja, standardmäßig Unbegrenzt gespeichert Temporary Chat manuell aktivierbar
Gemini (Google) Ja, standardmäßig Teilweise von Menschen geprüft Deaktivierbar, aber Daten ggf. bereits verarbeitet
Claude (Anthropic) Nein, nur mit Opt-in ~30 Tage bei Ablehnung Klarer Opt-out, SOC 2 + ISO 42001 zertifiziert
6,7 Mrd. € DSGVO-Bußgelder in Europa seit 2018
15 Mio. € Strafe für OpenAI durch Italien (2024)
35 Mio. € Maximale Strafe nach EU AI Act

Was bedeutet der EU AI Act für dich?

Seit Februar 2025 sind bereits die ersten Verbote in Kraft: Emotionserkennung am Arbeitsplatz, Social Scoring und ungezieltes Gesichts-Scraping sind jetzt illegal. Ab August 2026 gelten die vollständigen Anforderungen für Hochrisiko-KI-Systeme. Deutschland hat im Februar 2026 das KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG) verabschiedet, das die Bundesnetzagentur als zentrale KI-Aufsichtsbehörde einsetzt.

Tipp: Gib niemals vertrauliche Daten in öffentliche KI-Tools ein - keine Kundendaten, keine Passwörter, keinen Quellcode, keine internen Dokumente. Nutze wenn möglich Enterprise-Pläne, bei denen die Anbieter garantieren, nicht mit deinen Daten zu trainieren.

2. Prompt Injection - Die unsichtbare Gefahr

Prompt Injection ist die #1 Sicherheitslücke laut OWASP Top 10 für LLM-Anwendungen. Dabei werden KI-Systeme durch manipulierte Eingaben dazu gebracht, ihre eigenen Sicherheitsregeln zu ignorieren.

Wie funktioniert Prompt Injection?

Es gibt zwei Hauptvarianten:

  • Direkte Prompt Injection: Ein Benutzer formuliert eine Eingabe, die die Systemanweisungen der KI überschreibt.
  • Indirekte Prompt Injection: Bösartige Anweisungen werden in externen Datenquellen versteckt (E-Mails, Webseiten, Dokumente), die die KI dann verarbeitet.

Reale Vorfälle 2025-2026

Microsoft 365 Copilot "EchoLeak" (CVE-2025-32711)

Ein Zero-Click-Exploit ermöglichte die Datenexfiltration durch manipulierte E-Mails - ohne jegliche Interaktion des Opfers. Angreifer konnten vertrauliche Daten aus dem Microsoft-Ökosystem abgreifen.

GitHub Copilot (CVE-2025-53773)

Angreifer versteckten Prompt Injections in Code-Kommentaren öffentlicher Repositories. Beim Öffnen mit aktivem Copilot wurden Konfigurationsdateien so verändert, dass beliebiger Code ausgeführt werden konnte.

KI-Banking-Assistent: 250.000 $ Schaden

Durch manipulierte Nachrichten wurde ein KI-Banksystem dazu gebracht, die Transaktionsverifizierung zu umgehen. Ergebnis: ca. 250.000 Dollar an betrügerischen Überweisungen.

Tipp: Vertraue niemals blind KI-generierten Aktionen, besonders wenn die KI Zugriff auf E-Mails, Dateien oder andere Systeme hat. Prüfe immer die Quelle der Informationen.

3. KI-Halluzinationen - Wenn die KI lügt

KI-Modelle erfinden regelmäßig Fakten, Zitate und sogar ganze Gerichtsurteile. Das Tückische: Eine MIT-Studie von 2025 zeigt, dass KI-Modelle bei Halluzinationen 34% selbstsicherere Sprache verwenden als bei korrekten Antworten.

0,7-29,9% Halluzinationsrate je nach Modell
47% der Unternehmen trafen Entscheidungen basierend auf halluzinierten Inhalten
12.842 KI-generierte Artikel in Q1 2025 wegen Halluzinationen entfernt

Reale Konsequenzen

  • Anwälte bestraft: Im MyPillow-Fall (Juli 2025) wurden zwei Anwälte mit je 3.000 $ Strafe belegt, weil sie 24+ erfundene Gerichtsurteile aus KI-Antworten zitierten.
  • Deloitte-Bericht: Ein 440.000-AUD-Bericht für die australische Regierung enthielt erfundene akademische Quellen und fabrizierte Gerichtszitate.
  • Wissenschaft: Bei der ICLR 2026 fand GPTZero über 50 eingereichte Papers mit halluzinierten Zitaten.
Tipp: Überprüfe KI-Ausgaben immer gegen Originalquellen. Besonders bei Zahlen, Zitaten, Gesetzesverweisen und wissenschaftlichen Quellen. Nutze KI als Startpunkt, nicht als Endquelle.
Deepfake-Risiken

4. Deepfakes & Desinformation

Die Zahl der Deepfake-Dateien ist von 500.000 (2023) auf prognostizierte 8 Millionen in 2025 explodiert - eine Versechzehnfachung in nur zwei Jahren. Alle 5 Minuten findet ein Deepfake-Angriff statt.

25 Mio. $ Arup-Deepfake-Betrug via gefälschtem Video-Call
24,5% Menschliche Erkennungsrate bei Video-Deepfakes
200 Mio. $ Deepfake-Betrugsschäden allein in Q1 2025

Der Arup-Fall: 25 Millionen Dollar durch einen Videocall

Im spektakulärsten Deepfake-Betrug bisher nutzten Kriminelle KI-generierte Deepfakes des CFOs und mehrerer Kollegen des Ingenieurbüros Arup in einem Videocall. Ein Mitarbeiter der Finanzabteilung tätigte daraufhin 15 Überweisungen in Höhe von insgesamt 25 Millionen Dollar auf fünf verschiedene Bankkonten. Die Angreifer hatten die Deepfakes aus öffentlich verfügbaren Videos und Audioaufnahmen von Konferenzen erstellt. Stand Anfang 2025: Keines der gestohlenen Gelder wurde zurückgeholt.

Warum Erkennung so schwer ist

Eine iProov-Studie von 2025 zeigt: Nur 0,1% der Teilnehmer konnten alle gefälschten und echten Medien korrekt identifizieren. Voice Cloning hat die "Ununterscheidbarkeitsschwelle" überschritten - wenige Sekunden Audio reichen aus, um eine überzeugende Stimme zu klonen.

Tipp: Bei unerwarteten Video- oder Telefonanrufen mit Geldtransfer-Anfragen: Immer über einen separaten, bekannten Kanal die Identität verifizieren. Vertraue nicht blind dem, was du siehst oder hörst.

5. Jailbreaking & Guardrail-Umgehung

Jailbreaking bezeichnet Techniken, mit denen die Sicherheitsregeln von KI-Modellen umgangen werden. Aktuelle Experimente zeigen eine erschreckende Erfolgsrate von 97,14% bei kombinierten Jailbreak-Methoden.

Aktuelle Angriffstechniken

  • Kodierte Jailbreaks: Anfragen werden verschlüsselt oder verschleiert, um Keyword-Filter zu umgehen.
  • Rollenspiel-Angriffe: Das Modell wird in eine alternative Identität versetzt, die andere Regeln hat.
  • Emotionale Manipulation: Social Engineering, das die ethischen Richtlinien des Modells ausnutzt.
  • Multi-Turn Crescendo: Eine Serie scheinbar harmloser Fragen, die sich langsam steigern.
  • Autonome KI-Jailbreaker: Laut einer Nature-Communications-Studie (2026) agieren Large Reasoning Models mittlerweile als selbstständige Jailbreak-Agenten - ohne menschliches Expertenwissen.

2025 wurde ein universeller Jailbreak entdeckt, der die Sicherheitsmechanismen aller großen Chatbots gleichzeitig umging.

Tipp: Setze KI-Tools niemals für sicherheitskritische Entscheidungen ohne menschliche Überprüfung ein. Guardrails sind keine absolute Sicherheitsgarantie.

6. Shadow AI in Unternehmen

Shadow AI ist das neue Shadow IT: Über 80% der Arbeitnehmer nutzen nicht genehmigte KI-Tools am Arbeitsplatz. Bei Führungskräften ist die regelmäßige Nutzung sogar am höchsten.

38% der Mitarbeiter teilen sensible Daten mit KI-Tools ohne Erlaubnis
223 sensible Datenvorfälle pro Monat und Unternehmen (verdoppelt in einem Jahr)
4,63 Mio. $ Durchschnittskosten eines Shadow-AI-Datenlecks

Der Samsung-Vorfall

Samsung-Mitarbeiter gaben innerhalb von drei Wochen nach Aufhebung eines internen Verbots vertraulichen Halbleiter-Quellcode, Debugging-Daten und Meeting-Protokolle in ChatGPT ein. Die Daten waren unwiederbringlich verloren, sobald sie auf den OpenAI-Servern gespeichert wurden.

Prognose: Laut Gartner werden bis 2027 40% aller Datenschutzverletzungen auf KI-Missbrauch oder Shadow AI zurückzuführen sein.

Tipp: Unternehmen sollten klare KI-Nutzungsrichtlinien aufstellen, genehmigte Tools definieren und regelmäßig Schulungen zu KI-Risiken durchführen. Erstelle ein internes Register aller KI-Anwendungsfälle.

7. Urheberrecht & rechtliche Risiken

Über 70 Urheberrechtsklagen wurden bisher gegen KI-Unternehmen eingereicht. 2026 verlagert sich der Fokus von Trainingsdaten auf KI-generierte Inhalte.

Bedeutende Fälle

Bartz vs. Anthropic: 1,5 Milliarden Dollar

Der größte KI-Urheberrechtsvergleich 2025. Anthropic hatte Millionen raubkopierter Werke zum Training heruntergeladen und musste sich auf einen Vergleich in Höhe von 1,5 Milliarden Dollar einlassen.

Universal Music vs. Udio

Vergleich mit Schadensersatz und Lizenzvereinbarungen. Udio plant für 2026 einen neuen Abo-Service mit vollständig lizenzierter KI-generierter Musik.

Was bedeutet das für dich?

  • KI-generierte Inhalte sind möglicherweise nicht urheberrechtlich schützbar (fehlende menschliche Urheberschaft).
  • Die Nutzung von KI-Outputs, die urheberrechtlich geschütztes Material reproduzieren, schafft Haftungsrisiken.
  • Datenherkunft und Lizenzierung werden viele zukünftige Streitigkeiten entscheiden.
Tipp: Kennzeichne KI-generierte Inhalte transparent. Prüfe bei kommerzieller Nutzung, ob die Ausgabe möglicherweise geschütztes Material enthält. Halte dich über die sich entwickelnde Rechtslage auf dem Laufenden.

8. Gefälschte KI-Tools & Malware

Cyberkriminelle nutzen den KI-Hype, um Malware zu verbreiten. Gefälschte KI-Tools werden über Social Media beworben und stehlen dann Zugangsdaten, Kryptowährungen und sensible Daten.

Noodlophile-Kampagne (Mai 2025)

Gefälschte KI-Tools wie "Luma Dreammachine AI" wurden über Facebook-Seiten mit über 62.000 Views pro Post beworben. Beim Download erhielten Nutzer stattdessen den "Noodlophile Stealer", der Browser-Zugangsdaten und Krypto-Wallets abgreift. In einigen Fällen wurde zusätzlich ein Remote-Access-Trojaner installiert. Die Malware wurde als Malware-as-a-Service im Dark Web verkauft.

Erschreckende Bilanz bei KI-Apps

Ein CovertLabs-Scan von 2026 ergab: 196 von 198 iOS-KI-Apps wiesen aktive Datenlecks auf. Häufige Ursachen: fehlerhafte Firebase-Konfiguration, fehlende Authentifizierung, hartcodierte API-Schlüssel. Seit Januar 2025 wurden 20 Datenlecks bei KI-Apps dokumentiert - alle mit denselben Grundursachen.

Tipp: Lade KI-Tools nur von offiziellen Quellen herunter. Überprüfe den Entwickler. Sei besonders vorsichtig bei kostenlosen KI-Tools, die über Social-Media-Werbung beworben werden.
Sichere KI-Nutzung

9. Abhängigkeit & kognitive Auswirkungen

Mehrere Studien aus 2025-2026 belegen einen negativen Zusammenhang zwischen häufiger KI-Nutzung und kritischem Denkvermögen. Das MIT Media Lab warnt vor "kognitiver Atrophie" durch übermäßiges Verlassen auf KI-gestützte Lösungen.

Was die Forschung zeigt

  • Kritisches Denken: Drei Mechanismen des Schadens identifiziert - Atrophie des kritischen Denkens, Verschlechterung der Schreibfähigkeiten und reduzierter Wissenserwerb.
  • Gedächtnis: Langfristige KI-Nutzung erodiert Gedächtnisleistung, analytisches Denken und Problemlösungsfähigkeit.
  • Bildung: Studierende mit langfristiger KI-Nutzung zeigten Gedächtnisrückgang. In der Programmierausbildung behindert KI-Unterstützung die Entwicklung von Problemlösungsfähigkeiten.
  • Beruf: KI-Unterstützung beschleunigt den Kompetenzabbau, ohne dass Betroffene es bemerken - bis die KI nicht verfügbar ist.
Tipp: Nutze KI als Assistent, nicht als Ersatz. Übe regelmäßig Aufgaben ohne KI-Unterstützung. Bewahre dir aktives Nachdenken und Hinterfragen - auch wenn die KI eine schnelle Antwort liefert.

10. Best Practices für sichere KI-Nutzung

Mit den richtigen Maßnahmen kannst du KI-Tools sicher und verantwortungsvoll nutzen. Hier sind die wichtigsten Regeln:

🔒

Keine vertraulichen Daten

Gib niemals Passwörter, Kundendaten, Quellcode oder interne Dokumente in öffentliche KI-Tools ein.

Fakten immer prüfen

Verifiziere KI-Ausgaben gegen Originalquellen - besonders Zahlen, Zitate und Quellenangaben.

🏢

Enterprise-Pläne nutzen

Verwende Business-Tarife, bei denen Anbieter garantieren, nicht mit deinen Daten zu trainieren.

📋

KI-Richtlinien erstellen

Definiere, welche Tools erlaubt sind und welche Daten geteilt werden dürfen.

⚙️

Datenschutz-Einstellungen

Deaktiviere die Datenfreigabe für Training wo möglich. Prüfe die Privacy-Settings jedes Tools.

⚠️

Vorsicht bei Downloads

Lade KI-Tools nur von offiziellen Quellen. Sei skeptisch bei Gratis-Tools aus Social-Media-Werbung.

🧠

Kritisch denken bewahren

Nutze KI als Assistent, nicht als Ersatz. Übe regelmäßig Aufgaben ohne KI-Unterstützung.

🏷️

KI-Inhalte kennzeichnen

Sei transparent darüber, was von KI erstellt wurde - besonders bei kommerzieller Nutzung.

📞

Identitäten verifizieren

Bei Videocalls mit Geldanfragen: Immer über separaten Kanal die Identität bestätigen.

👥

Menschen im Loop halten

76% der Unternehmen verlangen mittlerweile menschliche Überprüfung von KI-Ausgaben.

📊

KI-Nutzung dokumentieren

Führe Audit-Trails für Compliance. Erstelle ein Register aller KI-Anwendungsfälle.

📚

Regelmäßig schulen

Halte dich über aktuelle Risiken und Regelungen wie den EU AI Act auf dem Laufenden.

Bleib sicher im Umgang mit KI

Nutze unseren Katalog, um sichere KI-Tools zu finden, und unseren Kostenrechner, um die beste Lösung für dein Budget zu ermitteln.