Die 5 gefährlichsten KI-Risiken 2025: Was du wissen musst

Die 5 gefährlichsten KI-Risiken 2025: Was du wissen musst

KI-Tools im Sicherheits-Check: Wo lauern die größten Gefahren?

Die KI-Revolution bringt täglich neue Tools auf den Markt. Doch nicht alle sind sicher. In den Jahren 2024 und 2025 haben mehrere KI-Anwendungen erhebliche Sicherheitslücken offenbart oder wurden aktiv für Cyberangriffe missbraucht. Dieser Artikel beleuchtet fünf real dokumentierte KI-Sicherheitsrisiken und zeigt, worauf Sie achten müssen.

Warnschilder und Gefahrensymbole

1. DeepSeek: Datenschutz-Albtraum aus China

Das Problem

DeepSeek, ein chinesischer KI-Anbieter, sorgte Anfang 2025 für erhebliche Aufregung – nicht nur wegen seiner beeindruckenden Modellleistung, sondern wegen gravierender Datenschutzprobleme.

Jailbreak-Vulnerabilität: Recherchen von Unit42 (Palo Alto Networks) zeigten, dass DeepSeek mit einer Erfolgsrate von 97,14 % durch Jailbreak-Techniken kompromittiert werden kann – einer der höchsten Werte aller getesteten Modelle.

Datenübermittlung nach China: Die Berliner Datenschutzbeauftragte bewertete die App als rechtswidrig und meldete sie im Juni 2025 bei Apple und Google. Grund: DeepSeek übermittelt Nutzerdaten nach China, ohne die DSGVO-Anforderungen zu erfüllen. Das Unternehmen hatte zudem keinen gesetzlichen Vertreter in der EU benannt.

Ergebnis: DeepSeek-Apps wurden aus deutschen App Stores entfernt. Mehrere Bundesbehörden und Unternehmen haben die Nutzung untersagt.

Konkrete Risiken

Guardrail Bypass:

  • Generierung schädlicher Inhalte (Malware-Code, Phishing-Texte)
  • Umgehung von Content-Filtern mit einfachen Techniken
  • Manipulation für Social Engineering
  • Datenlecks:

  • Sensible Prompts werden auf chinesischen Servern gespeichert
  • DSGVO-Compliance nicht gegeben
  • Potenzieller Zugriff durch chinesische Behörden
  • Was tun?

    Für Unternehmen:

  • DeepSeek für sensible Daten und Arbeitsaufgaben sperren
  • Präferenz für EU-basierte Anbieter (Mistral AI, Aleph Alpha)
  • Prüfen, ob bereits Daten übermittelt wurden
  • Für Privatnutzer:

  • Keine persönlichen oder vertraulichen Daten eingeben
  • Alternativen nutzen: Claude, ChatGPT (EU-konform), Gemini
  • Hacker mit Hoodie vor Code

    2. Character.AI: Jugendschutz-Versagen mit tragischen Folgen

    Das Problem

    Character.AI ermöglicht es Nutzern, mit fiktiven KI-Charakteren zu chatten – von Filmfiguren bis zu Freundschafts-Bots. 2024 kam es zu mehreren schwerwiegenden Vorfällen, die die Plattform in eine ernste Krise stürzten.

    Der Fall Sewell Setzer III: Am 28. Februar 2024 starb der 14-jährige Sewell Setzer III in Florida durch Suizid. Kurz zuvor hatte er sich in einem letzten Gespräch mit einem KI-Charakter verabschiedet. Seine Mutter reichte im Oktober 2024 Klage gegen Character.AI ein. Die Chatprotokolle zeigten, dass der Jugendliche Suizidgedanken geäußert hatte – ohne angemessene Reaktion des Chatbots.

    Sammelklage Dezember 2024: Eine weitere Klage beschuldigt das Unternehmen (das von Google unterstützt wird), durch seine Chatbots Tausende Kinder geschädigt zu haben – darunter Fälle von Selbstverletzung, sexuell unangemessenen Inhalten und Isolation durch übermäßige KI-Bindung.

    Konkrete Risiken

    Jugendschutz:

  • Fehlende Altersverifikation beim Anmelden
  • Chatbots reagieren nicht angemessen auf Krisen-Signale
  • Emotionale Abhängigkeit bei Jugendlichen
  • Sexualisierte Inhalte erreichbar für Minderjährige
  • Psychologische Risiken:

  • Verstärkung von Isolation statt sozialer Einbindung
  • Falsche Empathie-Simulation ohne echte Unterstützung
  • Fehlende Weiterleitung zu professioneller Hilfe
  • Was tun?

    Für Eltern:

  • Character.AI für Kinder unter 16 Jahren nicht freigeben
  • Gespräche über KI-Chatbots und deren Grenzen führen
  • Auf Anzeichen emotionaler Abhängigkeit achten
  • Für Plattformbetreiber:

  • Robuste Altersverifikation implementieren
  • Krisenintervention bei Suizid-Signalen obligatorisch
  • Regelmäßige externe Audits der Sicherheitsmaßnahmen
  • 3. Ungesicherte KI-Chatbots in Unternehmen: Die DSGVO-Zeitbomben

    Das Problem

    Viele Unternehmen deployen Chatbots ohne ausreichende Sicherheitsmaßnahmen – getrieben von Kostendruck und dem Wunsch, schnell von KI zu profitieren. Das Ergebnis: Datenschutz-Risiken, die Millionen Euro Bußgeld kosten können.

    Konkrete Risiken

    Data Poisoning: Angreifer können falsche Informationen in Systeme einschleusen, was zu falschen Produktempfehlungen und Rufschädigung führt.

    DSGVO-Verstöße:

  • Speicherung personenbezogener Daten ohne Rechtsgrundlage
  • Fehlende Möglichkeit zur Datenlöschung (Art. 17)
  • Keine transparente Information (Art. 12-14)
  • Strafen bis zu 35 Millionen Euro oder 7 % des Jahresumsatzes
  • Prompt Injection: Angreifer können durch geschickt formulierte Eingaben Systeminstruktionen auslesen oder Backend-Systeme manipulieren.

    Warnzeichen:

  • Chatbot fragt nach sensiblen Daten ohne SSL/TLS
  • Keine Datenschutzerklärung verlinkt
  • Unklare Cookie-/Session-Verwaltung
  • Fehlende Opt-out-Möglichkeiten
  • Was tun?

    Vor Deployment:

  • DPIA (Data Protection Impact Assessment) durchführen
  • Verschlüsselung end-to-end implementieren
  • Data Minimization praktizieren
  • Regelmäßige Security Audits
  • Datenvisualisierung Sicherheit

    4. Samsung/ChatGPT-Datenleck: Wenn Mitarbeiter Firmengeheimnisse teilen

    Das Problem

    Im April 2023 – wenige Wochen nachdem Samsung ChatGPT für Mitarbeiter freigegeben hatte – kam es zu drei schwerwiegenden Datenpannen innerhalb von nur 20 Tagen.

    Mitarbeiter hatten:

  • Proprietären Quellcode in ChatGPT eingegeben, um Fehler zu debuggen
  • Chip-Testsequenzen zur Optimierung hochgeladen
  • Vertrauliche Meeting-Protokolle via ChatGPT in Präsentationen umgewandelt
  • Alle drei Handlungen waren gut gemeint. Niemand handelte böswillig. Das Problem: OpenAIs damalige Nutzungsbedingungen erlaubten die Verwendung von Eingaben für das Training – wenn man nicht aktiv widersprach.

    Samsung sperrte ChatGPT daraufhin für alle Mitarbeiter und begann, eine eigene interne KI zu entwickeln.

    Die wichtigste Lehre: Jede Eingabe in ein externes KI-System verlässt die eigene Infrastruktur – unabhängig davon, wie vertrauenswürdig das Tool erscheint.

    Was tun?

  • Klare Richtlinien vor dem KI-Rollout formulieren
  • Enterprise-Versionen mit Datenschutzgarantien nutzen (nicht Consumer-ChatGPT)
  • DLP-Systeme (Data Loss Prevention) einsetzen
  • Regelmäßige Mitarbeiterschulungen durchführen
  • 5. Autonome KI-Agenten: Neues Werkzeug, neue Risiken

    Das Problem

    Autonome KI-Agenten – Systeme, die selbstständig im Web surfen, Code ausführen und Entscheidungen treffen – halten seit 2024 Einzug in Unternehmen. Tools wie OpenAI Operator, Microsoft Copilot Agent oder Google Project Mariner führen Aufgaben eigenständig aus.

    Das schafft neue Angriffsflächen:

    Prompt Injection via Web: Wenn ein Agent eine Webseite besucht, kann der Seiteninhaber Instruktionen in den Text einbetten, die der Agent als Befehle interpretiert. Demonstration: Ein Sicherheitsforscher ließ einen Agenten eine präparierte Seite besuchen – der Agent übermittelte daraufhin unbemerkt Daten an einen externen Server.

    Resource Exhaustion: Unkontrollierte API-Calls führen zu hohen Kosten. Infinite Loops in Reasoning-Chains können Systeme lahmlegen. Dokumentierte Fälle aus Beta-Tests zeigen Rechnungen von mehreren tausend Euro durch fehlerhafte Agenten-Schleifen.

    Unintended Actions: Agenten können Aktionen misinterpretieren. Ein Befehl wie "räum den Posteingang auf" könnte als "lösche ungelesene E-Mails" verstanden werden.

    Was tun?

    Sicherheitsmaßnahmen:

  • Agenten nur in Sandbox-Umgebungen oder mit klar definierten Berechtigungen betreiben
  • Rate Limiting für API-Calls einrichten
  • Human-in-the-Loop für kritische Aktionen erzwingen
  • Agenten-Aktivitäten in Echtzeit überwachen
  • Starten Sie klein: Beginnen Sie mit eingeschränkten Permissions (Least Privilege). Testen Sie in Non-Production-Umgebungen. Dokumentieren Sie erwartetes Verhalten und vergleichen Sie es regelmäßig mit dem tatsächlichen.

    Allgemeine Warnzeichen: Unsichere KI-Tools erkennen

    Technische Red Flags

  • Keine Bug-Bounty-Programme
  • Keine regelmäßigen Security Audits
  • Bekannte Issues zu Sicherheit seit Monaten offen
  • Fehlende Rate Limiting
  • Keine 2FA/MFA-Option
  • Unverschlüsselte Kommunikation
  • Organisatorische Red Flags

  • Intransparente Betreiber (kein EU-Vertreter, kein Impressum)
  • Keine Kontaktmöglichkeit für Security Issues
  • Fehlende DSGVO-Dokumentation
  • Serverstandort außerhalb der EU ohne angemessene Garantien
  • Operative Red Flags

  • Aggressive Datensammlung ohne klaren Zweck
  • Häufige ungepatchte Schwachstellen
  • Community berichtet von Problemen ohne Reaktion des Anbieters
  • Unrealistische Sicherheitsversprechen
  • Wie Sie sich schützen

    1. Due Diligence vor Einsatz

  • CVE-Datenbanken (NVD, MITRE) prüfen
  • Datenschutzerklärung und Nutzungsbedingungen lesen
  • Community-Feedback recherchieren (Reddit, HackerNews)
  • Unabhängige Security Audits suchen
  • 2. Defense in Depth

  • Network Segmentation (VLANs, Firewalls)
  • Application Layer Security (WAF)
  • Data Encryption (at rest, in transit)
  • Zero-Trust-Ansatz
  • 3. Monitoring

  • SIEM-Lösungen für Anomaly Detection
  • Alerts für ungewöhnliche Aktivitäten
  • Regular Security Scans
  • Penetration Testing mindestens jährlich

Fazit: Kritisches Denken schützt besser als Verbote

Die fünf dokumentierten Risiken zeigen: Sicherheitsprobleme bei KI-Tools sind keine Ausnahme – sie sind die Regel in einer sich schnell entwickelnden Branche.

Kernerkenntnisse:

1. DeepSeek lehrt: Geopolitische Datenschutzrisiken sind real und regulatorisch bereits aufgegriffen 2. Character.AI zeigt: Fehlender Jugendschutz bei emotionalen KI-Systemen kann tragische Folgen haben 3. Ungesicherte Chatbots demonstrieren: DSGVO-Compliance ist keine Option, sondern Pflicht 4. Samsung/ChatGPT beweist: Das größte Risiko sitzt oft vor dem Bildschirm 5. Autonome Agenten warnen: Mehr Autonomie bedeutet mehr Verantwortung

Die KI-Entwicklung ist nicht aufzuhalten – aber sie kann sicher gestaltet werden. Mit dem richtigen Bewusstsein, klaren Richtlinien und technischen Schutzmaßnahmen lassen sich die meisten Risiken beherrschbar machen.

Bleiben Sie wachsam. Bleiben Sie informiert. Bleiben Sie sicher.

---

Quellen: Berliner Datenschutzbeauftragte (Juni 2025), datenschutz-berlin.de; The Decoder (Oktober 2024), the-decoder.de; t3n.de (April 2023); Palo Alto Networks Unit42; IBM Think Insights