Wie drei Klicks fast Samsungs Chip-Geheimnisse vernichteten
Im April 2023 wurde bekannt, was in vielen Unternehmen kurz zuvor als undenkbar galt: Mitarbeiter eines der weltgrößten Technologiekonzerne hatten vertrauliche Firmendaten an ChatGPT geschickt – unbeabsichtigt, aber mit potenziell gravierenden Folgen. Das Samsung-Datenleck gilt seither als einer der meistzitierten Warnfälle rund um KI-Sicherheit in Unternehmen.

Was genau passierte
Samsung Semiconductor hatte seinen Mitarbeitern Anfang 2023 erlaubt, ChatGPT für die Arbeit zu nutzen. Die Entscheidung sollte die Produktivität steigern – stattdessen kam es innerhalb von nur 20 Tagen zu drei schwerwiegenden Datenpannen.
Vorfall 1: Quellcode für proprietäres Programm
Ein Samsung-Ingenieur lud den Quellcode eines internen, streng vertraulichen Programms in ChatGPT hoch, um Fehler debuggen zu lassen. Der Code gelangte damit in die Trainingsdaten von OpenAI – und war von diesem Moment an potenziell für das Training künftiger Modelle verwendbar.
Vorfall 2: Chip-Testsequenzen
Ein zweiter Mitarbeiter gab Testmuster in ChatGPT ein und bat um Optimierungsvorschläge. Diese Sequenzen werden in der Halbleiterindustrie eingesetzt, um Chips auf Fehler zu prüfen. Sie gehören zu den wertvollsten technischen Geheimnissen in der Branche.
Vorfall 3: Meeting-Protokoll als KI-Präsentation
Der dritte Fall war besonders aufschlussreich: Ein Mitarbeiter nutzte zunächst Navers Clova-Assistenten, um eine interne Meeting-Aufnahme in Text umzuwandeln – und schickte diesen Text dann an ChatGPT, um daraus eine Präsentation zu erstellen. Dadurch wurden vertrauliche Gesprächsinhalte extern verarbeitet.
Warum das ein strukturelles Problem ist
Der entscheidende Punkt: Keiner dieser Mitarbeiter handelte böswillig. Sie nutzten ein freigegebenes Tool für legitime Arbeitsaufgaben. Das Problem lag im fehlenden Bewusstsein darüber, was mit eingegebenen Daten passiert.
OpenAIs Nutzungsbedingungen sahen zum damaligen Zeitpunkt vor, dass Eingaben in ChatGPT für das Training der Modelle verwendet werden können – sofern man nicht aktiv widerspricht. Das war und ist vielen Nutzern nicht bewusst.
> "Wenn man etwas in ChatGPT eingibt, verlässt es das eigene Unternehmen."
Diese einfache Erkenntnis war der Kern des Samsung-Problems.

Die Reaktion von Samsung
Samsung reagierte schnell, aber begrenzt. Zunächst wurde die maximale Länge von ChatGPT-Anfragen auf 1.024 Byte beschränkt – ein Pflaster, das größere Datentransfers verhindert, aber kein grundsätzliches Sicherheitskonzept darstellt.
Wenig später wurde ChatGPT für Mitarbeiter vollständig gesperrt. Parallel kündigte Samsung an, eine eigene, interne KI zu entwickeln – ein Projekt, das seitdem vorangetrieben wird und zeigt, in welche Richtung viele Großunternehmen steuern: Eigene Modelle, eigene Infrastruktur, volle Datenkontrolle.
Was andere Unternehmen daraus lernen sollten
Das Samsung-Beispiel ist kein Einzelfall. Ähnliche Vorfälle sind aus Branchen von der Pharmaindustrie bis zur Unternehmensberatung bekannt. Die Lehren sind klar:
1. Klare Richtlinien vor dem Rollout
Bevor KI-Tools freigegeben werden, braucht es klare Nutzungsrichtlinien: Welche Daten dürfen eingegeben werden? Welche nicht? Was sind die Konsequenzen bei Verstößen?
2. Sensibilisierung ist kein Einmalereignis
Eine einmalige Schulung reicht nicht. Datenschutz im Umgang mit KI muss regelmäßig thematisiert werden – und zwar praxisnah, nicht als PowerPoint-Pflichtveranstaltung.
3. Technische Schutzmaßnahmen ergänzen
Data Loss Prevention (DLP)-Lösungen können erkennen, wenn vertrauliche Inhalte eine bestimmte Grenze überschreiten. Sie sind kein Allheilmittel, aber ein wichtiger Baustein.
4. Unterschied: Consumer-ChatGPT vs. Enterprise-Versionen
OpenAI bietet mit der ChatGPT Enterprise-Version und der API Möglichkeiten an, bei denen Eingaben nicht für das Training verwendet werden. Für Unternehmen sollte der Consumer-Zugang grundsätzlich gesperrt oder zumindest klar geregelt sein.
Aktuelle Relevanz: Das Problem bleibt
Seit dem Samsung-Vorfall hat sich viel verändert – aber das grundsätzliche Risiko besteht weiter. Eine Studie von Cyberhaven aus 2024 ergab, dass 11% aller Daten, die in KI-Tools eingegeben werden, als vertraulich eingestuft werden – und trotzdem übermittelt werden.
Mit der zunehmenden Verbreitung von KI-Copilot-Systemen in Unternehmensanwendungen (Microsoft 365 Copilot, Google Workspace Gemini, etc.) verlagert sich das Risiko: Die Integration ist tiefer, die Berührungspunkte mehr, und das Bewusstsein der Nutzer oft noch nicht mitgewachsen.

Fazit: KI-Sicherheit beginnt mit Bewusstsein
Das Samsung-Datenleck war kein Hack, kein gezielter Angriff, kein technisches Versagen. Es war menschliches Verhalten in einem Vakuum fehlender Richtlinien.
Unternehmen, die KI-Tools einsetzen, müssen sich klarmachen: Jede Eingabe in ein externes KI-System verlässt die eigene Infrastruktur. Das ist keine Spekulation, das ist die technische Realität. Wer das versteht und entsprechende Maßnahmen trifft, kann KI produktiv und sicher einsetzen.
Wer es ignoriert, riskiert das nächste Samsung-Moment.
---
Quellen: t3n.de, derStandard.at, adguard.com/de, notebookcheck.com – alle April/Mai 2023