Sicherheit & Ethik

Deepfake

Ein Deepfake ist ein mit KI erstelltes gefälschtes Video, Bild oder Audio, das täuschend echt aussieht oder klingt. Deepfakes können Personen Worte in den Mund legen oder in Situationen zeigen, die nie stattgefunden haben. Sie sind ein wachsendes Problem für Desinformation und Betrug. Es gibt mittlerweile auch KI-Tools, die Deepfakes erkennen können.

Was sind Deepfakes?

Deepfakes sind durch Kuenstliche Intelligenz erzeugte oder manipulierte Medieninhalte -- Videos, Bilder oder Audioaufnahmen --, die taueschend echt wirken, aber gefaelscht sind. Der Begriff setzt sich aus "Deep Learning" (einer Methode des maschinellen Lernens) und "Fake" zusammen.

Mit Deepfake-Technologie kann man eine Person in einem Video Dinge sagen und tun lassen, die sie nie gesagt oder getan hat. Die Ergebnisse sind mittlerweile so ueberzeugend, dass selbst Experten sie mit blossem Auge oft nicht mehr von echtem Material unterscheiden koennen.

Wie funktioniert die Deepfake-Technik?

Deepfakes basieren auf spezialisierten neuronalen Netzen, insbesondere:

  • Generative Adversarial Networks (GANs): Zwei neuronale Netze arbeiten gegeneinander. Ein Generator erzeugt gefaelschte Inhalte, ein Diskriminator versucht, diese als Faelschung zu erkennen. Durch dieses Wechselspiel werden die Faelschungen immer besser
  • Autoencoder: Diese Netze lernen, ein Gesicht in eine komprimierte Darstellung zu ueberfuehren und daraus ein neues Bild zu rekonstruieren -- mit den Gesichtszuegen einer anderen Person
  • Diffusionsmodelle: Neuere Verfahren, die Bilder schrittweise aus Rauschen erzeugen und extrem fotorealistische Ergebnisse liefern
  • Voice Cloning: Spezialisierte Modelle koennen aus wenigen Sekunden Audiomaterial eine Stimme so ueberzeugend kopieren, dass Angehoerige sie nicht von der echten Stimme unterscheiden koennen
  • Fuer einen Video-Deepfake analysiert die KI Hunderte oder Tausende Bilder der Zielperson, lernt deren Mimik, Gesichtsform und typische Bewegungen und uebertraegt diese auf ein anderes Video.

    Gefahren und Missbrauchspotenzial

    Die Risiken von Deepfakes sind vielfaeltig und ernst zu nehmen:

  • Desinformation und Propaganda: Gefaelschte Videos von Politikern, die falsche Aussagen machen, koennen Wahlen beeinflussen und gesellschaftliche Spaltung vertiefen. 2022 tauchte ein Deepfake des ukrainischen Praesidenten Selenskyj auf, der zur Kapitulation aufrief
  • Betrug und Social Engineering: Kriminelle nutzen Deepfake-Stimmen, um sich am Telefon als Geschaeftsfuehrer auszugeben und Ueberweisungen zu veranlassen (CEO-Fraud). In einem dokumentierten Fall wurden so 243.000 US-Dollar erbeutet
  • Nicht-einvernehmliche Pornografie: Ein grosser Teil der Deepfakes im Internet wird fuer die Erstellung gefaelschter pornografischer Inhalte missbraucht -- ueberproportional betroffen sind Frauen
  • Identitaetsdiebstahl: Deepfake-Gesichter koennen fuer gefaelschte Ausweisdokumente oder zur Umgehung biometrischer Verifizierung genutzt werden
  • Erpressung: Die Drohung, ueberzeugend gefaelschte kompromittierende Inhalte zu veroeffentlichen, ist ein wachsendes Erpressungsinstrument
  • Wie erkennt man Deepfakes?

    Obwohl die Erkennung zunehmend schwieriger wird, gibt es Hinweise und Werkzeuge:

  • Visuelle Anzeichen: Unnatuerliches Blinzeln, verschwommene Uebergaenge zwischen Gesicht und Hintergrund, inkonsistente Beleuchtung, seltsame Ohren oder Zaehne
  • Audio-Hinweise: Monotone Sprachmelodie, fehlende Atemgeraeusche, unnatuerliche Pausen
  • Metadaten-Analyse: Pruefung der Dateieigenschaften auf Anzeichen von Manipulation
  • KI-Erkennungstools: Spezialisierte Software wie Intel FakeCatcher, Microsoft Video Authenticator oder Deepware Scanner analysieren Videos auf Manipulationsspuren
  • Blockchain-basierte Verifizierung: Initiativen wie die Content Authenticity Initiative (Adobe, Microsoft, BBC) entwickeln Standards, um die Herkunft von Medieninhalten zu verifizieren
  • Rechtliche Lage in Deutschland

    In Deutschland gibt es keine spezifischen Deepfake-Gesetze, aber mehrere bestehende Regelungen greifen:

  • Persoenlichkeitsrecht: Das Recht am eigenen Bild (Kunsturhebergesetz) schuetzt vor der nicht genehmigten Verwendung des eigenen Gesichts
  • Verleumdung und ueble Nachrede: Deepfakes, die Personen in falschem Licht darstellen, koennen strafrechtlich verfolgt werden
  • DSGVO: Die Erstellung von Deepfakes mit personenbezogenen Daten (Gesicht, Stimme) unterliegt dem Datenschutzrecht
  • AI Act: Die EU-KI-Verordnung verpflichtet kuenftig zur Kennzeichnung von KI-generierten Inhalten, einschliesslich Deepfakes
  • Sexualstrafrecht: Die Erstellung nicht-einvernehmlicher pornografischer Deepfakes kann nach verschiedenen Straftatbestaenden verfolgt werden
Unternehmen sollten sowohl interne Richtlinien zum Umgang mit KI-generierten Medien erstellen als auch ihre Mitarbeiter fuer die Erkennung von Deepfakes sensibilisieren -- besonders in der Finanzbuchhaltung und in Abteilungen, die regelmaessig per Video oder Telefon kommunizieren.

Fazit

Deepfakes sind eine der beunruhigendsten Anwendungen von Kuenstlicher Intelligenz. Die Technologie, die auch kreative und nuetzliche Einsatzmoeglichkeiten hat (etwa in der Filmindustrie oder fuer barrierefreie Kommunikation), birgt erhebliches Missbrauchspotenzial. Fuer Unternehmen ist es entscheidend, Mitarbeiter zu schulen, Verifizierungsprozesse einzufuehren und sich auf eine Zukunft einzustellen, in der man nicht mehr automatisch alles glauben kann, was man sieht und hoert.