Modelle & Technik

Diffusionsmodell

Diffusionsmodelle sind die Technologie hinter KI-Bildgeneratoren wie Stable Diffusion, DALL-E und Midjourney. Sie funktionieren, indem sie lernen, aus Rauschen schrittweise ein klares Bild zu erzeugen. Man kann sich das vorstellen wie ein Künstler, der aus einem verschwommenen Fleck nach und nach ein detailliertes Gemälde formt.

Was ist ein Diffusionsmodell?

Ein Diffusionsmodell (englisch: Diffusion Model) ist eine bestimmte Art von KI-Modell, die hinter den beeindruckendsten Bildgeneratoren unserer Zeit steckt. Stable Diffusion, DALL-E, Midjourney und viele weitere Text-to-Image-Tools basieren auf dieser Technologie. Das Grundprinzip klingt zunächst paradox: Das Modell lernt, Bilder zu zerstören – und kann sie dadurch anschliessend aus dem Nichts erschaffen.

Wie funktioniert ein Diffusionsmodell?

Der Name „Diffusion" kommt aus der Physik und beschreibt die Ausbreitung von Teilchen – ähnlich wie ein Tropfen Tinte, der sich langsam im Wasser verteilt. Bei Diffusionsmodellen gibt es zwei Phasen:

Phase 1 – Vorwärts-Diffusion (Training): Während des Trainings nimmt das Modell ein echtes Bild und fügt schrittweise zufälliges Rauschen (Noise) hinzu. Stellen Sie sich vor, ein klares Foto wird Schritt für Schritt verrauscht, bis am Ende nur noch ein vollkommen zufälliges Pixel-Chaos übrig ist. Dieser Prozess wird in vielen kleinen Schritten durchgeführt – typischerweise 500 bis 1000 Schritte.

Phase 2 – Rückwärts-Diffusion (Generierung): Das Modell lernt nun, diesen Prozess umzukehren. Ausgehend von reinem Rauschen entfernt es Schritt für Schritt das Noise und formt dabei ein kohärentes Bild. Der Clou: Durch das Training mit Millionen von Bildern hat das neuronale Netz gelernt, in welche Richtung es das Rauschen entfernen muss, um ein sinnvolles Bild zu erzeugen.

Man kann sich das vorstellen wie einen Bildhauer, der aus einem rohen Marmorblock eine Skulptur herausarbeitet – nur dass der „Block" hier aus zufälligem Rauschen besteht.

Die Rolle des Textes

Damit ein Diffusionsmodell Bilder zu einem bestimmten Thema erzeugt, wird es mit einem Text-Encoder kombiniert. Der Text-Prompt wird in einen mathematischen Vektor (Embedding) umgewandelt, der den Entrauschungs-Prozess in die richtige Richtung lenkt. Wenn Sie „ein roter Sportwagen auf einer Bergstrasse" eingeben, sorgt dieses Embedding dafür, dass das Modell beim Entrauschen ein Bild erzeugt, das zu dieser Beschreibung passt.

Bekannte Diffusionsmodelle

Die wichtigsten Diffusionsmodelle im Überblick:

  • Stable Diffusion (Stability AI): Open Source, kann lokal auf dem eigenen Computer laufen. Sehr flexibel und anpassbar durch Fine-Tuning.
  • DALL-E 3 (OpenAI): Integriert in ChatGPT und über die API verfügbar. Besonders gut in der Umsetzung komplexer Textanweisungen.
  • Midjourney: Bekannt für besonders ästhetische und künstlerische Ergebnisse. Läuft als Cloud-Service.
  • Imagen (Google): Googles Bildgenerierung, integriert in Gemini.
  • Flux (Black Forest Labs): Neueres Modell mit beeindruckender Qualität, von ehemaligen Stability-AI-Entwicklern.
  • Anwendungen von Diffusionsmodellen

    Diffusionsmodelle beschränken sich längst nicht mehr auf die reine Bilderzeugung:

  • Text-to-Image: Der Klassiker – aus Textbeschreibungen werden Bilder erzeugt
  • Image-to-Image: Ein bestehendes Bild wird im Stil verändert oder angepasst
  • Inpainting: Teile eines Bildes werden ersetzt oder ergänzt (z.B. unerwünschte Objekte entfernen)
  • Upscaling: Bilder werden in höherer Auflösung neu generiert
  • Video-Generierung: Modelle wie Sora erzeugen Videoclips auf Basis von Diffusion
  • 3D-Modellierung: Generierung dreidimensionaler Objekte aus Textbeschreibungen
  • Bedeutung für Unternehmen

    Für Unternehmen sind Diffusionsmodelle besonders in diesen Bereichen relevant:

  • Marketing: Individuelle Produktbilder, Werbematerial und Social-Media-Grafiken erstellen – ohne Fotoshooting
  • E-Commerce: Produktfotos in verschiedenen Umgebungen und Stilen generieren
  • Design: Schnelle Konzeptentwürfe und Mockups für Kunden
  • Architektur: Visualisierungen von Bauprojekten aus Grundrissen
> Hinweis zum Urheberrecht: Die Rechtslage bei KI-generierten Bildern ist noch nicht abschliessend geklärt. Unternehmen sollten beachten, dass Diffusionsmodelle mit urheberrechtlich geschütztem Material trainiert wurden und die Ergebnisse in Einzelfällen bestehenden Werken ähneln können.

Fazit

Diffusionsmodelle haben die Bilderzeugung revolutioniert. Was vor wenigen Jahren noch unvorstellbar war – fotorealistische Bilder aus einer Textbeschreibung zu erzeugen – ist heute Alltag. Für Unternehmen eröffnen sich dadurch neue kreative und produktive Möglichkeiten, von der Werbung bis zur Produktentwicklung. Die Technologie entwickelt sich rasant weiter, mit immer schnellerer Generierung und höherer Qualität.