Anwendungen

Halluzination

Eine Halluzination tritt auf, wenn eine KI selbstbewusst falsche Informationen erfindet – zum Beispiel nicht existierende Studien zitiert oder falsche Fakten als wahr darstellt. Das passiert, weil Sprachmodelle Wahrscheinlichkeiten für Wörter berechnen und nicht wirklich „wissen", was wahr ist. Deshalb sollte man KI-Antworten bei wichtigen Themen immer prüfen.

Was ist eine KI-Halluzination?

Eine Halluzination im KI-Kontext bezeichnet Faelle, in denen ein Large Language Model oder ein anderes KI-System ueberzeugend klingende, aber faktisch falsche Informationen generiert. Die KI erfindet Fakten, Zitate, Quellenangaben oder Statistiken, die nicht existieren -- und praesentiert diese mit derselben Sicherheit wie korrekte Informationen.

Der Begriff ist bewusst an die menschliche Wahrnehmungsstoerung angelehnt: So wie ein Mensch bei einer Halluzination Dinge sieht, die nicht da sind, erzeugt eine halluzinierende KI Informationen, die in der Realitaet keine Grundlage haben.

Warum halluzinieren KI-Systeme?

Das Kernproblem liegt in der Art, wie Large Language Models funktionieren:

  • Statistische Vorhersage: LLMs generieren Text, indem sie das wahrscheinlichste naechste Wort vorhersagen. Sie verstehen die Bedeutung nicht wirklich, sondern erkennen Muster in ihren Trainingsdaten
  • Kein Faktenwissen: Das Modell speichert keine Fakten in einer Datenbank, sondern lernt statistische Zusammenhaenge. Wenn eine Antwort plausibel klingt, wird sie generiert -- unabhaengig davon, ob sie stimmt
  • Luecken in Trainingsdaten: Wenn das Modell zu einem Thema wenig Trainingsdaten hat, fuellt es Luecken kreativ -- also mit erfundenen Details
  • Kein Unsicherheitsbewusstsein: Aktuelle Modelle koennen oft nicht zuverlaessig einschaetzen, wann sie sich irren. Sie aeussern selten Zweifel
  • People-Pleasing: Durch das Training mit menschlichem Feedback (RLHF) neigen manche Modelle dazu, lieber eine Antwort zu geben als zuzugeben, dass sie etwas nicht wissen
  • Typische Beispiele fuer Halluzinationen

    Halluzinationen treten in verschiedenen Formen auf:

  • Erfundene Quellen: Die KI zitiert wissenschaftliche Studien oder Gerichtsurteile, die es nicht gibt. 2023 wurde ein US-Anwalt sanktioniert, weil er von ChatGPT erfundene Urteile in einem echten Verfahren eingereicht hatte
  • Falsche Fakten: Die KI nennt falsche Geburtsdaten, erfindet historische Ereignisse oder gibt falsche Statistiken an
  • Erfundene Personen: In manchen Faellen generiert die KI Biografien von Menschen, die gar nicht existieren
  • Konfabulation: Die KI verknuepft reale Informationen auf falsche Weise -- zum Beispiel ordnet sie einem echten Unternehmen falsche Produkte oder Umsatzzahlen zu
  • Wie erkennt und vermeidet man Halluzinationen?

    Fuer den verantwortungsvollen Umgang mit KI sind folgende Strategien wichtig:

  • Faktencheck: Pruefen Sie alle Angaben der KI anhand unabhaengiger Quellen, besonders bei Zahlen, Zitaten und Quellenverweisen
  • Konkrete Prompts: Je praeziser der Prompt, desto geringer das Halluzinationsrisiko. Fordern Sie die KI auf, nur gesicherte Informationen zu nennen
  • Quellenangaben verlangen: Bitten Sie die KI, Quellen zu nennen -- und pruefen Sie, ob diese existieren
  • RAG-Systeme: Retrieval-Augmented Generation verbindet LLMs mit echten Datenquellen, sodass die KI auf tatsaechliche Dokumente zurueckgreift
  • Temperatur senken: Die sogenannte Temperature-Einstellung steuert die Kreativitaet des Modells. Niedrigere Werte fuehren zu konservativeren, weniger halluzinationsanfaelligen Antworten
  • Mehrere Modelle nutzen: Vergleichen Sie die Antworten verschiedener KI-Systeme, um Fehler zu erkennen
  • Risiken fuer Unternehmen

    Halluzinationen stellen fuer Unternehmen ein ernstes Risiko dar:

  • Rechtliche Konsequenzen: Falsche Informationen in Vertraegen, Gutachten oder Beratungen koennen haftungsrechtlich problematisch sein
  • Reputationsschaden: Wenn Kunden merken, dass ein Unternehmen KI-generierte Falschinformationen verbreitet, leidet das Vertrauen
  • Fehlentscheidungen: Wenn Geschaeftsentscheidungen auf halluzinierten Daten basieren, kann das teuer werden
  • Compliance-Probleme: Der AI Act der EU fordert Transparenz und Zuverlaessigkeit von KI-Systemen -- Halluzinationen koennen hier zum Problem werden
Besonders kritisch ist der Einsatz in sensiblen Bereichen wie Medizin, Recht und Finanzen. Hier kann eine Halluzination reale Schaeden verursachen. KI-Agenten, die autonom handeln, bergen zusaetzliche Risiken, weil halluzinierte Informationen ohne menschliche Pruefung zu Aktionen fuehren koennen.

Fazit

KI-Halluzinationen sind kein Fehler, der einfach behoben werden kann -- sie sind eine grundlegende Eigenschaft aktueller Sprachmodelle. Fortschritte bei der Modellentwicklung, bessere Trainingsmethoden und Techniken wie RAG reduzieren das Problem, beseitigen es aber nicht vollstaendig. Fuer Unternehmen bedeutet das: KI-generierte Inhalte sollten immer als Entwurf betrachtet werden, der menschliche Pruefung erfordert. Wer KI verantwortungsvoll einsetzen will, muss die Grenzen der Technologie kennen und entsprechende Qualitaetssicherung einbauen.