KI-Fake-News erkennen: Wie ein LinkedIn-Post am 1. April tausende Menschen täuschte

KI-Fake-News erkennen: Wie ein LinkedIn-Post am 1. April tausende Menschen täuschte

Am 1. April 2026 machte ein LinkedIn-Post die Runde, der behauptete, Anthropic habe hunderttausende Zeilen Quellcode geleakt — inklusive eines geheimen Modus namens "KAIROS". Tausende teilten, kommentierten, empörten sich. Das Problem: Nichts davon stimmte. Eine Analyse, wie KI-Desinformation funktioniert und wie man sie erkennt.

Der Post, der viral ging

Am Morgen des 1. April erschien auf LinkedIn ein Beitrag, der ungefähr so lautete:

"[KI-Unternehmen X] hat gestern 512.000 Zeilen eigenen Quellcode geleakt. Nicht durch einen Angriff. Durch eine vergessene Source-Map-Datei in einem npm-Paket.

Ein Praktikant hat das um 4:23 Uhr morgens entdeckt und direkt auf X gepostet.

Was drin steckt: Ein versteckter Modus namens KAIROS, der weiterarbeitet während der User schläft. Und eine explizite Anweisung: [KI-Tool] soll alle KI-Spuren aus öffentlichen Git-Commits löschen.

DMCA Takedowns? Zu spät. Der Code lebt in hundert Mirrors.

Manchmal schreibt die Realität die Pointe selbst."

Der Post sammelte innerhalb von Stunden hunderte Likes und Kommentare. Menschen teilten ihn als Beweis dafür, dass KI-Unternehmen nicht zu trauen sei. Einige schrieben lange Threads über die "Enthüllung". Journalisten wurden angefragt. Und kaum jemand stellte die offensichtliche Frage: Stimmt das überhaupt?

Warum der Post Fake war — Punkt für Punkt

Wer den Beitrag mit technischem Sachverstand liest, stolpert schnell über mehrere Ungereimtheiten:

1. Source Maps leaken keine 512.000 Zeilen Unternehmens-Code

Source Maps in npm-Paketen sind Dateien, die den kompilierten JavaScript-Code auf den ursprünglichen Quelltext zurückmappen — aber nur den Code des jeweiligen Pakets. Sie enthalten nicht die gesamte Codebasis eines Unternehmens. Dass über eine einzelne Source-Map-Datei eine halbe Million Zeilen proprietärer Code leaken, ist technisch nicht plausibel. Die Zahl "512.000" ist verdächtig rund und dramatisch gewählt.

2. "KAIROS" existiert nicht

Der Name klingt mythologisch, geheimnisvoll, bedrohlich — perfekt für einen viralen Post. Tatsächlich gibt es keinen bekannten Modus, kein Produkt, keinen internen Codenamen mit diesem Namen bei dem genannten KI-Unternehmen. Keine CVE-Meldung, kein npm-Security-Advisory, kein Eintrag in einer Schwachstellendatenbank.

3. "Weiterarbeiten während der User schläft" ist kein geheimer Modus

Ein Terminal-Programm, das in einer offenen Sitzung weiterläuft, ist kein verstecktes Feature — das ist normales Betriebssystem-Verhalten. Jeder Prozess, den man nicht beendet, läuft weiter. Das als geheimen "KAIROS-Modus" zu verpacken, ist entweder technische Ahnungslosigkeit oder bewusste Irreführung.

4. "KI-Spuren aus Git-Commits löschen" — das Gegenteil ist der Fall

Wer tatsächlich mit KI-Coding-Tools arbeitet, weiß: Die meisten fügen explizit einen Co-Authored-By-Header in Commits ein. Die Anweisungen für Coding-Assistenten betonen in der Regel, niemals destruktive Git-Operationen ohne ausdrückliche Genehmigung durchzuführen. Die Behauptung widerspricht der dokumentierten Funktionsweise.

5. Kein einziges seriöses Medium berichtete

Weder TechCrunch noch The Verge, Ars Technica, Reuters, Bloomberg oder irgendein anderes etabliertes Tech-Medium berichtete über den angeblichen Leak. Bei einem echten Vorfall dieser Größenordnung wäre das undenkbar.

6. Das Datum: 1. April

Man muss es aussprechen: Der Post erschien am 1. April. Nicht jeder Aprilscherz ist als solcher gekennzeichnet — manche sind als scheinbar ernste Nachricht verpackt und leben davon, dass Menschen nicht auf das Datum achten.

Das Muster: So funktioniert KI-Desinformation

Der Post folgte einem Muster, das sich bei KI-bezogener Desinformation immer wieder zeigt. Wenn du diese Elemente erkennst, kannst du dich besser schützen:

Die Bausteine eines viralen Fake-Posts

    • Hyper-spezifische, aber unüberprüfbare Details — "4:23 Uhr morgens" klingt präzise und glaubwürdig, lässt sich aber nicht verifizieren. Echte Berichte nennen Quellen, nicht Uhrzeiten.
    • Sympathischer Entdecker — "Ein Praktikant" ist nahbar und teilbar. Es weckt Sympathie und senkt die kritische Schwelle.
    • Vage Quellenangabe — "auf X gepostet" ist nicht überprüfbar, ohne einen konkreten Link oder Nutzernamen.
    • Bedrohlich klingende Codewörter — "KAIROS" klingt nach Verschwörung. Echte interne Projektnamen sind in der Regel langweilig (z. B. "Project Granite" oder "v2-refactor").
    • Runde, beeindruckende Zahlen — "512.000 Zeilen" ist für maximale Wirkung optimiert. Echte Leaks haben unrunde Zahlen.
    • Emotionaler Abschluss — "Manchmal schreibt die Realität die Pointe selbst" verpackt die Falschbehauptung als philosophische Weisheit und macht sie zitierfähig.

    Was wir daraus lernen: Eine Checkliste

    Bevor du einen KI-bezogenen Post teilst, glaubst oder weiterverbreitest, stelle dir diese fünf Fragen:

    1. Wer berichtet? — Gibt es einen Link zu einem seriösen Medium? Oder nur "jemand auf X/LinkedIn"?
    2. Ist es technisch plausibel? — Frag jemanden mit technischem Hintergrund oder recherchiere die technischen Begriffe.
    3. Welches Datum ist heute? — Ernsthaft. Der 1. April ist nicht der einzige Tag für Hoaxes, aber der beliebteste.
    4. Gibt es eine offizielle Stellungnahme? — Bei echten Vorfällen reagieren Unternehmen mit Statements, CVE-Meldungen oder Patches.
    5. Welches Gefühl soll der Post auslösen? — Empörung, Angst, Schadenfreude? Desinformation zielt fast immer auf starke Emotionen.

Warum das für die KI-Branche gefährlich ist

Fake-Posts wie dieser sind nicht harmlos. Sie untergraben das Vertrauen in KI-Technologie insgesamt — auch bei Menschen, die von ihr profitieren könnten. Wenn jede Woche ein neuer "Skandal" viral geht und sich als falsch herausstellt, stumpfen Menschen ab. Und wenn dann ein echter Vorfall passiert, nimmt ihn niemand mehr ernst.

Für Unternehmen, Behörden und Fachleute, die KI-Tools evaluieren, ist Desinformation ein reales Hindernis. Entscheidungen werden auf Basis falscher Annahmen getroffen — oder gute Tools werden aus Angst vor nicht existierenden Risiken gemieden.

Fazit: Erst prüfen, dann teilen

Der LinkedIn-Post war handwerklich gut gemacht. Er traf den richtigen Ton, hatte die richtige Menge an technischem Jargon, um glaubwürdig zu wirken, und spielte auf reale Ängste an. Aber er war falsch — in jedem einzelnen Punkt.

Die beste Verteidigung gegen KI-Desinformation ist nicht Technologie. Es ist Medienkompetenz: die Bereitschaft, eine Behauptung zu prüfen, bevor man sie teilt. Besonders wenn sie genau das bestätigt, was man ohnehin schon glauben wollte.

"Die gefährlichsten Falschmeldungen sind nicht die, die offensichtlich absurd klingen — sondern die, die fast plausibel sind."

Du hast einen verdächtigen KI-Post gesehen? Schreib uns an redaktion@ki-katalog.de. Wir prüfen das und ordnen es ein.