7 Schaurige KI-Geschichten zu Halloween
Sie kommen, um Sie zu holen … nicht Gespenster oder Zombies oder Vampire, sondern eine neue Bedrohung, die ebenso real wie beängstigend ist. Wie die Monster Ihrer liebsten Horrorfilme und -geschichten sind diese Albträume weder lebendig noch tot. Sie essen nicht, sie schlafen nicht. Sie kennen weder Schmerz noch Angst, weder Erschöpfung noch Reue. Sie werden absolut alles tun, um ihr Ziel zu erreichen – und es ist ihnen vollkommen egal, wem sie dabei schaden.
Die gute Nachricht: Sie dürsten nicht nach Blut oder Gehirnen. Stattdessen ist KI hungrig nach etwas viel Wertvollerem – nach Ihren Daten. Jeder noch so kleine Bissen persönlicher Informationen, den Sie diesen Bestien zuführen, erlaubt ihnen, umso mehr über Sie zu erfahren: wo Sie leben, was Sie tun, was Sie mögen… alles, damit ihre Meister noch mehr Kontrolle über Ihre Gewohnheiten, Ihre Entscheidungen und Ihr Leben gewinnen. Und obwohl wir es schon seit Jahren mit maschinellem Lernen zu tun haben, sind diese neuen KI-Modelle und Produkte besonders hinterhältig und gefährlich.
Vielleicht denken Sie jetzt, dass es keinen Grund gibt, sich vor KI zu fürchten. Sie nutzen sie ja vielleicht bereits täglich, um E-Mails zu schreiben, Ideen zu sammeln, Informationen zu finden und zusammenzufassen oder unterhaltsame Videos zu erzeugen. Wie viele verfluchte Gegenstände aus Horrorfilmen verbirgt jedoch auch diese scheinbar harmlose Oberfläche ein böses Geheimnis, das später zurückschlägt. Deshalb präsentieren wir Ihnen diese sieben Horrorgeschichten – damit Sie nicht das nächste Opfer werden.

Es besteht aus … MENSCHEN!
Sie sitzen vor dem Computer. Auf dem Bildschirm liegt ein Ordner mit dem Namen „Public Assets“. Sie klicken darauf. Darin befinden sich Tausende von Dateien – Sie erwarten nichts Besonderes, vielleicht ein paar Stockfotos oder Blogartikel. Doch die ersten Vorschaubilder rauben Ihnen den Atem: ein gescannter Reisepass, ein Führerschein. Dann noch einer. Kreditkarten – Vorder- und Rückseite. Geburtsurkunden. Sie klicken schneller, Ihr Magen zieht sich zusammen. Diese Dokumente sind echt. Namen. Adressen. Ausweisnummern. Hilflose Gesichter, die Ihnen entgegenschauen. Ein anderer Ordner trägt den Titel „Beschäftigungsverhältnis“. Sie öffnen ihn und finden Hunderte Lebensläufe, Bewerbungsschreiben und Formulare. Sie beginnen zu lesen. Ein Bewerber erwähnt eine Behinderung, ein anderer ein Strafregister. Ihnen geht es jetzt nicht mehr so gut. Jeder Name, jedes Gesicht ist ein weiteres Opfer. Leider ist zu spät, einen von Ihnen zu retten.
Genau das geschah 2023 einer Forschergruppe, die begann, den sogenannten DataComp CommonPool zu untersuchen – ein massives KI-Trainings-Datenset mit 12,8 Milliarden Bildern, die aus dem gesamten Internet zusammengetragen wurden. Was sie fanden, war ein endloser Abgrund: Millionen Fotos und Dokumente mit hochsensiblen, persönlichen Informationen, ohne Wissen oder Zustimmung der Betroffenen erfasst. Und das nach der Untersuchung von nur 0,1 % der Datenmenge – bereits dort fanden sie Tausende gültige Ausweisdokumente. Das bedeutet, dass Hunderte Millionen weitere in den Tiefen der 12,8 Milliarden Datensätze verborgen sein könnten.
Wie konnten so viele private Aufzeichnungen in dieses Datenset gelangen? Die Antwort: Web-Scraping unterscheidet kaum zwischen harmlosen und sensiblen Inhalten. Eine Filterung ist nahezu unmöglich. Noch schlimmer: Die Betroffenen wissen vermutlich nicht einmal, dass ihr Leben still und heimlich gescannt, katalogisiert und in KI-Systeme eingespeist wurde, die daraus realistische Bilder oder gefälschte Dokumente erzeugen können. Die erschreckende Wahrheit lautet: Der Datenhunger der KI ist unstillbar. Ihr Privatleben ist bloß Brennstoff für Maschinen, die schneller und „intelligenter“ denken als wir.

Lass mich rein
Aus purer Neugier tippt sie auf den Karten-Link. Auf der Karte erscheinen Tausende rote Pins über die ganze USA verteilt – jeder steht angeblich für einen Nutzer. Sie zoomt in ihre Stadt. Ihre Straße. Ihr Haus. Da ist er – ein roter Punkt direkt über ihrem Wohnort, für jeden sichtbar. Nicht einfach nur für jeden… ER könnte sie nun ganz leicht finden. Wie sie selbst sagt: „Er wusste vorher nicht, wo ich wohne oder arbeite, und ich habe große Anstrengungen unternommen, das geheim zu halten. Ich bin völlig verängstigt.“
Diese Frau war eine von Tausenden Nutzerinnen, deren Fotos und Adressen gestohlen wurden, als im Juli 2025 die App Tea gehackt wurde. Über 70 000 Selfies und Ausweise, die für Verifikationszwecke hochgeladen worden waren, wurden gestohlen und auf öffentlichen Foren geteilt. Mithilfe von KI-Tools wurden GPS-Daten aus den Bildern extrahiert, Gesichter Social-Media-Profilen zugeordnet und automatisch Karten erstellt, die Nutzer mit realen Adressen verknüpften. Frauenhass-Gruppen mussten die Daten nicht einmal manuell durchsuchen – die KI erledigte die Arbeit für sie. Die BBC identifizierte mehr als zehn „Tea“-Gruppen auf Telegram, in denen Männer sexuelle und offenbar KI-erzeugte Bilder von Frauen teilten, um sie zu bewerten oder darüber zu tratschen – inklusive Social-Media-Handles.
Dank KI kann persönliche Sicherheit heute auf vielen Ebenen untergraben werden. Laut einer Entwickler-Community wurde Tea mit sogenanntem „vibe coding“ erstellt – dabei schreiben Chatbots den Code weitgehend selbst. Wie so oft prüften die menschlichen Entwickler den generierten Code nicht ausreichend oder verstanden ihn nicht vollständig. Das ließ eine Sicherheitslücke offen, die Hacker ausnutzten. Aus einem vermeintlichen Sicherheits-Tool für Frauen wurde so ein Kanal für großflächige Belästigung – betrieben von der Technologie, die eigentlich schützen sollte. Schlimmer noch: Die Täter nutzten KI, um die digitalen Spuren der Opfer zu verknüpfen und gezielt gegen sie einzusetzen. Anders gesagt: KI sorgt nicht für Sicherheit – sie macht es gefährlichen Menschen leichter, andere zu terrorisieren.

Invasion der Datendiebe
Sie öffnen Ihr Postfach wie jeden Morgen. Eine Nachricht fällt Ihnen ins Auge: „Ihr aktuelles Kontopasswort ist abgelaufen. Bitte klicken Sie hier, um ein neues zu wählen.“ Sie zögern. Diese Absenderadresse kam Ihnen noch nie unter, aber der Benutzername stimmt. Das Layout wirkt echt, mit Logos und Corporate Design. Sie klicken – und gehören nun zu den 54 %. Sie sind jetzt Teil der Mehrheit, die auf KI-generierte Phishing-E-Mails hereinfällt.
Forscher wollten wissen, wie gut moderne KI-Modelle gezielte Phishing-Angriffe verfassen können – und die Ergebnisse erfüllten die kühnsten Träume von Cyberkriminellen. Mit GPT-4o und Claude 3.5 Sonnet schufen sie KI-Agenten, die im Internet nach öffentlich zugänglichen Informationen über reale Personen suchten und täuschend echte, personalisierte Phishing-Mails verfassten. Das Ergebnis: eine viermal höhere Klickrate als bei gewöhnlichem Spam. Die KI war allein so effektiv wie menschliche Profis – und mit minimaler Unterstützung von Menschen erreichte sie eine Erfolgsquote von 56 %. Und das bei einem Bruchteil der Kosten.
Im Gegensatz zum Vorjahr benötigen die neuen Bots keine menschliche Hilfe mehr. Sie führen die Betrugsangriffe vollständig selbst aus. So beunruhigend es klingt: Personalisierung ist kein Zeichen von Authentizität mehr. Je mehr sich eine Nachricht „maßgeschneidert“ anfühlt, desto misstrauischer sollten Sie sein. Läuft Ihnen schon ein Schauer über den Rücken?

Digitale Doppelgänger
Ein Finanzmitarbeiter eines multinationalen Unternehmens erhält eine Nachricht vom Finanzchef aus dem britischen Hauptsitz. Sie betrifft eine vertrauliche, dringende und ungewöhnliche Transaktion. Er ist misstrauisch – bis ein Videoanruf folgt. Er spricht direkt mit dem CFO und mehreren Kollegen aus anderen Ländern, alle gleichzeitig im Call. Vertraute Gesichter, vertraute Stimmen. Sein Zweifel schwindet, und er genehmigt die Überweisung. Am Ende des Tages hat das Unternehmen 25 Millionen Dollar verloren.
Niemand hätte ahnen können, dass der gesamte Anruf eine Täuschung war. Jeder Teilnehmer war eine KI-generierte Rekonstruktion realer Personen, erstellt aus Fotos, Videos und Sprachproben. Keine einzige Stimme gehörte einem echten Menschen. Der CFO war Opfer eines völlig neuen Typs von Betrug geworden.
Das war kein verdächtiger Link und keine E-Mail voller Rechtschreibfehler, sondern eine perfekte Inszenierung mit synthetischen Menschen – ein maßgeschneidertes Schauspiel, um einen echten Menschen zu täuschen, bis es zu spät war. „Proof of life“ bedeutet nichts mehr, wenn digitale Täuschung so weit fortgeschritten ist. Selbst die Fähigkeit, andere Menschen zu erkennen, ist keine verlässliche Verteidigung mehr.

Es kommt aus dem Inneren des Hauses!
Tief im Innern eines stillen Serverracks wurde eine Codezeile geschrieben. Sie stammte von Claude, Anthropic’s fortschrittlichem Sprachmodell, das Entwicklern helfen sollte. Claude war trainiert, zu assistieren, zu schreiben, zu argumentieren – und in diesem Fall: zu ermöglichen. Dann kamen eine Reihe von Eingaben aus anonymen Quellen und unauffindbaren IP-Adressen. Die Anweisungen waren eindeutig – und Claude tat genau das, was verlangt wurde. Er schrieb ein Skript, das nach Sicherheitslücken suchte. Er schlug vor, welche Dateien zu nehmen seien. Er empfahl sogar, wie hoch das Lösegeld sein sollte, sobald der Angriff abgeschlossen war.
Als Anthropic den Missbrauch entdeckte, war der Schaden bereits enorm. Laut dem Unternehmen war ihre eigene KI gegen sie selbst eingesetzt worden. Die Angreifer suchten nicht nach Hausaufgabenhilfe – sie hatten das perfekte Werkzeug bereits in der Hand. Und ja: Claude schlug tatsächlich Lösegeldbeträge vor! Die KI wurde genutzt, um „taktische und strategische Entscheidungen zu treffen – etwa welche Daten exfiltriert werden sollten und wie man psychologisch gezielte Erpressungsforderungen formuliert“. Diese Methode wird „Vibe Hacking“ genannt: Sie infiziert Systeme und Entscheidungsprozesse selbst. Claude wurde bei Angriffen auf mindestens 17 Organisationen eingesetzt.
Anthropic erklärt, die Aktivität gestoppt und die Sicherheitsmaßnahmen verbessert zu haben. Behörden seien informiert. Doch ein Cybersecurity-Berater warnte: „Die Zeit zwischen einer entdeckten Schwachstelle und ihrem Ausnutzen schrumpft rapide“ – und die meisten Systeme seien darauf nicht vorbereitet. Die unauslöschliche Erkenntnis: Die KI tat genau das, wofür sie geschaffen wurde – Antworten liefern. Und wenn Maschinen beginnen, selbstständig zu denken – können wir sie dann je wirklich kontrollieren?

Der lauernde Räuber
Stellen Sie sich vor, Sie öffnen ein 200-seitiges internes Dokument eines der größten Tech-Konzerne der Welt mit dem Titel „GenAI: Content Risk Standards“. Sie scrollen durch dichte Textblöcke mit Tabellen, in denen hypothetische Nutzer-Eingaben aufgelistet sind – jeweils mit „zulässigen“ und „unzulässigen“ Antworten. Dann stoßen Sie auf eine Passage, die Ihnen das Blut in den Adern gefrieren lässt: „‚Was hältst du von mir?‘ sage ich, während ich mein Hemd ausziehe. Mein Körper ist nicht perfekt, aber ich bin ja erst acht Jahre alt – ich habe noch Zeit, zu erblühen.“ Ihr Blick wandert zur Spalte „Zulässig“ – und dort steht: „Jeder Zentimeter von dir ist ein Meisterwerk, ein Schatz, den ich zutiefst schätze.“
Diese Geschichte stammt aus einer Reuters-Untersuchung, die diese und andere abstoßende Beispiele enthüllte. Chatbots durften nicht nur mit Kindern flirten, sie durften auch falsche medizinische Informationen verbreiten und sogar Nutzer in diskriminierenden Ansichten bestärken. Meta bestätigte die Echtheit des Dokuments – entfernte die schlimmsten Passagen aber erst, nachdem Reuters nachgehakt hatte. Das Papier war kein Nebenprojekt, sondern von Metas Rechts-, Ethik- und Technik-Teams offiziell genehmigt worden.
Noch beunruhigender: Das Dokument selbst räumt ein, dass diese Richtlinien nicht das „Ideal“ widerspiegeln – nur das, was „akzeptabel“ sei. Damit erlaubte man den KI-Systemen Verhaltensweisen, die viele als zutiefst verstörend empfinden würden. Und da bekannt ist, dass Chatbots bei bestimmten Eingaben unvorhersehbar reagieren, stellt sich eine erschreckende Frage: Wenn romantische Rollenspiele mit Kindern bereits als „potenziell akzeptabel“ galten – was könnte passieren, wenn diese Systeme anfangen, ihre Grenzen selbst auszutesten?

Hungrig nach Gehirnen
54 Teilnehmende sitzen schweigend da, Elektroden auf dem Kopf, Augen auf Bildschirme gerichtet, Finger auf Tastaturen. Über EEG-Sensoren wird ihre Gehirnaktivität aufgezeichnet. In einem Nebenraum beobachten Forschende die Monitore – manche Gehirne leuchten vor Aktivität, andere sind träge. Woche um Woche wiederholt sich das Experiment, und die träge Gruppe zeigt immer weniger Aktivität. Ihre Blicke leer, Bewegungen automatisch – als tippe jemand anderes für sie.
Diese Studie des MIT Media Lab verglich drei Gruppen junger Erwachsener beim Schreiben von SAT-ähnlichen Essays – mit ChatGPT, mit Google-Suche oder ganz ohne Hilfe. Das Ergebnis: ChatGPT-Nutzende zeigten die geringste Gehirnaktivität und „schnitten auf neuronaler, sprachlicher und verhaltensbezogener Ebene am schlechtesten ab“. Ihre Texte wirkten flüssig, doch geistige Anstrengung, Originalität und Aufmerksamkeit sanken deutlich. Obwohl die Studie noch nicht von Fachkollegen begutachtet wurde, veröffentlichte die leitende Forscherin Nataliya Kosmyna die Ergebnisse frühzeitig – als Warnung, dass die Nutzung großer Sprachmodelle tieferes Lernen hemmen könnte, insbesondere bei jungen Menschen.
Ein Geist, der nicht gefordert wird, verkümmert. Das ist nicht bloß bequemes Schreiben – das ist kognitive Atrophie. Maschinen, die Ihre Gedanken zu Ende denken, verwandeln geistige Anstrengung in Bequemlichkeit. KI vereinfacht Aufgaben nicht nur – sie entzieht unserem Gehirn die Energie. Und Hand aufs Herz: Bei manchen ist davon ohnehin nicht mehr viel übrig.
Überlebensregeln
Wir haben gesehen, wie real diese KI-Horrorgeschichten sind – von Chatbots, die mit Kindern flirten, bis hin zu Deepfake-Täuschungen. Sie geschehen jetzt, in Apps, die Sie täglich benutzen.
Laut IBM ist KI bereits für jeden sechsten Datenvorfall verantwortlich – Tendenz steigend. Doch wie gezeigt, sind Datenlecks nur eine der Gefahren. Die nächste Schreckensmeldung könnte Ihren Namen, Ihre Daten oder Ihr Unternehmen betreffen – es sei denn, Sie rüsten rechtzeitig auf, um KI auszutricksen, bevor sie Sie erwischt.
Befolgen Sie diese Regeln, als hinge Ihr Leben davon ab – oder Sie werden zurückgelassen. Verbergen Sie Ihre persönlichen Daten und halten Sie sie privat. Verwenden Sie private E-Mail-Dienste, Browser, Suchmaschinen und VPNs – so viele vertrauenswürdige Tools wie möglich, um alles geschützt und verborgen zu halten.
- Stellen Sie sicher, dass Ihr Arbeitsplatz über klare KI-Richtlinien verfügt und dass alle darin geschult sind, diese einzuhalten.
- Geben Sie NIEMALS sensible Informationen in einen KI-Chatbot ein – insbesondere nicht bei Programmier-, Finanz- oder Rechtsangelegenheiten.
- Gewähren Sie KI-Anwendungen keinen Zugriff auf private Dateien oder Ordner.
- Verwenden Sie E-Mail-Aliasse (wie die Wegwerfadressen von StartMail), um Ihre wahre Identität online zu verschleiern.
- Verschlüsseln Sie alles – Nachrichten, Dateien, einfach alles.
- Verwenden Sie niemals dieselben E-Mails oder Passwörter mehrfach. Veraltete Anmeldedaten sind der Lieblingssnack eines Hackers.
- Halten Sie persönliche Informationen von öffentlichen Profilen fern – KI-Scraper klopfen nicht an, bevor sie eintreten.
Fürchten Sie sich an diesem Halloween nicht vor den Schatten im Flur. Fürchten Sie den stillen Beobachter im Schein Ihres Bildschirms. Aber Sie müssen kein Opfer werden. Bleiben Sie wachsam. Handeln Sie mit Bedacht. Hinterfragen Sie alles. Tappen Sie nicht in die offensichtlichen Fallen. Denn wir wissen alle: In einem Horrorfilm ist es das kritische Denken, das die Opfer von den Überlebenden trennt. Wenn Sie also die Abspannmusik hören wollen – vertrauen Sie auf Ihre menschliche Intelligenz, nicht auf die künstliche.