Cyberkriminelle nutzen Künstliche Intelligenz für hochentwickelte E-Mail-Betrug, der traditionelle Sicherheitsfilter überlistet. Eine neue Angriffstechnik namens "Prompt-Injection" verwandelt sogar vertrauenswürdige KI-Assistenten in unwissentliche Komplizen der Betrüger.

Sicherheitsexperten schlagen Alarm: Kriminelle verstecken bösartige Befehle in E-Mails und Anhängen, die für menschliche Empfänger unsichtbar bleiben. Die KI-Assistenten in E-Mail-Plattformen wie Gmail lesen und befolgen diese versteckten Anweisungen jedoch. In der kürzlich entdeckten Kampagne "Chameleon's Trap" tarnte sich eine Schadsoftware-Rechnung erfolgreich als harmlose E-Mail – die KI-gestützten Sicherheitsscanner fielen darauf herein.

Diese Methode markiert einen Paradigmenwechsel: Die eigenen KI-Tools der Nutzer werden gegen sie verwendet, um Daten zu stehlen oder Malware zu verbreiten.

KI schreibt perfekte Betrugs-E-Mails

Das FBI warnt eindringlich vor der rasanten Entwicklung KI-generierter Phishing-E-Mails. Cyberkriminelle setzen sowohl öffentlich zugängliche als auch maßgeschneiderte KI-Modelle ein, um betrügerische Nachrichten mit perfekter Grammatik und überzeugender Tonalität zu erstellen.

Die Zahlen sind alarmierend: 82,6 Prozent aller Phishing-E-Mails nutzen bereits KI-generierten Inhalt. Die Angreifer beschränken sich nicht auf Text – sie klonen mittlerweile Stimmen und Videos, um Führungskräfte und vertraute Kontakte zu imitieren.

Besonders gefährdet sind ältere Menschen: In einer Testreihe klickten 11 Prozent der Senioren auf bösartige Links, die von KI-Chatbots erstellt wurden. Die Technologie senkt die Hürden für Kriminelle dramatisch und ermöglicht überzeugende Massenkampagnen zu minimalen Kosten.

Anzeige: Übrigens: Wer sich vor KI‑Phishing, gefälschten Links und Datendiebstahl auf dem Smartphone schützen möchte, sollte jetzt die Basics absichern. Viele Android‑Nutzer übersehen diese 5 Sicherheitsmaßnahmen – genau die Lücken, die Betrüger ausnutzen. Der kostenlose Ratgeber zeigt Schritt für Schritt, wie Sie WhatsApp, Online‑Banking und PayPal ohne teure Zusatz‑Apps sichern. Jetzt das kostenlose Android‑Sicherheitspaket sichern

Prompt-Injection: KI-Assistenten als Sicherheitsrisiko

Noch heimtückischer ist die sogenannte "indirekte Prompt-Injection". Diese Angriffsmethode zielt direkt auf die Sprachmodelle moderner KI-Assistenten ab. Angreifer verstecken bösartige Anweisungen in Inhalten, die die KI verarbeiten soll – etwa in E-Mails oder Kalenderterminen.

So funktioniert der Trick: Der menschliche Nutzer sieht eine normale Nachricht, doch die KI liest versteckte Befehle mit. Sicherheitsforscher demonstrierten dies mit weißer Schrift auf weißem Hintergrund in einer E-Mail. Als ein Nutzer seine KI bat, die Nachricht zusammenzufassen, befolgte diese die versteckten Anweisungen der Angreifer und zeigte eine gefälschte Sicherheitswarnung an.

Google bestätigt diese branchenweite Bedrohung: Die Angriffe können KI dazu verleiten, private E-Mails zu durchsuchen und sensible Daten an Angreifer zu senden. Als Auslöser reicht bereits eine Kalendereinladung, die das Opfer nicht einmal annehmen muss.

Missbrauch legitimer KI-Plattformen

Kriminelle nutzen KI nicht nur zum Schreiben von Betrugs-E-Mails, sondern missbrauchen auch die Infrastruktur KI-gestützter Entwicklungsplattformen. Ein Bericht zeigt: Betrüger nutzen KI-Anwendungsbuilder wie Lovable, Netlify und Vercel, um gefälschte CAPTCHA-Seiten und Phishing-Websites zu erstellen.

Diese Plattformen bieten kostenloses Hosting und erfordern kaum technische Kenntnisse. Angreifer können so überzeugend wirkende betrügerische Websites erstellen, die seriöser erscheinen und Sicherheitsfilter umgehen.

Der Trick: Eine scheinbar routinemäßige Sicherheitsprüfung senkt die Wachsamkeit der Nutzer, bevor sie zur eigentlichen bösartigen Website weitergeleitet werden.

Wendepunkt in der Cybersicherheit

Experten sehen die Cybersicherheitslandschaft an einem kritischen Wendepunkt. Ein neuer Bericht des Center for a New American Security warnt: Aufkommende KI-Fähigkeiten könnten das traditionelle Gleichgewicht zwischen Angriff und Verteidigung stören – zugunsten der Angreifer.

Die Zahlen sprechen eine klare Sprache: 61 Prozent der IT-Verantwortlichen sehen den kriminellen KI-Einsatz als großes Risiko. Doch nur 31 Prozent fühlen sich gerüstet für KI-basierte Cyberattacken.

Das Kernproblem: KI-generierte Bedrohungen umgehen signaturbasierte Erkennungssysteme. Die Branche muss auf fortschrittlichere, verhaltensbasierte Sicherheitsmodelle umsteigen.

Wettrüsten um KI-Sicherheit

Der Kampf gegen KI-gestützte Cyberkriminalität entwickelt sich zum Wettrüsten. Google arbeitet bereits an proprietären Machine-Learning-Modellen, die bösartige Prompts in E-Mails erkennen und ignorieren sollen.

Die Sicherheitsstrategien verschieben sich hin zu einem mehrstufigen Verteidigungsansatz: Eingabebereinigung, strenge KI-Berechtigungskontrollen und Nutzerbestätigung bei kritischen Aktionen.

Das FBI rät Unternehmen, ihre Cybersicherheitsprotokolle zu verstärken und Mitarbeiterschulungen zu intensivieren. Die Zukunft verspricht noch größere Herausforderungen: Je stärker KI in Arbeitsabläufe integriert wird, desto schwieriger wird die Unterscheidung zwischen legitimer und bösartiger Kommunikation.