KI-generierte Stimmen und Identitäten werden zur größten Betrugswelle des Jahres. Während der Einkaufsaison erreichen die Fälle einen neuen Höhepunkt. Jetzt schlagen Hersteller und Behörden Alarm.

BERLIN/LONDON/NEW YORK – Die Weihnachtseinkäufe 2025 werden von einer beispiellosen Welle digitaler Verbrechen überschattet. Neue Daten belegen einen dramatischen Anstieg von Betrug mit künstlicher Intelligenz. Gleichzeitig kündigt die Tech-Branche erste Abwehrmaßnahmen direkt in Smartphones an.

Die Compliance-Firma Sanction Scanner veröffentlichte am Montag, dem 22. Dezember, einen Bericht mit alarmierenden Zahlen: Die Fälle von Deepfake-Betrug sind 2025 im Vergleich zum Vorjahr um 72 Prozent gestiegen. Die Technologie ist damit kein theoretisches Risiko mehr, sondern ein zentrales Werkzeug organisierter Kriminalität. Parallel dazu stellte der Smartphone-Hersteller HONOR ein neues Abwehrsystem vor, das KI-generierte Stimmen in Echtzeit erkennt.

„Visuelle Kontrollen reichen nicht mehr aus“

Der Financial Crime & Compliance Report 2025–2026 zeichnet ein düsteres Bild. Zwar setzen mittlerweile 73 Prozent der Finanzinstitute KI zur Betrugserkennung ein – 2024 waren es nur 49 Prozent. Doch die Kriminellen nutzen dieselbe Technologie und entwickeln ihre Methoden schneller weiter.

„Betrüger setzen Deepfakes ein, um Beamte, Manager oder Familienmitglieder mit beängstigender Genauigkeit nachzuahmen“, heißt es in dem Report. Diese Entwicklung wird durch eine Warnung der britischen Anwaltskanzlei Fieldfisher untermauert. Sie dokumentierte konkrete Fälle, darunter einen Betrugsfall, der Personalvermittlungen über eine Million Pfund kostete.

Ein weiteres Beispiel: Eine Fintech-Plattform entdeckte Rechnungen im Wert von 800.000 Pfund, die mit KI-Tools gefälscht waren. Die Dokumente waren so perfekt, dass sie traditionelle Sichtprüfungen passierten. „Visuelle Kontrollen reichen nicht mehr aus“, warnt Fieldfisher. „KI beseitigt die typischen Betrugsmerkmale wie Rechtschreibfehler und skaliert Angriffe auf Hunderte Ziele.“

HONOR baut Deepfake-Erkennung direkt ins Telefon ein

Als direkte Reaktion auf die Krise kündigte HONOR für sein Magic8 Pro eine neue Funktion zur Erkennung geklonter Stimmen an. Das Feature analysiert während eines Telefonats die Stimmfrequenz auf Anomalien, die auf KI-generierte Sprache hindeuten. Bei Verdacht warnt das Display den Nutzer, bevor sensible Informationen preisgegeben werden.

„Diese Funktion ergänzt bestehende Tools, indem sie speziell auditive Merkmale erkennt, die das menschliche Ohr oft überhört“, erklärte das Unternehmen. Das Update soll noch im Dezember 2025 kommen – pünktlich zu der Zeit, in der Betrugsanrufe nach den Feiertagen traditionell zunehmen.

Der Schritt zeigt einen Paradigmenwechsel: Die Verifizierung liegt nicht mehr allein bei Nutzer oder Bank, sondern wird zunehmend vom Endgerät übernommen. Eine Reaktion auf Software-Lösungen, die mit der Masse der Angriffe kaum Schritt halten können.

Die Ära der „Agentic AI“ und synthetischen Identitäten

Neben Stimmkloning wächst eine noch tückischere Gefahr: der Betrug mit synthetischen Identitäten. Dabei kombinieren Kriminelle echte und erfundene Daten zu „Frankenstein“-Persönlichkeiten, die in der echten Welt nicht existieren, aber digitale Prüfungen passieren.

Das Cybersecurity-Portal The420.in analysierte am 20. Dezember, dass die Ära simpler Phishing-Angriffe endet. Stattdessen prägen mehrstufige Betrugsmodelle das Jahr 2025, angetrieben von „Agentic AI“. Diese autonomen Systeme können selbstständig planen und komplexe Angriffe ausführen.

Solche KI-Agenten durchforsten soziale Medien nach persönlichen Details, erstellen überzeugende Fake-Identitäten und beantragen damit Kredite oder eröffnen Konten. Laut Debuglies.com gab es bereits im ersten Quartal 2025 insgesamt 179 schwere Deepfake-Betrugsfälle – mehr als im gesamten Vorjahr. Der Mensch im Prozess wird zur größten Schwachstelle.

Bereits früher im Jahr meldete die Verifizierungsplattform Sumsub, dass Betrug mit synthetischen Identitätsdokumenten in den USA um 300 Prozent gestiegen ist. Im letzten Quartal 2025 nutzen Kriminelle das hohe Aufkommen an Neukonten während der Feiertage, um ihre Aktivitäten zu verschleiern.

Behörden warnen – die Abwehr-Rüstungsspirale dreht sich

Die Betrugswelle hat Regulierer und Strafverfolger auf den Plan gerufen. Die US-Bundespolizei FBI warnte im Dezember wiederholt, bei dringenden Geldanfragen „einen Moment innehalten“. Allein in den ersten sieben Monaten 2025 gingen über 9.000 Beschwerden zu KI-Betrug ein.

In Großbritannien betonten Experten von Burges Salmon, dass bestehende Regelwerke wie die „Consumer Duty“ durch die neuen Bedrohungen auf die Probe gestellt werden. „Agentic AI“ biete „Gefahr und Nutzen im gleichen Maße“.

Europol warnt in seinen Lageberichten 2025 vor „Super-Syndikaten“ der organisierten Kriminalität. Diese verbinden Datendiebstahl im großen Stil mit ausgeklügelten Social-Engineering-Teams. Die KI automatisiert die „Anbahnungsphase“ des Betrugs, baut über Wochen Vertrauen auf, bevor zugeschlagen wird – eine Taktik namens „Schlachtenbetrug“ („Pig Butchering“), die dieses Jahr ein Comeback feierte.

Für 2026 prognostizieren Experten ein Wettrüsten „KI gegen KI“. Der Bericht von Sanction Scanner fordert, statische Compliance-Checks durch „dynamische, intelligente Kontrollen“ zu ersetzen, die kriminelle Taktikwechsel vorhersehen können.

Für Verbraucher bleibt vorerst Wachsamkeit der beste Schutz. Jede dringende Geldbitte sollte über einen zweiten Kanal verifiziert werden. Zwei-Faktor-Authentifizierung ist Pflicht. Und neue Abwehrtools, wie sie jetzt auf den Markt kommen, sollten genutzt werden. In einer Welt, in der KI Fakes von der Realität kaum unterscheidbar macht, ist gesunder Misstrauen die effektivste Firewall.