Deutschland und EU erklären digitaler Gewalt den Krieg
Die Bundesregierung und die EU-Institutionen haben diese Woche eine Reihe scharfer Gesetze gegen KI-generierte Belästigung auf den Weg gebracht. Der Fokus liegt auf der strafrechtlichen Verfolgung von sexualisierten Deepfakes.
Deutschland schließt juristische Lücken bei Deepfakes
Das Bundesjustizministerium hat einen wegweisenden Gesetzentwurf vorgelegt, um Täter digitaler Gewalt endlich konsequent verfolgen zu können. Justizministerin Stefanie Hubig kündigte am 20. März 2026 einen neuen Straftatbestand speziell für das Erstellen und Verbreiten sexualisierter Deepfakes an. Bisherige rechtliche Grauzonen sollen damit geschlossen werden.
Angesichts der rasanten gesetzlichen Entwicklungen bei künstlicher Intelligenz riskieren viele Unternehmen unwissentlich Bußgelder. Dieser kostenlose Leitfaden zur neuen EU-KI-Verordnung hilft Ihnen, die aktuellen Kennzeichnungspflichten und Risikoklassen richtig zu verstehen. Gratis E-Book mit Umsetzungsleitfaden sichern
Der Entwurf sieht vor, dass die unautorisierte Herstellung pornografischer KI-Inhalte unter Strafe gestellt wird. Die Regelung soll nicht nur die Verbreitung, sondern bereits die Erstellung erfassen. Hubig betonte: „Es darf keinen rechtlichen Unterschied zwischen physischer und digitaler Gewalt geben.“ Die psychologischen Folgen für die Opfer seien oft gleich verheerend.
Zusätzlich adressiert das Gesetz digitalen Voyeurismus und den Missbrauch von Ortungsgeräten zum Stalking. Die Strafverfolgungsbehörden sollen erweiterte Befugnisse erhalten, etwa für effektivere Durchsuchungen von Computern und Mobilgeräten. Dies ist Teil eines umfassenden Schutzkonzepts gegen digitale Gewalt, das den deutschen Strafrechtsschatz für das Zeitalter generativer KI modernisieren soll.
EU verbietet nicht-einvernehmliche KI-Bilder
Parallel zu den nationalen Bemühungen verschärft die Europäische Union den Druck auf KI-Entwickler. Am 19. März 2026 billigte der Bürgerrechtsausschuss des Europäischen Parlaments eine kritische Änderung am „KI-Omnibus“-Gesetz. Diese sieht ein explizites Verbot für KI-Systeme vor, die realistische, nicht-einvernehmliche sexualisierte Bilder identifizierbarer Personen erzeugen können.
Anders als frühere Regelungen, die vor allem die Nutzer im Blick hatten, zielt diese Maßnahme direkt auf die Technologieplattformen. Entwickler fortgeschrittener KI-Modelle müssen künftig nachweisen, dass sie robuste technische Sperren implementiert haben, um die Erstellung solcher Deepfakes zu verhindern.
Experten sprechen von einer „Vereinfachungsrevolution“ in der EU-Digitalpolitik. Während der Rat der EU einige Fristen für Hochrisiko-KI-Systeme auf Dezember 2027 und August 2028 verschoben hat, wird das Verbot nicht-einvernehmlicher Bilder beschleunigt umgesetzt. Der Grund: die jüngste Flut von Deepfakes in sozialen Medien, die international Empörung auslöste.
Globale Allianz gegen digitale Gewalt formiert sich
Die Regulierungsbemühungen gewinnen auch international an Fahrt. Das Europäische Parlament billigte zwischen dem 11. und 14. März 2026 die Unterzeichnung des Rahmenübereinkommens des Europarates zu Künstlicher Intelligenz durch die EU. Dieser Vertrag ist das erste rechtlich verbindliche internationale Abkommen, das sich speziell der KI-Governance widmet und Menschenrechte, Demokratie und Rechtsstaatlichkeit schützen soll.
Die Konvention schafft eine globale Mindestgrundlage für die KI-Aufsicht. Mit ihrer Unterzeichnung will die EU bestehende Politiken wie den KI-Akt und die DSGVO in einen breiteren internationalen Rahmen einbetten. Diese globale Abstimmung gilt als entscheidend, um digitale Gewalt zu bekämpfen, die häufig Grenzen überschreitet und Plattformen außerhalb der EU einbezieht.
Die neuen KI-Gesetze und die zunehmende Digitalisierung fordern von Geschäftsführern ein neues Maß an Compliance. Was Sie jetzt über Cyber-Security und die aktuelle KI-Regulierung wissen müssen, erfahren Sie in diesem Experten-Report für mittelständische Unternehmen. Kostenloses E-Book zu Cyber Security Trends herunterladen
Am 21. März 2026 warnte UN Women zudem vor einer „globalen Krise“ durch den Anstieg von Deepfake-Missbrauch. Fast die Hälfte der Frauen im öffentlichen Leben, die digitale Gewalt erleben, seien anschließend auch offline Angriffen ausgesetzt. Die UN forderte strikte Haftung für Täter und verpflichtende Schnelllöschverfahren für Plattformen – Forderungen, die den aktuellen Gesetzesinitiativen in Deutschland und der EU entsprechen.
Plattformen unter Druck: DSA-Untersuchungen laufen
Die neuen Gesetze haben erhebliche Auswirkungen auf Technologiekonzerne. Die Europäische Kommission nutzt bereits den Digital Services Act (DSA), um Plattformen zu untersuchen, die die Verbreitung illegaler KI-Inhalte ermöglichen. Im Fokus steht unter anderem eine laufende Prüfung von Elon Musks Netzwerk X und dessen KI-Chatbot Grok.
Nach Berichten, dass der Dienst zur Erstellung millionenfacher sexualisierter Deepfakes genutzt wurde, hat die Kommerce das Unternehmen angewiesen, alle relevanten Dokumente im Zuge der Untersuchung vorzuhalten. Bei Verstößen gegen die Transparenz- und Sicherheitspflichten des DSA drohen Plattformen Geldstrafen von bis zu sechs Prozent ihres globalen Jahresumsatzes.
Rechtsexperten sehen ein zweistufiges Haftungssystem entstehen: Während das Strafrecht individuelle Täter verfolgt, machen der KI-Omnibus und der DSA die Plattformen für das technische Umfeld verantwortlich, das Missbrauch ermöglicht. Dazu gehören Vorgaben für maschinenlesbare Wasserzeichen in KI-generierten Inhalten und effizientere Löschverfahren für Opfer digitaler Gewalt.
Ausblick: Spezialgerichte und der Sprint zur Umsetzung
Mit der finalen Verabschiedung der Gesetze rücken die praktischen Herausforderungen der Umsetzung in den Fokus. Das Bundesjustizministerium prüft die Einrichtung spezialisierter Gerichte für digitale Gewalt, nach Vorbildern wie in Spanien. Diese wären mit Richtern und Staatsanwälten besetzt, die über spezifische Expertise in digitaler Forensik und KI-Technologie verfügen.
Der Zeitplan ist ambitioniert. Während die technischen Standards für „Hochrisiko“-KI unter dem EU-KI-Gesetz auf Ende 2027 verschoben wurden, sollen die Verbote im Zusammenhang mit digitaler Gewalt deutlich schneller in Kraft treten.
Für die nächsten zwölf Monate prognosticieren Experten einen „Compliance-Sprint“ für Entwickler und Plattformen. Unternehmen müssen umfassende KI-Bestandsaufnahmen durchführen, ihre technische Dokumentation aktualisieren und sicherstellen, dass ihre Systeme den neuen Transparenzstandards entsprechen. Für die Opfer digitaler Gewalt bieten diese Entwicklungen eine lange erwartete Hoffnung, dass der Rechtsstaat mit der rasanten Entwicklung der Künstlichen Intelligenz Schritt hält.








