Während KI-Assistenten immer tiefer in Unternehmensabläufe vordringen, verschärft Microsoft die Sicherheitsmaßnahmen für seinen Copilot. Die jüngsten Cyberangriffe zeigen: Der Schutz von Firmendaten wird zur neuen Herausforderung.

Diese Woche reagierte der Tech-Riese auf alarmierende Sicherheitslücken. Forscher entdeckten eine raffinierte Phishing-Methode namens „CoPhish", die Microsoft Copilot Studio missbraucht, um OAuth-Token zu stehlen. Angreifer könnten so Zugriff auf E-Mails und Dateien erlangen. Microsoft bestätigte die Bedrohung und kündigte Gegenmaßnahmen an.

Parallel dazu schloss das Unternehmen eine weitere Schwachstelle. Hacker konnten über manipulierte Mermaid-Diagramme in Microsoft 365 Copilot Daten abgreifen. Ein Microsoft-Sprecher beruhigt: „Kunden müssen keine weiteren Schritte unternehmen. Der Schutz ist bereits aktiv."

Was bedeutet das für deutsche Unternehmen? Die Vorfälle zeigen die Komplexität von KI-Sicherheit auf. Gleichzeitig verdeutlichen sie Microsofts mehrstufige Verteidigungsstrategie.

Datenschutz nach deutschem Standard

Microsofts Copilot-Architektur folgt einem klaren Prinzip: Der KI-Assistent respektiert bestehende Zugriffsrechte. Nutzer sehen nur Daten, für die sie bereits autorisiert sind – wie bei SharePoint oder OneDrive.

Entscheidend für deutsche Firmenkunden: Kundendaten werden nicht zum Training der KI-Modelle verwendet. Die Verarbeitung erfolgt innerhalb der Microsoft-365-Sicherheitsgrenze. Daten bleiben verschlüsselt – sowohl gespeichert als auch übertragen. Microsoft garantiert Einhaltung der DSGVO und der EU-Datengrenze.

Governance mit Microsoft Purview

Das Herzstück von Microsofts Sicherheitsstrategie ist die Integration mit Microsoft Purview. Diese Compliance-Lösung erweitert bestehende Datenschutzrichtlinien auf KI-Interaktionen.

Purview bietet folgende Schutzfunktionen:

Datenverlust-Schutz (DLP): Unternehmen können Richtlinien erstellen, die Copilot daran hindern, sensible Inhalte wie Finanzdaten zu verarbeiten. Neue Funktionen blockieren sogar E-Mails mit bestimmten Vertraulichkeitsstufen.

Informationsschutz: Vertraulichkeitskennzeichnungen von Dokumenten erbt Copilot automatisch. Wird eine Antwort aus einem „Vertraulich"-Dokument generiert, erhält auch sie diese Klassifizierung.

Audit und Compliance: Alle Copilot-Aktivitäten werden protokolliert. Administratoren können mit eDiscovery Premium diese Interaktionen durchsuchen und überprüfen.

Angriff auf die KI-Schwachstelle

Die jüngsten Attacken – der Mermaid-Angriff und CoPhish – illustrieren das Katz-und-Maus-Spiel zwischen Anbietern und Hackern. Während Microsoft schnell auf die Mermaid-Schwachstelle reagierte, zeigt CoPhish eine neue Dimension: Social Engineering trifft auf KI.

Diese Entwicklung verschiebt die Verantwortung teilweise auf Unternehmen. Sie müssen Nutzerrechte sorgfältig verwalten, Mitarbeiter schulen und Multifaktor-Authentifizierung durchsetzen. Das „Copilot Control System" gibt IT-Administratoren granulare Kontrolle darüber, wer den Assistenten nutzen darf.

Was kommt als Nächstes?

Je stärker KI in Arbeitsabläufe integriert wird, desto raffinierter werden auch die Angriffsmethoden. Microsoft verspricht kontinuierliche Verbesserungen seiner Schutzmechanismen. Die Reaktion auf CoPhish mit angekündigten Produktupdates zeigt: Die Verteidigung entwickelt sich weiter.

Der neue Microsoft Security Store – ein Marktplatz für Sicherheitslösungen – signalisiert einen Ökosystem-Ansatz. Kunden können vertrauenswürdige Drittanbieter-Tools entdecken, die nahtlos mit Microsofts Produkten funktionieren.

Für Unternehmen bedeutet das: KI-Sicherheit wird zur Partnerschaft. Erfolgreiche Abwehr erfordert proaktive Governance, kontinuierliche Überwachung und schnelle Reaktion auf neue Bedrohungen.