Microsoft Copilot & Datenschutz im Unternehmen

Microsoft Copilot im Unternehmen: Sicherheitsrisiken erkennen und Datenschutz gewährleisten

Technische Risiken beim Zugriff auf personenbezogene Daten und Geschäftsgeheimnisse

Microsoft Copilot revolutioniert die Arbeit mit Microsoft 365 – durch KI-gestützte Textvorschläge, Analysen und Zusammenfassungen. Was auf den ersten Blick wie ein produktiver Traum wirkt, kann sich jedoch als gefährlicher Blindflug entpuppen: Denn Copilot greift auf alle Daten zu, auf die auch der jeweilige Nutzer Zugriff hat – egal, ob diese Daten alt, sensibel oder eigentlich für einen ganz anderen Zweck gespeichert wurden.

Nicht die KI selbst ist das Risiko. Sondern die Infrastruktur, die Berechtigungen vergisst, Kontext nicht kennt und Zweckbindung nicht durchsetzen kann. Copilot hält dem Unternehmen den Spiegel vor – und offenbart strukturelle Schwächen im Daten- und Berechtigungsmanagement.

Dieser Beitrag analysiert, wie Copilot technisch funktioniert, warum genau darin eine Gefahr liegt – und was Unternehmen tun müssen, um nicht ungewollt gegen Datenschutz und Geschäftsgeheimnisschutz zu verstoßen.

Wie Microsoft Copilot technisch funktioniert

Microsoft Copilot ist ein KI-gestützter Assistent, der tief in das Microsoft 365-Ökosystem integriert ist. Er arbeitet nicht isoliert in einer einzelnen Anwendung, sondern ist übergreifend in Outlook, Word, Excel, Teams, OneNote und weiteren Diensten eingebunden. Grundlage seiner Funktionalität ist der Zugriff auf strukturierte und unstrukturierte Daten über die Microsoft Graph API – also eine Schnittstelle, über die Copilot Inhalte aus Microsoft 365-Diensten auslesen, verknüpfen und analysieren kann.

Dabei nutzt Copilot ausschließlich die bestehenden technischen Berechtigungen des jeweils angemeldeten Nutzers – unabhängig von fachlichen Rollen, Vertraulichkeitsstufen oder ursprünglichen Verarbeitungskontexten. Hat ein Nutzer beispielsweise Lesezugriff auf einen SharePoint-Ordner, ein Teams-Protokoll oder einen E-Mail-Verlauf, kann Copilot diese Inhalte vollständig analysieren – auch wenn sie veraltet, sensibel oder für eine andere Abteilung bestimmt sind.

Wichtig: Copilot kennt keine Trennung nach Verwendungszweck oder fachlicher Zuständigkeit – sondern folgt ausschließlich der technischen Berechtigungsstruktur. Informationen, die aus organisatorischer Sicht „nicht für diesen Nutzer bestimmt“ waren, können dennoch ausgewertet werden, solange sie technisch zugänglich sind.

Wie Copilot Inhalte verarbeitet

Copilot analysiert keine einzelnen Dateien isoliert, sondern kombiniert Informationen aus mehreren Quellen zu einer semantisch sinnvollen Antwort. Dabei setzt es Techniken aus dem Bereich der generativen KI (Large Language Models, NLP/NLU) ein:

  • Natural Language Understanding (NLU): Copilot interpretiert die Eingabe des Nutzers nicht wortwörtlich, sondern auf Bedeutungsebene. Es erkennt Synonyme, Absichten, semantische Beziehungen und sogar mehrdeutige Formulierungen. Das erlaubt dem System, flexibel auf unterschiedlich formulierte Anfragen zu reagieren – z. B. ob jemand schreibt „Gib mir eine Übersicht“ oder „Was weißt du über...“.
  • Microsoft Graph-Suche: Über Microsoft Graph wird der gesamte Datenbestand des Nutzers (OneDrive, SharePoint, Outlook, Teams etc.) indexiert. Copilot nutzt nicht nur Metadaten, sondern auch den semantischen Inhalt der Dokumente. Es findet Informationen auch dann, wenn sie nicht exakt mit den Begriffen der Anfrage übereinstimmen. Die Suche priorisiert dabei nicht nur Übereinstimmungen, sondern auch Kontextrelevanz und Zugriffshistorien.
  • Kontextuelle Antwortgenerierung: Die KI generiert auf Basis der gefundenen Inhalte eine neue, kohärente Antwort in natürlicher Sprache. Dabei werden Inhalte aus verschiedenen Dateien und Quellen zusammengeführt – etwa E-Mails, Protokolle und Kalendereinträge. Die Antwort ist keine bloße Auflistung von Treffern, sondern eine sprachlich neu formulierte Synthese der zugrunde liegenden Daten. Der Nutzer bekommt somit nicht die Quellen selbst, sondern ein durch Copilot erzeugtes Ergebnis präsentiert.

Warum das problematisch ist

Die semantische Analyse durch Copilot hebt frühere technische und organisatorische Trennungen vollständig auf: Informationen aus E-Mails, Dateiablagen, Teams-Chats und Kalendereinträgen werden verknüpft, ohne dass die ursprünglichen Kontexte oder Verwendungszwecke berücksichtigt werden. Was früher durch Systemgrenzen, Teamstrukturen oder Dateipfade getrennt war, erscheint nun zusammengeführt in einer generierten Antwort – oft in einem völlig neuen Bedeutungszusammenhang.

Copilot unterscheidet dabei nicht zwischen operativen, strategischen oder vertraulichen Inhalten. Die erzeugte Antwort basiert auf Fragmenten, deren ursprüngliche Schutzwürdigkeit oder Zweckbindung nicht mehr erkennbar ist. Auch zufällig zugängliche Daten – etwa aus alten Projekten, ungenutzten Freigaben oder historischen Teamräumen – können in die Auswertung einfließen, ohne dass dies dem Nutzer bewusst ist.

Dadurch entstehen neue, unkontrollierte „Datenprodukte“, die sowohl personenbezogene Informationen als auch Geschäftsgeheimnisse enthalten können – ohne dass der Ersteller oder Leser nachvollziehen kann, woher diese Informationen stammen oder ob ihre Verarbeitung legitim war.

Die technische Schwachstelle: Berechtigungen statt Zweckbindung

In der Praxis haben viele Nutzer Zugriff auf Daten, die sie nicht benötigen – sei es durch vererbte Berechtigungen, unzureichend gepflegte Gruppen, falsch abgelegte Dateien oder fehlende Klassifizierungen. Diese strukturellen Probleme werden durch Copilot massiv verstärkt:

  • Die KI analysiert auch Dateien, die nie aktiv geöffnet wurden.
  • Sensible Inhalte aus verschiedenen Quellen können in einem neuen Kontext aggregiert werden.
  • Der ursprüngliche Schutz durch organisatorische Trennung (z. B. HR vs. Projektteam) wird technisch aufgehoben.

Fallbeispiel: Ungewollter Zugriff auf Gesundheitsdaten

Ausgangslage

Eine Teamassistenz bittet Copilot um eine Analyse der Gründe für die Projektverzögerung von "Projekt X". Copilot greift auf freigegebene Projektordner, Teams-Nachrichten und OneNote-Notizen zu. Dabei findet die KI eine Chatnachricht mit dem Inhalt: "Müller ist seit Wochen krankgeschrieben – Diagnose Burnout". Diese Information stammt aus einem Führungskreis-Gespräch, war aber im Projektordner dokumentiert.

Verarbeitung durch Copilot

Copilot verarbeitet die zugänglichen Informationen aus unterschiedlichen Quellen und erstellt daraus eine semantisch verknüpfte Antwort – in diesem Fall eine zusammenfassende Analyse der Projektverzögerungen.

Dabei fließt auch die Information aus der Teams-Nachricht – „Müller ist seit Wochen krankgeschrieben – Diagnose Burnout“ – in die Antwort mit ein. Die Aussage taucht nicht als Zitat auf, sondern in einer neuen, generierten Form, etwa: „Eine der Ursachen für die Verzögerung war der krankheitsbedingte Ausfall von Frau Müller (psychisch bedingt).“

Die Folgen

  • Die Teamassistenz erfährt sensible Gesundheitsdaten.
  • Der ursprüngliche Zweck der Verarbeitung (Personalakte, interne Kommunikation) wird verlassen.
  • Ein möglicher potenzieller Datenschutzverstoß liegt nahe.

Geschäftsgeheimnisse im Zugriff: Ein unsichtbares Risiko

Ein weiteres Praxisbeispiel verdeutlicht die Problematik aus einem anderen Blickwinkel:

Ein Mitarbeiter bittet Copilot um eine Zusammenfassung aller Budgetverhandlungen der letzten drei Monate. Copilot analysiert E-Mails, Teams-Chats und SharePoint-Dokumente – und liefert Inhalte aus einem vertraulichen Verhandlungskontext, zu dem der Mitarbeiter zwar technisch Zugriff hatte, aber inhaltlich nie autorisiert war. Die Informationen stammen aus alten Vertragsentwürfen, Kommentaren im Projektlaufwerk und einer Notiz aus einer Teams-Besprechung.

Der Mitarbeiter erhält so Einblick in vertrauliche Strategien und Preise, obwohl ihm diese Inhalte organisatorisch nie zugänglich gemacht werden sollten.

Auch geschützte Geschäftsgeheimnisse nach GeschGehG sind betroffen:

  • Preisstrategien, technische Spezifikationen, Vertragsdetails oder Verhandlungsnotizen liegen in verschiedenen Formaten und Speicherorten vor.
  • Copilot verknüpft semantisch Inhalte aus Excel-Kalkulationen, E-Mails und Teams-Protokollen.
  • Selbst Mitarbeiter ohne strategischen Auftrag können durch einfache Prompts geschäftskritische Informationen erhalten – z. B. "Erstelle mir eine Übersicht aller geplanten Rabatte für Kunde XY".

Der Schutz technischer Informationen wird so durch fehlende Kontextgrenzen ausgehöhlt.

Das Zweckbindungsprinzip – technisch ausgehebelt

Nach Art. 5 Abs. 1 lit. b DSGVO dürfen personenbezogene Daten nur für eindeutig festgelegte Zwecke verarbeitet werden. Copilot unterläuft dieses Prinzip technisch auf mehreren Ebenen:

  • Kontextverschiebung: Eine AU-Bescheinigung wird in einen Projektbericht übernommen.
  • Unkontrollierte Aggregation: Aussagen aus verschiedenen Quellen ergeben ein neues Datenprodukt mit anderem Verwendungszweck.
  • Fehlende Zweckprüfung: Die KI prüft nicht, ob die Daten für den neuen Zweck verwendet werden dürfen.

Damit entsteht eine automatisierte Zweckentfremdung – ohne dass dies für den Nutzer oder die betroffene Person erkennbar wäre.

Technisch bedeutet das:

  • Die Systeme von Microsoft (einschließlich Copilot) kennen keine Zweckkategorien.
  • Berechtigungen allein sind das einzige Steuerungskriterium – und diese sind oft veraltet, zu weit gefasst oder durch Gruppenzugehörigkeiten unklar.
  • Selbst als „vertraulich“ markierte Inhalte können semantisch verarbeitet werden, wenn Leserechte bestehen.

Das Ergebnis: Das Zweckbindungsprinzip existiert technisch nicht. Es wird weder durchgesetzt noch berücksichtigt – obwohl es ein zentraler datenschutzrechtlicher Grundsatz ist.

Zusammenfassung der Risiken

Typische Schwachstellen in Unternehmenssystemen

BereichTypisches Problem
SharePoint OnlineOrdner mit „Jeder mit dem Link kann lesen“; keine DLP oder Sensitivitätskennzeichnung
Teams-KanäleÖffentliche Teams mit historischen Dokumenten im Dateibereich
OneDrive for BusinessWeitergabe von Ordnern an Kollegen – nie zurückgenommen
Outlook (E-Mail & Kalender)Zugriffsrechte auf Postfächer und Kalender bleiben dauerhaft aktiv
Onboarding / OffboardingAlte Berechtigungen werden nicht entzogen

 

Risikotypen durch Copilot-Nutzung

RisikoBeschreibung
Sichtbarkeit sensibler InhalteCopilot macht Inhalte sichtbar, die zwar technisch zugänglich, aber inhaltlich nicht für den Nutzer bestimmt waren.
KontextverschiebungInhalte mit bestimmtem oder vertraulichem oder anderem Zweck erscheinen in neuen, öffentlichen Kontexten.
ZweckentfremdungPersonenbezogene Daten werden automatisch in anderem Zweckzusammenhang genutzt.
Fehlende TransparenzNutzer wissen nicht, woher Copilot bestimmte Inhalte bezieht – es gibt kein Logging oder Prüfprotokoll für die Quelle der Antwort.

 

Fazit: Copilot offenbart das strukturelle Risiko in der Datenlandschaft

Copilot verstärkt bestehende Schwächen im Umgang mit Daten und Berechtigungen – durch Automatisierung, Datenaggregation und Kontextsynthese. Unternehmen sollten dies als Chance zur Aufarbeitung nutzen: Wo existieren unklare Zugriffsstrukturen? Wo fehlen Zweckgrenzen? Wo fehlen Schutzmechanismen?

Handlungsempfehlungen für Unternehmen

Die nachfolgenden Empfehlungen sind nach Verantwortungsbereichen gegliedert, um eine gezielte Umsetzung innerhalb der Organisation zu ermöglichen:

Für IT-Administratoren

Ein effektives Berechtigungskonzept ist die Grundlage für jede datenschutzgerechte Nutzung von Microsoft Copilot. Da Copilot auf alle Daten zugreift, auf die ein Nutzer technisch Zugriff hat, müssen diese Zugriffsrechte besonders sauber und regelmäßig gepflegt werden.

Grundlagen eines effektiven Berechtigungskonzepts

  • Rollenbasierte Zugriffskontrolle (RBAC): Mitarbeitende erhalten definierte Rollen mit exakt den Berechtigungen, die sie für ihre Arbeit benötigen.
  • Minimalprinzip (Need-to-Know): Nur wer die Daten wirklich für seine Tätigkeit braucht, soll Zugriff erhalten.
  • Regelmäßige Überprüfung und Aktualisierung: Berechtigungen müssen regelmäßig an veränderte Aufgaben, Teamzugehörigkeiten oder Projekte angepasst werden.

Spezifische Maßnahmen für Microsoft Copilot

  • Verlässliche Integration in Microsoft 365 – besonders in SharePoint, OneDrive und Teams.
  • Deaktivierung unnötiger Funktionen (z. B. Bing-Suche, Drittanbieter-Plugins).

Umsetzungsschritte

  1. Ist-Analyse aller aktuell vergebenen Berechtigungen.
  2. Rollenprofilierung auf Basis organisatorischer Aufgaben.
  3. Pflege der Rollen in Azure AD / Entra ID und Microsoft 365 Gruppenstrukturen.
  4. Schulung der Mitarbeitenden zum Umgang mit vertraulichen Informationen.
  5. Kontinuierliche Kontrolle mit Berechtigungsreviews und automatisierten Auswertungen.

Um den Einsatz von Microsoft Copilot im Unternehmen sicher und datenschutzkonform zu gestalten, sind technische, organisatorische und strategische Maßnahmen erforderlich.

Vor dem Einsatz: Vorbereitung ist Pflicht

  • Datenschutz-Folgenabschätzung (DSFA) durchführen.
  • Dateninventur und Systemanalyse durchführen.
  • Rollen- und Berechtigungskonzept überarbeiten.

Während des Einsatzes: Schutzmechanismen aktivieren

  • Copilot-Funktionen gezielt konfigurieren.
  • Information Protection (z. B. Sensitivity Labels, DLP) aktiv nutzen.
  • Zugriffe regelmäßig überprüfen und anpassen.

Für Datenschutzbeauftragte und Compliance-Verantwortliche

  • Schulungen und Awareness-Maßnahmen durchführen.
  • Interne Richtlinien zur Nutzung von Copilot definieren.

Für Informationssicherheitsbeauftragte

  • Zweckgebundene Ablagestrukturen einführen.
  • Logging und Auditierung aktivieren.
  • Verantwortlichkeiten klar definieren.

Für Geschäftsführung und strategische Entscheider

Technische Architektur und Grenzen von Copilot

Verarbeitungskette: Vom Prompt zur Antwort

Copilot generiert seine Ausgaben auf Basis natürlicher Spracheingaben („Prompts“), die durch den Nutzer in Microsoft 365-Anwendungen gestellt werden. Der technische Ablauf folgt dabei grob dieser Kette:

  1. Verarbeitung der Anfrage (NLU): Der Prompt wird durch ein Natural Language Understanding-Modul analysiert.
  2. Graph-basierte Kontextsuche: Microsoft Graph durchsucht persönliche Datenquellen nach passenden Inhalten.
  3. Ranking und Filterung: Die Inhalte werden gewichtet und in einen temporären Antwortkontext gebracht.
  4. Generierung der Ausgabe: Basierend auf einem LLM wird eine Antwort in natürlicher Sprache formuliert.

Wichtig: Der Nutzer sieht nur das Endergebnis – nicht, welche Daten konkret eingeflossen sind.

Architekturüberblick

Copilot ist eine serverseitige Anwendung, die über Microsoft 365-Dienste mit den Datenquellen interagiert. Die zugrunde liegenden Modelle (z. B. GPT) sind über Azure OpenAI Services gehostet:

  • Datenverarbeitung erfolgt in Microsoft-Rechenzentren innerhalb des Tenants.
  • Microsoft Graph API ist die zentrale Schnittstelle zu SharePoint, OneDrive, Outlook etc.
  • Copilot verwendet ausschließlich die Berechtigungen des angemeldeten Nutzers.

Logging, Transparenz und technische Begrenzungen

  • Keine Quellenverlinkung: Nutzer sehen nicht, woher Informationen stammen.
  • Keine Prompt-Historie: Es gibt keine automatische Protokollierung der Eingaben.
  • Keine zentrale Einsicht für Admins oder Datenschutz: Auswertungen sind nicht möglich.

Grenzen von Labels und Verschlüsselung

  • Vertraulichkeitslabels beeinflussen die Anzeige, aber nicht den Zugriff durch Copilot.
  • IRM-/RMS-Schutz wirkt nur, solange Inhalte nicht geöffnet wurden.
  • DLP-Regeln greifen meist beim Speichern oder Versenden – nicht bei der Analyse durch Copilot.

Temporäre Datenhaltung & Reproduzierbarkeit

  • Identische Prompts können unterschiedliche Ergebnisse liefern.
  • Zwischenspeicherung erfolgt u. U. ohne langfristige Protokollierung.
  • Generierte Antworten sind nicht dauerhaft referenzierbar.

Externe Nutzer und Gastzugriffe

  • Copilot funktioniert auch für Gäste, wenn Berechtigungen bestehen.
  • Keine zentrale Übersicht über Copilot-Nutzung durch externe Konten.
  • Cross-Tenant-Kollaborationen bergen Informationsabflussrisiken.

Fazit: Architekturbedingt keine Kontrollinstanz

Copilot analysiert, was technisch zugänglich ist – unabhängig von Kontext, Zweck oder Relevanz. Ohne ergänzende Schutzmechanismen besteht ein erheblicher Kontrollverlust über sensible Informationen.

Rechtliche Bewertung: Datenschutzrechtliche Einordnung

Datenschutz-Folgenabschätzung (Art. 35 DSGVO)

Angesichts der automatisierten Analyse großer Mengen personenbezogener Daten aus verschiedenen Systemen ist regelmäßig eine Datenschutz-Folgenabschätzung (DSFA) erforderlich. Copilot kann durch semantische Analyse besonders sensible Daten verarbeiten (z. B. Gesundheitsdaten, Beschäftigtendaten), ohne dass dies für Betroffene nachvollziehbar ist. Das Risiko für die Rechte und Freiheiten der Betroffenen ist hoch – und rechtfertigt eine DSFA nach Art. 35 Abs. 1 DSGVO.

Besondere Kategorien personenbezogener Daten (Art. 9 DSGVO)

Sobald Copilot Gesundheitsdaten, Informationen zur sexuellen Orientierung, religiöse Überzeugungen oder andere besondere Kategorien i. S. v. Art. 9 Abs. 1 DSGVO verarbeitet, bedarf es einer ausdrücklichen Rechtsgrundlage. Diese ist im Rahmen der betrieblichen Nutzung selten gegeben – und muss über Betriebsvereinbarungen, Einwilligungen oder § 26 Abs. 3 BDSG konkretisiert werden.

Zweckänderung und Weiterverarbeitung (Art. 6 Abs. 4 DSGVO)

Ein zentrales Risiko liegt in der automatisierten Weiterverarbeitung von Daten für andere Zwecke als ursprünglich vorgesehen. Gemäß Art. 6 Abs. 4 DSGVO ist zu prüfen, ob eine neue Verarbeitung mit dem ursprünglichen Zweck vereinbar ist. Kriterien wie die Art der Daten, der Zusammenhang mit dem ursprünglichen Zweck oder die Folgen für die betroffene Person müssen berücksichtigt werden – was bei Copilot faktisch nicht geschieht.

Transparenz und Betroffenenrechte (Art. 13, 14, 15 DSGVO)

Da Copilot Daten systemübergreifend verarbeitet, stellt sich die Frage: Wie kann ein Betroffener erkennen, welche seiner Daten in welchem Kontext verarbeitet wurden? Die technische Intransparenz kollidiert mit dem Anspruch auf Information, Auskunft und Nachvollziehbarkeit der Verarbeitung.

Ausblick: Wohin geht die Reise?

Microsoft Copilot ist nur der Anfang. KI-Systeme werden in den kommenden Jahren tief in unsere Arbeitsumgebungen integriert. Die Frage ist nicht mehr, ob wir KI nutzen – sondern ob wir dabei die Kontrolle über unsere Daten behalten.

Unternehmen sollten den Einsatz von Copilot zum Anlass nehmen, sich grundlegend mit Data Governance, Berechtigungskonzepten und Datenschutzorganisation zu befassen. Wer jetzt handelt, kann nicht nur Datenschutzverstöße verhindern, sondern langfristig effizienter, sicherer und vertrauenswürdiger arbeiten.

Die eigentliche Innovation liegt nicht in der KI – sondern in unserer Fähigkeit, sie verantwortlich zu steuern.


Stefan Winger
Stefan Winger
Stefan Winger ist seit Oktober 2023 als Senior Manager Datenschutz bei INTEGRITY tätig mit den Schwerpunkten: Gestaltung und Planung datenschutzrelevanter Prozesse in KMUs und klinischen Betrieben.