Exchange Server Sicherheitsupdates – Februar 2026: Warum die Migration auf SE spätestens jetzt entscheidend ist

Mit der Veröffentlichung der aktuellen Exchange Server Sicherheitsupdates macht Microsoft erneut deutlich, wie kritisch der sichere Betrieb von On-Premises-E-Mail-Systemen ist. Auch wenn aktuell keine aktiv ausgenutzten Angriffe gemeldet wurden, ist die Botschaft klar: Ungepatchte oder nicht mehr unterstützte Exchange-Server stellen ein erhebliches Risiko dar.

Für Unternehmen bedeutet das konkret:

Entweder Exchange Server Subscription Edition (SE) einsetzen – oder zwingend am ESU-Programm teilnehmen.

Alles andere ist aus Sicherheits- und Compliance-Sicht nicht mehr vertretbar.

Was bedeutet die aktuelle Sicherheitsupdate-Ankündigung?

Microsoft stellt Sicherheitsupdates inzwischen primär für Exchange Server Subscription Edition (SE) bereit.

Für Exchange Server 2016 und 2019 gilt:

  • Sicherheitsupdates gibt es nur noch im Rahmen des kostenpflichtigen Extended Security Update (ESU) Programms
  • Ohne ESU-Teilnahme erhalten diese Versionen keine weiteren Security Updates
  • Das ESU-Programm ist zeitlich befristet und endet spätestens im April 2026

Damit ist klar: Exchange 2016/2019 befinden sich faktisch im End-of-Life-Betrieb – selbst wenn sie technisch noch laufen.

Warum Unternehmen längst auf Exchange SE umgestellt haben sollten

Als IT-Consultant sehe ich in Projekten immer wieder dieselbe Situation:

Exchange funktioniert „noch“, also wird das Thema Migration aufgeschoben. Genau das ist gefährlich.

1. Sicherheitsrisiko

Exchange war in den letzten Jahren regelmäßig Ziel großflächiger Angriffe. Ein ungepatchter Server ist kein isoliertes Risiko, sondern oft ein Einstiegspunkt ins gesamte Unternehmensnetzwerk.

2. Compliance & Audit-Fähigkeit

Viele Standards (ISO 27001, TISAX, NIS2, interne Audits) verlangen:

  • Hersteller-Support
  • zeitnahe Sicherheitsupdates
  • dokumentierte Patch-Prozesse

Ein Exchange ohne Support oder ESU ist hier nicht mehr verteidigungsfähig.

3. Exchange SE ist der neue Standard

Microsoft hat die Richtung klar vorgegeben:

  • Exchange Server SE ist die einzige On-Premises-Version mit langfristigem Update-Pfad
  • Regelmäßige Sicherheitsupdates
  • Planbare Wartung
  • Keine Sonderprogramme oder Ausnahmen mehr nötig

Kurz gesagt: SE ist kein „Upgrade“, sondern der neue Normalzustand.

Was ist das ESU-Programm – und wann ist es sinnvoll?

Das Extended Security Update (ESU) Programm ist eine Übergangslösung für Unternehmen, die aus organisatorischen oder technischen Gründen noch nicht auf Exchange SE migriert sind.

Was ESU bietet:

  • Sicherheitsupdates für Exchange 2016 / 2019
  • Nur Critical und Important Vulnerabilities
  • Keine Feature-Updates
  • Kein regulärer Produktsupport

Was ESU nicht ist:

  • Keine dauerhafte Lösung
  • Kein Ersatz für eine Migration
  • Keine Garantie auf monatliche Updates

ESU kauft Zeit – nicht Sicherheit auf Dauer.

Wie kann man das ESU-Programm erwerben?

Der Erwerb des ESU-Programms läuft nicht automatisiert, sondern über Microsoft bzw. Partner.

Voraussetzungen

  • Exchange 2016: CU23
  • Exchange 2019: CU14 oder CU15
  • Sauberer, unterstützter Update-Stand

Ablauf in der Praxis

  1. Microsoft Account Team oder Partner kontaktieren
    Falls kein eigenes Account Team vorhanden ist, übernimmt dies meist ein Microsoft-Partner.
  2. ESU-Lizenz pro Exchange-Server erwerben
  3. Zugriff auf private Security Updates erhalten
  4. Patch-Prozess weiterhin aktiv betreiben

Wichtig:

Nach Ende der öffentlichen Updates werden ESU-Security-Updates nicht mehr frei verfügbar, sondern nur noch ESU-Kunden bereitgestellt.

Conditional Access für Agent Identities in Microsoft Entra ID – Architektur und Praxis

Microsoft Entra ID unterstützt Conditional Access für Agent Identities. Überblick zu Konzept, Einsatzszenarien und Sicherheitsvorteilen.

Conditional Access für Agent Identities in Microsoft Entra ID

Mit der zunehmenden Nutzung von Automatisierung, Workflows und KI-gestützten Diensten steigt die Anzahl nicht-menschlicher Identitäten in Entra-ID-Umgebungen deutlich. Microsoft adressiert diese Entwicklung mit der Einführung von Conditional Access für sogenannte Agent Identities. Der Microsoft-Beitrag aus der Tech Community beschreibt, wie diese Identitäten abgesichert werden können und welche neuen Steuerungsmöglichkeiten sich daraus ergeben.

Was sind Agent Identities?

Agent Identities repräsentieren nicht-interaktive Akteure wie:

  • KI-Agenten
    • Automatisierte Services
      • Hintergrundprozesse
  • Orchestrierte Workflows

Im Gegensatz zu klassischen Benutzeridentitäten agieren sie eigenständig, oft dauerhaft und mit weitreichenden Berechtigungen. Genau daraus ergibt sich ein erhöhtes Sicherheitsrisiko, wenn Zugriffe nicht granular kontrolliert werden.

Sicherheitsproblem klassischer Service-Identitäten

Traditionell werden für nicht-menschliche Zugriffe Service Principals, Managed Identities oder App-Registrierungen verwendet. Diese Identitäten:

  • Arbeiten häufig mit langlebigen Geheimnissen oder Zertifikaten
  • Unterliegen nicht denselben Conditional-Access-Regeln wie Benutzer
  • Entziehen sich kontextbasierter Zugriffskontrolle

Der Microsoft-Artikel ordnet Agent Identities als Weiterentwicklung ein, um diese Lücke zu schließen.

Conditional Access für Agent Identities – Konzept

Conditional Access für Agent Identities erweitert das bekannte CA-Modell um nicht-menschliche Identitäten. Dabei werden Zugriffsentscheidungen nicht mehr ausschließlich auf Benutzerkontexten getroffen, sondern auf Eigenschaften des Agenten und dessen Ausführungsumgebung.

Mögliche Steuerungsparameter sind unter anderem:

  • Identität des Agenten
  • Zielressource
  • Risiko- und Kontextinformationen
  • Mandanten- und Workload-Zugehörigkeit

Abgrenzung zu Benutzer-Conditional-Access

Ein zentrales Thema des Beitrags ist die klare Trennung zwischen Benutzer- und Agenten-Policies. Agent Identities benötigen eigene Richtlinien, da klassische Bedingungen wie Standort, Gerät oder MFA nicht anwendbar sind.

Microsoft verfolgt hier einen separaten Policy-Ansatz, um Fehlkonfigurationen und unbeabsichtigte Blockierungen produktiver Workloads zu vermeiden.

Typische Einsatzszenarien

Absicherung von KI- und Automatisierungsdiensten

Agent Identities eignen sich besonders für KI-basierte Dienste, die selbstständig auf APIs, Daten oder andere Cloud-Ressourcen zugreifen. Conditional Access ermöglicht hier eine gezielte Einschränkung auf notwendige Zielsysteme.

Zero-Trust-Architekturen für Workloads

Durch Conditional Access für Agenten lässt sich das Zero-Trust-Prinzip auch auf nicht-menschliche Identitäten anwenden. Jeder Zugriff wird explizit bewertet und autorisiert.

Reduktion von Seitwärtsbewegungen

Granulare CA-Regeln können verhindern, dass kompromittierte Agenten unkontrolliert auf weitere Ressourcen zugreifen.

Aktueller Stand und Einschränkungen

Der Microsoft-Beitrag macht deutlich, dass sich Conditional Access für Agent Identities noch in der Weiterentwicklung befindet. Nicht alle Szenarien und Dienste werden aktuell unterstützt. Organisationen sollten daher:

  • Den unterstützten Funktionsumfang genau prüfen
  • Bestehende Service-Identitäten evaluieren
  • Pilotprojekte klar abgrenzen

Einordnung aus Beratungssicht

Conditional Access für Agent Identities ist ein wichtiger Schritt, um die Sicherheitslücke zwischen Benutzer- und Workload-Identitäten zu schließen. Der Ansatz zeigt, dass Microsoft die steigende Bedeutung autonomer Systeme in Entra ID strategisch adressiert.

Für produktive Umgebungen ist jedoch entscheidend, neue Richtlinien kontrolliert einzuführen und bestehende Automatisierungen nicht unbeabsichtigt zu beeinträchtigen.

Zusammenfassung

Der Microsoft-Tech-Community-Beitrag zeigt, wie Conditional Access gezielt auf Agent Identities angewendet werden kann. Damit lassen sich moderne Automatisierungs- und KI-Szenarien besser absichern, ohne auf klassische Benutzermechanismen zurückzugreifen. Für Unternehmen mit wachsender Anzahl nicht-menschlicher Identitäten ist dies ein relevanter Baustein moderner Entra-ID-Sicherheitsarchitekturen.

Microsoft integriert Security Copilot in Microsoft 365 E5

Mit seinem aktuellen Update kündigt Microsoft an, dass Security Copilot künftig ohne Zusatzkosten als Bestandteil der Microsoft 365 E5-Lizenz enthalten sein wird. Damit wird eine leistungsstarke KI-gestützte Sicherheitslösung direkt in die täglichen Arbeitsabläufe von Sicherheitsteams integriert. 

Überblick und Zeitpunkt

Die Integration startet ab dem 18. November 2025 für bestehende Kunden von Microsoft 365 E5, die Security Copilot bereits nutzen.  Im Anschluss erfolgt die sukzessive Ausrollung für alle Microsoft 365 E5-Kunden. Vor Aktivierung erhalten Kunden eine 30-Tage Vorankündigung. 

Lizenz- und Nutzungskapazitäten

  • Für jeden 1.000 bezahlten Nutzerlizenzen im Rahmen von Microsoft 365 E5 werden monatlich 400 Security Compute Units (SCU) kostenfrei bereitgestellt, maximal bis zu 10.000 SCU pro Monat.  
  • Beispiel: Ein Unternehmen mit 400 Nutzerlizenzen bekommt 160 SCU pro Monat. Bei 4.000 Nutzerlizenzen sind es 1.600 SCU pro Monat.  
  • Nicht genutzte SCUs verfallen am Monatsende — ein Übertrag in spätere Monate erfolgt nicht.  

Was ist inbegriffen – und was nicht?

Inbegriffene Fähigkeiten:

  • Zugriff auf die Kern-Erlebnisse von Security Copilot wie Chat- und Agent-Szenarien über Produkte wie Microsoft Defender, Microsoft Entra, Microsoft Intune und Microsoft Purview.  
  • Möglichkeit, selbst (oder durch Partner) Agenten, Prompt-Bücher oder Integrationen zu entwickeln (z. B. über Agent Builder, APIs) innerhalb dieses Angebots.  

Nicht automatisch inbegriffen:

  • Kosten für bestimmte Zusatzkomponenten wie z. B. Daten-Lake-Compute/Storage in Microsoft Sentinel, oder Lizenzen für Partner-Agenten über den Security Store.  
  • Voraussetzungen außerhalb der Microsoft 365 E5 Lizenz, wenn erforderlich, sind nicht automatisch abgedeckt.  

Zugangs- und Einsatzbedingungen

  • Jeder Microsoft 365 E5-Kunde ist für die Inklusion berechtigt – unabhängig von der Anzahl der Nutzerlizenzen.  
  • Es ist keine zusätzliche Provisionierung von SCUs notwendig: Die Nutzung wird automatisch bereitgestellt, wenn das Angebot aktiviert wird.  
  • Kunden ohne Microsoft 365 E5 können Security Copilot weiterhin über das bisherige Preismodell beziehen – die Inklusion ist nicht exklusiv und ersetzt nicht das eigenständige Angebot.  

Bedeutung für Unternehmen

Für Unternehmen bedeutet diese Entscheidung: Sicherheitsteams bekommen künftig mit minimalem administrativen Aufwand Zugriff auf fortschrittliche KI-Agenten, die in den bekannten Microsoft‐Sicherheitsprodukten arbeiten. Das senkt Einstiegshürden, erleichtert die Nutzung von Automatisierung im Sicherheitsbetrieb (z. B. bei Incident-Triage, Phishing-Bearbeitung, Zugriffskontrollen) und verbessert insgesamt die Reaktionsfähigkeit.

Gleichzeitig bleibt es wichtig, diese Kapazitäten sinnvoll zu steuern: Die verfügbar gemachten SCUs sind limitiert, nicht genutzte Einheiten verfallen, und bei Überschreitung können Zusatzkosten entstehen. Zudem muss das Unternehmen die Konfiguration von Agenten und Workflows aktiv angehen – die Technologie liefert das „Werkzeug“, nicht automatisch das „Fertigsystem“.

Fazit

Mit der Einbindung von Security Copilot in die Microsoft 365 E5-Lizenz setzt Microsoft einen klaren Impuls: Sicherheits-KI wird nicht mehr exklusives Premium-Tool, sondern Teil der Standard-Sicherheitsinfrastruktur im Unternehmenskontext. Das stärkt die Automatisierung und Effizienz von IT-Sicherheits- und Betriebsaufgaben. Für Berater und IT-Verantwortliche gilt: Jetzt gilt es, die Einführung zu planen – von Lizenzcheck über Kapazitäts-Monitoring bis hin zur organisatorischen Verankerung solcher Agenten-Workflows.

Microsoft integriert Sysmon direkt in Windows 11 und Windows Server 2025

Microsoft hat angekündigt, das bislang separat erhältliche Sysinternals-Tool Sysmon (System Monitor) direkt in Windows 11 sowie Windows Server 2025 zu integrieren. Damit wird ein wichtiges Analyse- und Sicherheitswerkzeug künftig Bestandteil des Betriebssystems und muss nicht mehr manuell nachinstalliert werden.

Was ist Sysmon?

Sysmon ist ein Überwachungstool, das tiefgehende Informationen über Prozessstarts, Netzwerkverbindungen, Dateiänderungen und andere sicherheitsrelevante Systemaktivitäten erfasst. Diese Ereignisse werden im Windows-Eventlog protokolliert und dienen als Grundlage für Sicherheitsanalysen, Incident Response und forensische Untersuchungen.

Bisher war Sysmon ein optionales Tool aus der Sysinternals-Suite, das Unternehmen manuell verteilen und konfigurieren mussten.

Was ändert sich durch die neue Integration?

  • Optionale Windows-Komponente
    Sysmon wird künftig als aktivierbare Funktion direkt im Betriebssystem vorhanden sein. Administratoren können es also ohne separaten Download einrichten.
  • Einfachere Updates
    Die Aktualisierung erfolgt künftig über reguläre Windows-Update-Mechanismen. Das erleichtert insbesondere in größeren Umgebungen den Rollout und die Wartung.
  • Bewährte Funktionen bleiben erhalten
    Die bekannten Features wie benutzerdefinierte Konfigurationsdateien, fein granulierte Event-Filter oder die umfangreiche Protokollierung von Systemaktivitäten werden weiterhin unterstützt.
  • Erweiterte Dokumentation und zukünftige Features
    Microsoft plant verbesserte Dokumentationen sowie zusätzliche Verwaltungs- und Sicherheitsfunktionen, darunter neue Optionen für Enterprise-Management und KI-gestützte Bedrohungserkennung.

Bedeutung für Unternehmen und IT-Administratoren

  • Erhöhte Standardisierung
    Da Sysmon nun ein offizieller Bestandteil des Betriebssystems wird, kann es einfacher in Standard-Images und Baselines integriert werden.
  • Besseres Sicherheitsmonitoring
    Durch die verbesserte Abdeckung und die niedrigere Einstiegshürde profitieren Unternehmen von konsistenterer Protokollierung verdächtiger Aktivitäten.
  • Weniger Aufwand bei Deployment und Verwaltung
    Ohne manuelle Installation oder Updateroutinen lässt sich Sysmon einfacher betriebsweit einführen – gerade in größeren IT-Landschaften.
  • Nahtlose Integration in bestehende Security-Workflows
    Die bekannten Ereignistypen und Konfigurationsmöglichkeiten bleiben bestehen und können weiterhin in SIEM-, SOC- und Forensik-Prozessen genutzt werden.

Hinweise zur praktischen Umsetzung

  • Eine durchdachte Sysmon-Konfiguration bleibt entscheidend: Nur sinnvoll gefilterte Ereignisse sorgen für wertvolle Logs und vermeiden unnötige Datenmengen.
  • In Unternehmensumgebungen empfiehlt sich weiterhin ein zentrales Management, z. B. über Gruppenrichtlinien oder Konfigurationsmanagement-Systeme.
  • Bestehende Installationen sollten hinsichtlich Migration und Kompatibilität geprüft werden – insbesondere, wenn spezielle Konfigurationsdateien oder externe Versionen im Einsatz sind.

Fazit

Die Integration von Sysmon direkt in Windows 11 und Windows Server 2025 ist ein bedeutender Schritt für die Sicherheitsüberwachung in Unternehmensumgebungen. Sie reduziert den administrativen Aufwand, verbessert die Standardisierung und stärkt die Möglichkeiten für tiefergehende Analysen. Gleichzeitig bleibt eine sorgfältige Konfiguration und Einbettung in bestehende Sicherheitsprozesse weiterhin unerlässlich.

MMP-C: Die neue Ära des Windows-Client-Managements mit Microsoft Intune

Microsoft stellt mit der Microsoft Management Platform – Cloud (MMP-C) einen völlig neuen Ansatz für das Windows-Client-Management vor. In Kombination mit Microsoft Intune entsteht eine Plattform, die klassische OMA-DM-Mechanismen ablöst und Verwaltung in Echtzeit ermöglicht.

MMP-C basiert auf dem Windows Declared Configuration (WinDC)-Protokoll, das Geräte in einem deklarativen, zustandsbasierten Modell verwaltet. Statt Richtlinien zyklisch zu synchronisieren, definiert Intune einmal den gewünschten Zustand („desired state“) eines Geräts – und das System stellt diesen Zustand dauerhaft sicher.


Wie MMP-C funktioniert

Wenn MMP-C auf einem Gerät aktiviert wird, erstellt Windows eine zweite, verknüpfte Intune-Registrierung – die sogenannte Linked oder Dual Enrollment.

  • Die primäre Registrierung verwaltet weiterhin klassische OMA-DM-Richtlinien.
  • Die verknüpfte Registrierung nutzt den WinDC-Dienst, um deklarative Richtlinien kontinuierlich durchzusetzen.

Das Herzstück sind Declared Configuration Documents (MOF-Dateien), die von Intune bereitgestellt werden. Diese beschreiben den vollständigen Soll-Zustand des Geräts. Der WinDC-Agent sorgt dafür, dass jede Einstellung im Dokument aktiv bleibt – Abweichungen werden automatisch korrigiert, ohne auf den nächsten Intune-Sync zu warten.

So entsteht ein kontinuierliches, selbstüberwachendes Verwaltungssystem, das Policy-Drift verhindert und die Einhaltung von Sicherheits- und Compliance-Vorgaben erheblich verbessert.


Unterschied zu OMA-DM

Das klassische OMA-DM-Protokoll wurde ursprünglich für Mobilgeräte entwickelt und arbeitet reaktiv:
Geräte melden sich in Intervallen bei Intune, erhalten Richtlinien im XML-Format (SyncML), wenden sie an und senden anschließend Rückmeldungen. Zwischen zwei Check-ins kann es jedoch zu Abweichungen kommen – Änderungen bleiben bis zur nächsten Synchronisierung unbemerkt.

Mit MMP-C / WinDC ändert sich das komplett:

  • Der Zielzustand wird einmalig deklariert, nicht ständig abgefragt.
  • Der Client übernimmt die Verantwortung für seine Konfiguration.
  • Alle Einstellungen werden in einem einzigen Dokument gebündelt, was die Netzwerklast reduziert.
  • Der Durchsetzungsmechanismus läuft kontinuierlich und lokal.

Das Ergebnis:

  • Schnellere Policy-Anwendung,
  • weniger Serverkommunikation,
  • höhere Zuverlässigkeit,
  • und stärkere Compliance selbst bei Offline-Geräten.

OMA-DM und MMP-C laufen aktuell parallel. Legacy-Richtlinien werden weiterhin über CSPs verwaltet, während neue, deklarative Workloads schrittweise über MMP-C bereitgestellt werden.


Intune-Funktionen, die heute bereits MMP-C nutzen

1. Endpoint Privilege Management (EPM)

EPM, Teil der Intune Suite, war das erste Feature, das vollständig auf MMP-C setzte.
Es erlaubt Standardbenutzern, genehmigte Aufgaben mit erhöhten Rechten auszuführen – ohne lokale Administratorrechte zu besitzen.
MMP-C sorgt hier für die zuverlässige, sofortige Bereitstellung und Durchsetzung der Richtlinien auf dem Gerät.

2. Erweiterte Geräteinventarisierung (Advanced Device Inventory)

Die neue Geräteinventarfunktion in Intune sammelt detaillierte Hardware- und Sicherheitsinformationen (z. B. TPM-Status, CPU-Details, Laufwerke).
Das zugehörige Properties-Catalog-Profil nutzt MMP-C, um den Inventory-Agent zu verteilen und die Datenerfassung zu steuern.

3. Weitere Workloads in Planung

Microsoft migriert schrittweise weitere Richtlinienarten:

  • WLAN- und VPN-Profile
  • Zertifikatsbereitstellung
  • Sicherheitsbaselines
  • Defender- und Endpoint-Protection-Konfigurationen

Der Anteil deklarativer Richtlinien in Intune wächst mit jedem Update.


Vorteile von MMP-C

VorteilBeschreibung
Kontinuierliche ComplianceAbweichungen werden sofort erkannt und automatisch korrigiert.
Schnelle UmsetzungÄnderungen wirken nahezu in Echtzeit – kein Warten auf den nächsten Sync.
Geringere NetzwerklastEin kompaktes Konfigurationsdokument ersetzt viele einzelne Transaktionen.
Bessere SkalierbarkeitIdeal für große Flotten – weniger Serverbelastung, geringere Latenzen.
Höhere ResilienzDer Client bleibt compliant, auch wenn keine Verbindung zu Intune besteht.
Modernes SicherheitsmodellBesser geeignet für Zero-Trust- und Cloud-First-Szenarien.

Voraussetzungen und Implementierungshinweise

  • Windows 10/11 mit aktuellem Build unterstützt MMP-C nativ.
  • Intune Enrollment muss aktiv sein; MMP-C wird automatisch als Linked Enrollment hinzugefügt.
  • Netzwerkfreigaben: dm.microsoft.com darf nicht durch SSL-Inspection oder Proxy-Filter blockiert werden.
  • Pilotgruppen eignen sich für den Start – z. B. Geräte mit aktivem EPM oder Advanced Inventory.
  • Überprüfen lässt sich die MMP-C-Registrierung in der Registry unter den Enrollment-Schlüsseln oder per PowerShell (dsregcmd /status).

Praxisbeispiel: Von reaktiv zu deklarativ

Ein Unternehmen verwaltet 2.000 Windows-11-Clients mit Intune.
Früher dauerte es mehrere Stunden, bis geänderte Sicherheitsrichtlinien (z. B. BitLocker-Einstellungen) flächendeckend durchgesetzt waren.
Nach der Aktivierung von MMP-C korrigieren sich Geräte innerhalb weniger Minuten selbstständig – ganz ohne Admin-Eingriff.
Die Anzahl der Compliance-Abweichungen sank um über 60 %, und Helpdesk-Tickets zu Richtlinienfehlern gingen deutlich zurück.


Fazit

MMP-C ist die logische Weiterentwicklung des Windows-Client-Managements.
Anstelle reaktiver Richtliniensynchronisationen setzt Microsoft nun auf ein intelligentes, selbstüberwachendes System, das den gewünschten Gerätezustand proaktiv sicherstellt.

Für IT-Abteilungen bedeutet das:

  • Weniger Drift, weniger Aufwand, mehr Kontrolle.
  • Schnellere Umsetzung von Sicherheitsvorgaben.
  • Grundlage für zukünftige Intune-Funktionen.

Der Umstieg erfolgt evolutionär – OMA-DM bleibt vorerst bestehen, doch MMP-C ist der Weg nach vorn.
Wer heute mit EPM oder Advanced Device Inventory startet, legt den Grundstein für ein modernes, resilienteres Endpoint-Management.

MMP-C verändert das Denken über Gerätemanagement grundlegend – weg vom zyklischen Kontrollmodell, hin zu einer Cloud-basierten, deklarativen Verwaltung mit echtem „Always-Compliant“-Charakter.

Exchange Server Security 2025 – Gemeinsame Empfehlungen von NSA, CISA, ACSC und dem kanadischen Cyber Centre

Microsoft Exchange bleibt für viele Organisationen die zentrale Kommunikationsplattform – und ein Dauerziel für Cyberangriffe. Zahlreiche Schwachstellen und Zero-Day-Exploits der letzten Jahre haben gezeigt, wie wichtig eine systematische Härtung von Exchange-Umgebungen ist.

Im Oktober 2025 haben vier führende Sicherheitsbehörden – die National Security Agency (NSA), die Cybersecurity and Infrastructure Security Agency (CISA), das Australian Cyber Security Centre (ACSC) sowie das Canadian Centre for Cyber Security – ihre gemeinsamen Microsoft Exchange Server Security Best Practices veröffentlicht.
Ziel ist es, Administratoren klare Handlungsempfehlungen zu geben, um On-Premises-Exchange-Server nachhaltig abzusichern.

Microsoft Exchange bleibt für viele Organisationen die zentrale Kommunikationsplattform – und ein Dauerziel für Cyberangriffe. Zahlreiche Schwachstellen und Zero-Day-Exploits der letzten Jahre haben gezeigt, wie wichtig eine systematische Härtung von Exchange-Umgebungen ist.

Im Oktober 2025 haben vier führende Sicherheitsbehörden – die National Security Agency (NSA), die Cybersecurity and Infrastructure Security Agency (CISA), das Australian Cyber Security Centre (ACSC) sowie das Canadian Centre for Cyber Security – ihre gemeinsamen Microsoft Exchange Server Security Best Practices veröffentlicht.
Ziel ist es, Administratoren klare Handlungsempfehlungen zu geben, um On-Premises-Exchange-Server nachhaltig abzusichern.


1. Präventionsstrategie als Grundprinzip

Die Leitlinie aller Empfehlungen ist eine konsequente „Prevention-first“-Strategie. Das bedeutet, Angriffe gar nicht erst zu ermöglichen, statt nur auf Vorfälle zu reagieren.
Zentrale Prinzipien dabei sind:

  • Deny-by-default: Nur das erlauben, was unbedingt nötig ist.
  • Least privilege: Benutzer- und Adminrechte auf das Minimum beschränken.
  • Timely updates: Sicherheitsupdates ohne Verzögerung installieren.
  • Attack surface minimization: Nicht benötigte Dienste und Ports deaktivieren oder isolieren.

Diese Maßnahmen senken das Risiko eines erfolgreichen Angriffs erheblich und bilden die Grundlage für jede weitere Absicherung.


2. Sicherheitsupdates und Patchmanagement priorisieren

Die wichtigste Verteidigung gegen Exploits bleibt konsequentes Patchmanagement.
Microsoft veröffentlicht:

  • Zwei Cumulative Updates (CUs) pro Jahr
  • Monatliche Sicherheitsupdates und Hotfixes

Angreifer entwickeln oft innerhalb weniger Tage nach Veröffentlichung eines Patches neue Exploits. Administratoren sollten deshalb:

  • Den Exchange Health Checker regelmäßig ausführen
  • Die Exchange Team Blog Updates abonnieren
  • Updates automatisiert und zeitnah einspielen

Nur Systeme mit aktuellem Patchstand sind wirklich geschützt.


3. End-of-Life-Versionen abschalten

Seit Oktober 2025 ist ausschließlich die Exchange Server Subscription Edition (SE) offiziell unterstützt.
Ältere Versionen wie Exchange 2016 oder Exchange 2019 sind „End of Life“ und stellen ein erhebliches Risiko dar, da sie keine Sicherheitsupdates mehr erhalten.

Empfohlene Maßnahmen:

  • Migration auf Exchange SE oder eine alternative, unterstützte E-Mail-Plattform
  • Alte Server vom Internet trennen und nur intern verwenden
  • Optional: Mail-Gateway als Schutzschicht für eingehenden und ausgehenden Datenverkehr einsetzen

Für Unternehmen gilt: Je schneller die Migration, desto geringer das Risiko.


4. Emergency Mitigation Service aktiv lassen

Der Exchange Emergency Mitigation (EM) Service ist ein automatischer Schutzmechanismus von Microsoft. Er erkennt und blockiert bekannte Angriffsmuster, bevor ein offizielles Update verfügbar ist.

Beispiele für Schutzmaßnahmen sind das Sperren gefährlicher HTTP-Anfragen oder das automatische Deaktivieren kompromittierter Dienste.

Wichtig:
Der EM-Service ersetzt keine regulären Sicherheitsupdates, bietet aber einen wertvollen temporären Schutz und sollte stets aktiviert bleiben.


5. Sicherheitsbaselines konsequent anwenden

Sicherheitsbaselines schaffen Einheitlichkeit in der Konfiguration und erleichtern das Erkennen von Schwachstellen.
Empfohlene Quellen für Baselines:

  • DISA STIG (Security Technical Implementation Guide)
  • CIS Benchmarks
  • Microsoft Security Baselines

Diese Standards sollten sowohl für Exchange Server, Windows Server als auch für Office-/Outlook-Clients umgesetzt werden.
Einheitliche Baselines ermöglichen schnelle Audits und reduzieren die Angriffsfläche.


6. Eingebaute Schutzfunktionen nutzen

Wenn keine Drittanbieter-Tools verwendet werden, sollten alle integrierten Microsoft-Sicherheitsfunktionen aktiviert sein:

  • Microsoft Defender Antivirus (MDAV)
  • Antimalware Scan Interface (AMSI)
  • Attack Surface Reduction (ASR)
  • AppLocker / App Control for Business
  • Endpoint Detection and Response (EDR)
  • Exchange Anti-Spam und Anti-Malware

Ergänzend sollten Organisationen DMARC, SPF und DKIM konfigurieren – entweder manuell über DNS oder mithilfe externer Gateways, da Exchange On-Prem diese Standards nicht nativ unterstützt.


7. Administrative Zugriffe beschränken

Administrationsschnittstellen wie Exchange Admin Center (EAC) und PowerShell sind beliebte Einfallstore.
Empfehlungen:

  • Zugriff nur über dedizierte Administrator-Workstations
  • EAC-Zugriff extern über Client Access Rules sperren
  • Zugriff über Firewall-Regeln auf autorisierte IPs begrenzen

So bleibt der Verwaltungszugang geschützt, auch wenn der Rest des Systems kompromittiert wird.


8. Authentifizierung und Verschlüsselung härten

Transport Layer Security (TLS)

Nutzen Sie immer aktuelle TLS-Versionen für interne und externe Kommunikation.
Konsistente TLS-Konfigurationen verhindern Downgrades und stellen sicher, dass Verbindungen verschlüsselt bleiben.

Extended Protection (EP)

EP schützt vor Relay- und Man-in-the-Middle-Angriffen.
Die Funktion ist ab Exchange 2019 CU14 standardmäßig verfügbar und setzt korrekt konfigurierte TLS- und Kerberos-Einstellungen voraus.

Kerberos statt NTLM

NTLM ist veraltet und wird künftig entfernt.
Empfohlen wird der vollständige Umstieg auf Kerberos, das in Exchange SE (CU1) bereits als Standard gilt.

Modern Authentication und MFA

Ab Exchange 2019 CU13 steht Modern Authentication (OAuth 2.0) mit Unterstützung für Multi-Faktor-Authentifizierung (MFA) über ADFS oder Entra ID zur Verfügung.
Nach der Aktivierung sollte Basic Authentication vollständig deaktiviert werden.

PowerShell absichern

Seit dem Sicherheitsupdate vom November 2023 ist die Zertifikat-basierte Signierung von PowerShell-Serialisierungen standardmäßig aktiv.
Diese Funktion schützt vor Manipulationen und sollte auf allen Exchange-Servern aktiviert bleiben.


9. Weitere empfohlene Schutzmaßnahmen

  • HTTP Strict Transport Security (HSTS): Erzwingt HTTPS-Verbindungen und verhindert Man-in-the-Middle-Angriffe.
  • Download Domains: Trennt Outlook-Web-Sitzungen von Dateidownloads und schützt vor CSRF-Angriffen.
  • RBAC und Split Permissions: Trennen Sie Exchange-Administrationsrechte von Active-Directory-Privilegien, um eine Kompromittierung von Domain- oder Enterprise-Admin-Konten zu verhindern.
  • Tiering: Ordnen Sie Exchange-Server konsequent dem Tier-1-Segment zu. Damit bleibt der Server in einer kontrollierten Verwaltungsschicht und ist getrennt von Tier-0-Komponenten wie Domänencontrollern oder Schema-Administratoren.
    In Kombination mit Split Permissions wird so verhindert, dass Exchange-Administratoren unbeabsichtigt oder böswillig erweiterte Active-Directory-Rechte erlangen.
  • P2 FROM Header Detection: Erkennt und blockiert E-Mail-Spoofing-Angriffe automatisch.

Ein klar definiertes Admin-Tiering-Modell ist entscheidend, um die laterale Bewegung von Angreifern in der Infrastruktur zu verhindern.
Tier-1-Systeme (wie Exchange oder Fileserver) sollten immer durch dedizierte Admin-Konten und separate Workstations verwaltet werden, die keinen Zugriff auf Tier-0-Systeme besitzen.


10. Fazit: Zero Trust als dauerhafte Sicherheitsstrategie

Die beteiligten Behörden betonen: Zero Trust ist keine Option, sondern Pflicht.
Das bedeutet, jedes System – auch interne Server – wird als potenziell kompromittierbar betrachtet.

Durch konsequentes Patchmanagement, Minimierung von Berechtigungen, klare Tiering-Trennung und verschlüsselte Kommunikation lässt sich das Risiko deutlich senken.
Ein sicher konfigurierter Exchange-Server schützt nicht nur E-Mails, sondern die gesamte Kommunikationsinfrastruktur eines Unternehmens.

Die zehn wichtigsten Sofortmaßnahmen

  1. Immer auf neueste Cumulative und Security Updates upgraden
  2. Exchange 2016/2019 außer Betrieb nehmen
  3. Emergency Mitigation Service aktiv halten
  4. Security Baselines anwenden
  5. Defender, AMSI, ASR und EDR aktivieren
  6. TLS und Extended Protection korrekt konfigurieren
  7. Kerberos statt NTLM verwenden
  8. Modern Authentication und MFA erzwingen
  9. RBAC, Tiering und Split Permissions nutzen
  10. Zero Trust als Sicherheitsgrundlage umsetzen

Quelle:
Gemeinsames Dokument von NSA, CISA, Australian Cyber Security Centre (ACSC) und Canadian Centre for Cyber Security:
„Microsoft Exchange Server Security Best Practices“, Oktober 2025

https://www.nsa.gov/Portals/75/documents/resources/cybersecurity-professionals/CSI_Microsoft_Exchange_Server_Security_Best_Practices.pdf

CoPhish: Neue Angriffsmethode über Microsoft Copilot Studio zeigt, warum wir echte Zero-Trust-Architekturen brauchen

n den letzten Wochen wurde eine neue, besonders raffinierte Phishing-Technik bekannt, die zeigt, wie Angreifer selbst modernste KI-Tools und Cloud-Plattformen für ihre Zwecke missbrauchen können. Sicherheitsforscher von Datadog entdeckten eine Kampagne namens „CoPhish“, die Microsofts Copilot Studio-Agenten nutzt, um OAuth-Tokens zu stehlen – also digitale Schlüssel, mit denen sich Nutzer gegenüber Cloud-Diensten authentifizieren.

Der Fall ist nicht nur ein Beispiel für geschicktes Social Engineering, sondern auch ein Weckruf: Sicherheit durch Vertrauen reicht nicht mehr. Nur eine konsequent umgesetzte Zero-Trust-Architektur kann solchen Angriffen standhalten.


Wie funktioniert der CoPhish-Angriff?

Der Angriff nutzt aus, dass in Microsoft Copilot Studio Agenten (Chatbots) erstellt werden können, die über eine öffentliche, legitime Microsoft-Domain erreichbar sind.
Ein Angreifer erstellt dabei einen „bösartigen“ Copilot-Agenten, der scheinbar harmlose Aufgaben erfüllt – etwa das Abrufen von Informationen oder die Anmeldung bei einem Cloud-Service.

Im Hintergrund ist der Agent aber mit einer bösartigen Multi-Tenant-App verknüpft.
Wenn ein ahnungsloser Nutzer auf den Link klickt, öffnet sich ein bekannter Microsoft-Login-Dialog und der Nutzer wird gebeten, einer App Zugriff zu gewähren.
Die URL, das Layout und die Domain wirken absolut vertrauenswürdig – denn sie stammen von Microsoft selbst.

Doch hinter dieser Fassade steckt ein Phishing-Flow, der nach dem Login das OAuth-Token des Benutzers an den Angreifer überträgt. Dieses Token erlaubt dem Angreifer, sich als der Benutzer auszugeben – ohne Passwort, MFA oder sichtbare Anomalien.

Das Perfide: Es handelt sich nicht um einen klassischen Phishing-Link oder eine gefälschte Domain, sondern um Missbrauch einer legitimen Plattformfunktion.


Warum klassische Schutzmaßnahmen hier versagen

Traditionelle Sicherheitsansätze verlassen sich auf Vertrauen in bekannte Marken, Zertifikate und Domains.
Doch genau dieses Vertrauen wird hier ausgenutzt.

Selbst Firewalls, Secure Web Gateways oder MFA können nur eingeschränkt helfen, wenn der Nutzer bewusst (aber ahnungslos) einer legitimen App Berechtigungen erteilt.
Der Angriffsvektor liegt nicht in einem Exploit, sondern in einem Missbrauch der Zustimmungskette – etwas, das sich technisch kaum verhindern lässt, solange jeder Benutzer eigenständig Apps autorisieren darf.


Zero Trust als Antwort: Vertrauen ist keine Sicherheitsstrategie

Hier zeigt sich der wahre Wert von Zero Trust.
Zero Trust bedeutet nicht „Misstrauen gegenüber allem“, sondern: Jede Anfrage muss kontinuierlich geprüft, kontextualisiert und autorisiert werden – unabhängig von Quelle oder Identität.

Ein echter Zero-Trust-Ansatz hätte mehrere Verteidigungsschichten gegen CoPhish geboten:

  1. Strikte Kontrolle über App-Zustimmungen:
    Nur bestimmte Benutzergruppen dürfen OAuth-Zustimmungen erteilen oder neue Anwendungen registrieren.
  2. Identitätsbasierte Segmentierung:
    Selbst wenn ein Token kompromittiert wird, sind dessen Berechtigungen auf das Minimum reduziert (Least Privilege).
    Der Zugriff auf sensible Systeme wäre damit ausgeschlossen.
  3. Adaptive Authentifizierung und Kontextprüfung:
    Wird ein Token von einem unbekannten Agenten oder ungewöhnlichem Ort verwendet, schlägt eine automatische Re-Authentifizierung oder Policy-Blockade an.
  4. Monitoring & Alerting in Echtzeit:
    Zero-Trust-Architekturen setzen auf Telemetrie – ungewöhnliche OAuth-Zustimmungen oder App-Registrierungen werden erkannt und gemeldet.
  5. Klar definierte Vertrauenszonen:
    Nur Anwendungen und Agenten, die durch Governance-Prozesse geprüft und zertifiziert sind, dürfen Zugriff auf Unternehmensdaten haben.

Schutzmaßnahmen in der Praxis

Wer Microsoft- oder andere Cloud-Dienste betreibt, sollte folgende Punkte prüfen:

  • App-Consent Policies aktivieren: Nur Administratoren dürfen neuen Apps Berechtigungen erteilen.
  • Überwachung von App-Registrierungen: Regelmäßig prüfen, welche Anwendungen Zugriff auf Entra ID (ehemals Azure AD) haben.
  • Rollen und Berechtigungen reduzieren: Least-Privilege konsequent umsetzen.
  • Schulungen und Awareness-Programme: Nutzer sollten OAuth-Zustimmungsdialoge kritisch prüfen.
  • Zero-Trust-Governance etablieren: Kein System, keine Identität und kein Agent sollte per se als vertrauenswürdig gelten.

Fazit

Der CoPhish-Angriff zeigt eindrucksvoll, wie Angreifer legitime Plattformen als trojanische Pferde nutzen.
Die Lösung liegt nicht in noch mehr Firewalls oder Filtern, sondern in einem Paradigmenwechsel: Vertrauen muss ersetzt werden durch überprüfbare Sicherheit.

Zero Trust ist kein Buzzword mehr, sondern eine Notwendigkeit.
In einer Welt, in der sogar Microsoft-Domains zum Einfallstor werden können, gilt:

„Never trust, always verify.“

Kontrolle vs. Komfort: Passwort-Synchronisation in Microsoft Edge auf nicht verwalteten Geräten sicher gestalten

In vielen Unternehmen gehört Microsoft Edge mittlerweile zum festen Bestandteil der modernen Arbeitsplatzumgebung. Der Browser bietet zahlreiche Komfortfunktionen – von der nahtlosen Anmeldung mit dem Entra ID-Konto (ehemals Azure AD) bis hin zur Synchronisation von Passwörtern, Favoriten und Einstellungen über verschiedene Geräte hinweg.

Doch genau dieser Komfort kann schnell zum Risiko werden. Denn was für den privaten Nutzer bequem ist, stellt im Unternehmenskontext eine potenzielle Sicherheitslücke dar – insbesondere, wenn Mitarbeitende sich mit ihrem Arbeitskonto auf nicht verwalteten Geräten anmelden.


Warum Passwort-Synchronisation zum Risiko werden kann

Die Passwort-Synchronisation in Edge sorgt dafür, dass gespeicherte Anmeldeinformationen verschlüsselt in der Cloud abgelegt und auf allen Geräten eines Nutzers verfügbar sind. Das ist im privaten Umfeld praktisch – im Unternehmenskontext jedoch heikel.

Meldet sich ein Mitarbeitender mit seinem Arbeitskonto auf einem privaten Laptop an, kann die Synchronisation dazu führen, dass sensible Zugangsdaten auf einem Gerät landen, welches weder durch das Unternehmen verwaltet noch gehärtet ist. Selbst wenn dort lokale Sicherheitsmaßnahmen aktiv sind, bleibt unklar, ob das Gerät den Compliance-Anforderungen entspricht oder Malware-frei ist.

Hinzu kommt: Wird der integrierte Passwort-Manager des Browsers genutzt, bleiben die Daten auch lokal abrufbar – selbst wenn das Unternehmen zentral Richtlinien zur Deaktivierung oder Löschung setzt.

Meine persönliche Empfehlung aus der Praxis:
In meinen Projekten sensibilisiere ich Kunden regelmäßig dafür, dass der Browser nach wie vor das Hacker-Tool Nummer 1 ist – und somit eines der größten Einfallstore in moderne IT-Umgebungen darstellt. Daher sollte der Browser genauso konsequent gehärtet werden wie Betriebssystem, Endpoint-Schutz oder Identitätsmanagement.

Besonders kritisch sehe ich die Nutzung der integrierten Passwort-Manager in Browsern. Sie widersprechen in vielen Fällen den gängigen Sicherheitsvorgaben führender Institutionen:

  • Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt in seinen IT-Grundschutz-Bausteinen (z. B. APP.4.4 Webbrowser und SYS.1.6 Clients) ausdrücklich, Komfortfunktionen wie automatische Passwortspeicherung oder Formularausfüllung zu deaktivieren.
  • Auch die CIS Benchmarks (Center for Internet Security) für Microsoft Edge und Google Chrome listen das Deaktivieren des Passwort-Managers als empfohlene Sicherheitsmaßnahme (Level 1 Control).
  • Entsprechende Anforderungen finden sich ebenso in der ISO 27001/27002 unter dem Themenkomplex „Access Control“ (A.9) und in den Microsoft Security Baselines für Edge, die ebenfalls eine restriktive Browserkonfiguration vorsehen.

Aus diesen Gründen empfehle ich grundsätzlich, die integrierten Passwort-Manager über geeignete Hardening-Maßnahmen – etwa per Gruppenrichtlinien, MDM-Profilen oder Edge Management Policies – vollständig zu deaktivieren.

So lässt sich sicherstellen, dass Browser keine Passwörter speichern oder synchronisieren dürfen, und das Risiko wird erheblich reduziert, dass Unternehmenszugangsdaten außerhalb der kontrollierten und geschützten Umgebung abgelegt werden.


Steuerungsmechanismen: So lässt sich Passwort-Sync sicher einschränken

Um den Spagat zwischen Sicherheit und Benutzerfreundlichkeit zu schaffen, stehen zwei zentrale Werkzeuge zur Verfügung:

1. Conditional Access in Microsoft Entra ID

Mit Conditional Access lässt sich präzise steuern, unter welchen Bedingungen ein Nutzer Daten synchronisieren oder sich überhaupt anmelden darf.
Beispielsweise kann eine Richtlinie definiert werden, die das „Edge Sync“-App-Objekt in Entra ID einbindet und die Synchronisation nur dann erlaubt, wenn das Gerät compliant oder hybrid Azure AD-joined ist.

Das bedeutet:

  • Unternehmens-Konten können sich nur dann mit Edge synchronisieren, wenn das Gerät verwaltet wird.
  • BYOD-Geräte (Bring Your Own Device), die nicht compliant sind, werden automatisch ausgeschlossen.

Das sorgt für eine klare Trennung zwischen verwalteter Unternehmensumgebung und privater Nutzung.


2. Microsoft Edge Management Service

Das Edge Management Service ist eine relativ neue Möglichkeit, Browser-Richtlinien cloudbasiert zu verteilen – auch auf nicht verwalteten Windows-Geräten.
Damit lassen sich beispielsweise folgende Richtlinien umsetzen:

  • Deaktivieren des Passwort-Managers
  • Einschränken oder Zulassen bestimmter Erweiterungen
  • Blockieren der Synchronisation für bestimmte Kontotypen

Gerade für Unternehmen, die BYOD zulassen oder flexible Arbeitsumgebungen fördern, ist das ein sehr wirksamer Ansatz.
Einziger Nachteil: Die Unterstützung für macOS und mobile Plattformen ist aktuell noch eingeschränkt.


Kombination bringt den größten Effekt

In der Praxis hat sich gezeigt, dass keine dieser Maßnahmen allein ausreicht. Erst die Kombination aus Conditional Access und Edge Management Policies bietet den notwendigen Schutz:

  • Conditional Access stellt sicher, dass nur compliant Geräte Zugriff haben.
  • Edge-Richtlinien verhindern, dass selbst auf zulässigen Geräten unnötige Risiken durch Passwort- oder Sync-Funktionen entstehen.

Dieses zweistufige Modell schafft eine klare Sicherheitsarchitektur, ohne den Anwender unnötig einzuschränken.


Mein Fazit aus der Beratungspraxis

Die Balance zwischen Kontrolle und Komfort ist kein theoretisches Problem – sie entscheidet im Alltag, ob ein Unternehmen wirklich sicher arbeitet.
Die Passwort-Synchronisation in Microsoft Edge ist eine wertvolle Funktion, aber sie gehört nicht unkontrolliert in Unternehmensumgebungen.

Ich empfehle daher:

  1. Edge-Passwort-Manager konsequent deaktivieren (Hardening).
  2. Conditional Access-Richtlinien einrichten, um den Zugriff auf den Sync-Dienst nur für verwaltete Geräte zuzulassen.
  3. Edge Management Policies einsetzen, um Richtlinien auch auf BYOD-Geräten durchzusetzen.
  4. Mitarbeitende aktiv sensibilisieren, warum Passwort-Manager im Browser ein Sicherheitsrisiko darstellen können.

Adopting a Zero Trust Architecture – Nutzen, Risiken und die Rolle von Data Tiering

In der heutigen Bedrohungslandschaft kann sich keine Organisation mehr leisten, auf Vertrauen zu bauen. Der Ansatz der „Zero Trust Architecture“ (ZTA) ist längst kein Trendthema mehr, sondern eine strategische Notwendigkeit. Zero Trust basiert auf dem Grundsatz „Vertraue niemandem, überprüfe alles“ und ersetzt das veraltete Sicherheitsmodell, bei dem interne Akteure automatisch als vertrauenswürdig galten.

Dieser Artikel beleuchtet, warum der Zero-Trust-Ansatz so entscheidend ist, welche Vorteile und Risiken damit verbunden sind und welche zentrale Rolle die Datenklassifizierung – auch bekannt als Data Tiering – bei der erfolgreichen Umsetzung spielt.

Was ist Zero Trust?

Zero Trust ist kein Produkt, sondern ein umfassendes Sicherheitskonzept. Im Kern geht es darum, jedem Zugriff – egal ob von innen oder außen – grundsätzlich zu misstrauen. Jeder Nutzer, jedes Gerät und jede Verbindung wird kontinuierlich überprüft.

Wichtige Prinzipien sind:

  • Assume Breach: Es wird davon ausgegangen, dass ein Angriff bereits stattgefunden hat – dadurch wird jedes System grundsätzlich hinterfragt.
  • Least Privilege: Nutzer und Anwendungen erhalten nur die minimal notwendigen Berechtigungen.
  • Kontinuierliche Verifikation: Zugriffe werden nicht einmalig, sondern dauerhaft überprüft – abhängig von Kontext, Gerät, Standort und Verhalten.
  • Mikrosegmentierung: Netzwerke und Systeme werden in kleine Sicherheitszonen unterteilt, um Angriffe einzudämmen.
  • Transparenz und Überwachung: Sämtliche Aktivitäten werden protokolliert, analysiert und auf Anomalien geprüft.

Zero Trust bricht damit das alte Modell der „sicheren Perimeter“ auf – in einer Zeit, in der Daten, Geräte und Mitarbeiter zunehmend dezentral agieren, ist das unverzichtbar.


Vorteile einer Zero Trust Architektur

Die Einführung von Zero Trust bringt zahlreiche Vorteile – sowohl in technischer als auch in organisatorischer Hinsicht:

  • Erhöhte Sicherheit: Durch kontinuierliche Überprüfung und restriktive Zugriffsrechte sinkt das Risiko erfolgreicher Angriffe erheblich.
  • Bessere Sichtbarkeit: IT-Teams erhalten volle Transparenz darüber, wer wann auf welche Ressourcen zugreift. Das erleichtert die Früherkennung von Bedrohungen.
  • Reduziertes Insider-Risiko: Selbst interne Benutzer müssen sich regelmäßig authentifizieren. Dadurch werden kompromittierte Konten weniger gefährlich.
  • Compliance und Datenschutz: Der Schutz sensibler Daten wird gezielter gesteuert – wichtig für regulatorische Anforderungen und Vertrauen bei Kunden.
  • Flexibilität für moderne Arbeitsformen: Ob Remote Work, Cloud oder BYOD – Zero Trust erlaubt sicheren Zugriff unabhängig vom Standort.

Kurz gesagt: Zero Trust stärkt die Sicherheit, erhöht die Kontrolle und ermöglicht gleichzeitig moderne, agile Arbeitsweisen.


Risiken und Herausforderungen

Die Umsetzung einer Zero Trust Architektur ist anspruchsvoll und bringt eigene Herausforderungen mit sich:

  • Hohe Komplexität: Bestehende Systeme, Rollen und Zugriffsmodelle müssen neu bewertet und oft umgestaltet werden.
  • Benutzerakzeptanz: Häufige Authentifizierungen oder Sicherheitsprüfungen können Mitarbeitende frustrieren, wenn sie schlecht umgesetzt sind.
  • Ressourcenbedarf: Die Einführung erfordert neue Tools, Fachwissen und Zeit – insbesondere für kontinuierliches Monitoring und Regelpflege.
  • Fehlalarme: Zu strenge Richtlinien können legitime Aktionen blockieren und Geschäftsprozesse stören.
  • Kulturelle Umstellung: Zero Trust ist kein „Tool“, sondern ein Mindset – Unternehmen müssen lernen, Sicherheit als fortlaufenden Prozess zu verstehen.

Diese Hürden lassen sich durch klare Kommunikation, iterative Umsetzung und gezieltes Change Management deutlich reduzieren.


Häufige Missverständnisse

Bei der Einführung von Zero Trust begegnet man oft falschen Annahmen:

  • „Zero Trust ist ein Produkt.“ Falsch – es ist eine Strategie, die mehrere Technologien integriert.
  • „Es geht nur um Identität.“ Nicht nur – Geräte, Netzwerke und Daten spielen eine ebenso wichtige Rolle.
  • „Zero Trust ist zu kompliziert.“ Mit einem schrittweisen Ansatz kann es schmerzfrei und effektiv eingeführt werden.
  • „Das bedeutet, wir vertrauen unseren Mitarbeitern nicht.“ Nein – das Vertrauen gilt Personen, nicht Systemzugriffen. Sicherheit soll schützen, nicht misstrauen.
  • „Zero Trust löst alle Sicherheitsprobleme.“ Es ist ein mächtiger Ansatz, aber kein Allheilmittel. Schulung, Monitoring und Incident Response bleiben unverzichtbar.

Die Rolle von Data Tiering

Ein entscheidender Erfolgsfaktor für Zero Trust ist das Verständnis der eigenen Daten. Genau hier setzt Data Tiering – also die Klassifizierung von Informationen – an.

Datenklassifizierung teilt Informationen nach Sensitivität und Wert in Kategorien ein, beispielsweise „Öffentlich“, „Intern“, „Vertraulich“ oder „Streng vertraulich“.

Das ermöglicht:

  • Gezielten Schutz: Besonders sensible Daten erhalten stärkere Sicherheitsmaßnahmen.
  • Präzise Zugriffskontrolle: Nur berechtigte Personen können auf bestimmte Daten zugreifen – abhängig von Klassifikation und Kontext.
  • Vermeidung von Datenlecks: Automatische Schutzmechanismen können verhindern, dass vertrauliche Daten versehentlich geteilt werden.
  • Effizientere Governance: Unternehmen wissen, wo ihre kritischen Daten liegen, wie lange sie aufbewahrt werden und wer sie nutzt.

Ohne klare Datenklassifizierung bleibt Zero Trust unvollständig – denn man kann nur schützen, was man kennt.


Bedeutung für Cloud- und KI-Strategien

Data Tiering ist nicht nur ein Sicherheitsinstrument, sondern auch eine Grundlage für Innovation:

  • Cloud-Migration: Klassifizierung hilft zu entscheiden, welche Daten sicher in die Cloud verschoben werden können und welche besondere Schutzanforderungen haben.
  • Compliance in der Cloud: Daten lassen sich gezielt in bestimmten Regionen oder mit bestimmten Verschlüsselungsniveaus speichern.
  • Kosteneffizienz: Weniger sensible oder selten genutzte Daten können in günstigere Speicherklassen ausgelagert werden.
  • KI und maschinelles Lernen: Nur geeignete, nicht vertrauliche Datensätze werden für das Training genutzt – was Datenschutz und Qualität verbessert.

So entsteht eine Balance zwischen Innovation und Sicherheit.


Fazit

Zero Trust ist kein Modewort, sondern ein langfristiger Paradigmenwechsel in der IT-Sicherheit. Der Ansatz stärkt Organisationen gegen moderne Bedrohungen und schafft gleichzeitig die Basis für sichere digitale Transformation.

Doch Zero Trust funktioniert nur, wenn Unternehmen ihre Daten kennen und verstehen. Data Tiering liefert diese Grundlage – es verbindet Sicherheit, Compliance und Effizienz.

Wer Zero Trust mit konsequenter Datenklassifizierung kombiniert, schafft nicht nur Schutz, sondern auch Vertrauen und Agilität. Es ist der Weg zu einer sicheren, modernen und zukunftsfähigen IT-Architektur.

Versteckte bösartige OAuth-Apps in Microsoft 365 entdecken – mit dem Tool Cazadora

Die Nutzung von Cloud- und Identitätsdiensten wie Microsoft 365 nimmt ständig zu – damit steigt auch das Risiko neuer Angriffswege. Ein besonders heimtückischer Ansatz: Angreifer nutzen OAuth-Apps, die in Azure/Entra ID registriert wurden, um Zugriffe auf Daten zu erlangen – oft ohne dass es die Administratoren oder Nutzer merken. In einem aktuellen Blogbeitrag erklärt Huntress Labs, wie solche Apps funktionieren, wie häufig sie auftreten – und stellt mit Cazadora ein Open-Source-Skript vor, mit dem sich verdächtige Anwendungen aufspüren lassen. BleepingComputer
Als IT-Consultant lohnt es sich, dieses Thema im Blick zu behalten, denn selbst gut verwaltete Microsoft-365-Tenants sind nicht immun.

Was sind OAuth Apps in Azure/Entra ID – und warum sind sie relevant?

In der Welt von Azure AD / Entra ID und Microsoft 365 gibt es zwei zentrale Kategorien von Apps:

  • Application Registrations: Anwendungen, die innerhalb des eigenen Tenants entwickelt oder registriert wurden. BleepingComputer+1
  • Enterprise Applications: Instanzen von Anwendungen, die von anderen Tenants registriert wurden, aber in Ihrer Tenant-Umgebung verwendet werden. BleepingComputer

Der typische Ablauf sieht so aus: Ein Benutzer oder Administrator erlaubt einer App, sich mit ihrem Konto (Authentifizierung) zu verbinden und über OAuth entsprechende Rechte (Autorisierung) zu erteilen. Sobald das geschehen ist, wird in Ihrem Tenant ein Service-Principal für diese App angelegt, über den die App im Namen der Nutzer agieren kann. BleepingComputer

Warum ergeben sich daraus Risiken?

  • Die Funktionalität ist legitim und zentraler Bestandteil moderner Cloudanwendungen – das macht sie attraktiv für Angreifer, da sie wenig auffällig ist. BleepingComputer+1
  • Manche Einstellungen erlauben es, dass jeder Nutzer ohne Überprüfung Apps registrieren bzw. ihnen Rechte geben kann – je nach Tenant-Konfiguration. BleepingComputer
  • Eine bösartige oder kompromittierte App kann somit Zugriff auf sensible Daten erlangen, ohne dass klassische Malware- oder Endpoint-Kontrollen sie zwingend aufdecken.

Angriffstypen: „Traitorware“ und „Stealthware“

Huntress unterscheidet zwei relevante Kategorien von missbräuchlichen OAuth-Apps:

Traitorware

Hierbei handelt es sich um eigentlich legitime Apps oder weit verbreitete Tools, die allerdings von Angreifern für bösartige Zwecke genutzt werden. Die App selbst ist nicht zwangsläufig bösartig designt, aber ihre Nutzung erscheint ungewöhnlich und riskant.

  • Huntress fand z. B., dass ca. 10 % der ausgewerteten Tenants mindestens eine solche App installiert hatten. BleepingComputer
  • Merkmale: bekannte App-Namen, aber oft ungewöhnliche Berechtigungen oder eine ungewöhnliche Nutzerzuordnung.

Stealthware

Diese Kategorie umfasst echt bösartige oder speziell für Angriffe erstellte OAuth-Apps – klein, maßgeschneidert, selten und damit schwer zu entdecken.

  • Sie haben oft sehr geringe Verbreitung (z. B. < 1 % aller Tenants) und hohe Delegated-Berechtigungen auf einzelne Nutzer. BleepingComputer
  • Da die Namen willkürlich oder unerkennbar sind („…………“, „Test App“, Domain-Name etc.), entziehen sie sich oft automatisierten Erkennungsmechanismen.

Warum sollte man auditieren?

Die Daten zeigen: Selbst bei Organisationen mit etabliertem Sicherheits­rahmen tauchen solche Apps auf – teilweise seit Jahren unentdeckt. BleepingComputer
Ein (zu) beruhigender Befund: Wenn eine App nicht automatisch gefunden wird, heißt das noch nicht, dass keine bösartige App vorhanden ist. Vigilanz bleibt erforderlich.


Vorstellung von Cazadora

Um Administratoren und Sicherheitsverantwortlichen zu helfen, hat Huntress das Werkzeug Cazadora veröffentlicht. BleepingComputer

Was macht Cazadora?

  • Es handelt sich um ein Open-Source-Skript, das über die Microsoft Graph API Daten über alle Application Registrations und Enterprise Applications im Tenant abruft. BleepingComputer
  • Es führt eine automatisierte Analyse durch und markiert Applikationen mit auffälligen Merkmalen (z. B. ungewöhnlicher Name, seltene Verbreitung, starke Berechtigungen, Loopback-Reply-URL etc.). BleepingComputer
  • Ziel ist nicht, alle bösen Apps sicher aufzuspüren, sondern einen schnellen Überblick zu geben und potenzielle „Rauchzeichen“ sichtbar zu machen.

Wichtige Hinweise

  • Kein Tool ersetzt eine vollständige manuelle Prüfung oder eine laufende Sicherheitsüberwachung – Cazadora ist ein Sprungbrett, keine Garantie. BleepingComputer
  • Ergebnisse sollten von einem Administrator oder Sicherheitsanalysten bewertet werden.
  • Anpassungen im Tenant (z. B. Benutzerrechte bei App-Registrierung) können helfen, den Angriffs­raum zu reduzieren.

Cookie Consent mit Real Cookie Banner