Die Welt der Cybersicherheit befindet sich in einem massiven Wandel. Künstliche Intelligenz (KI) steht an der Spitze dieses Wandels und hat das Potenzial, Unternehmen zu unterstützen, Cyberangriffe schnell abzuwehren, den Mangel an Fachkräften zu beheben und Innovation und Effizienz in der Cybersicherheit zu fördern. Allerdings können Angreifende KI als Teil ihrer Attacken nutzen, weshalb es noch nie so wichtig war wie jetzt, sowohl unsere Welt mit Hilfe von KI zu sichern als auch unsere Welt vor KI zu sichern.
In der heute erschienenen sechsten Ausgabe der Cyber Signals zeigen wir, wie wir Plattformen für künstliche Intelligenz (KI) vor Bedrohungen durch nationalstaatliche Bedrohungsakteure schützen.
In Zusammenarbeit mit OpenAI geben wir Einblicke in die mit dem Staat verbundenen Bedrohungsakteure, die von Microsoft als „Forest Blizzard“, „Emerald Sleet“, „Crimson Sandstorm“, „Charcoal Typhoon“ und „Salmon Typhoon“ bezeichnet werden. Sie versuchten ihre laufenden Angriffsoperationen mit großen Sprachmodellen (LLMs) zu verstärken. Unsere Untersuchung deckt erste Schritte auf, die wir bei bekannten Bedrohungsakteuren im Bereich der KI beobachten, und zeigt, wie wir ihre Aktivitäten blockiert haben, um KI-Plattformen und Nutzer*innen zu schützen.
Außerdem haben wir die Microsoft-Grundsätze angekündigt, die unser Handeln zur Eindämmung der Risiken von Advanced Persistent Threats (APTs), Advanced Persistent Manipulators (APMs) und Cyberkriminellen Syndikaten, die KI-Plattformen und APIs nutzen, leiten. Zu diesen Grundsätzen gehören die Identifizierung und Bekämpfung bösartiger Bedrohungsakteure, die Benachrichtigung anderer Anbieter von KI-Diensten, die Zusammenarbeit mit anderen Stakeholdern sowie Transparenz.
Zusätzlich hilft Microsoft der Sicherheitsgemeinschaft, die sich abzeichnenden Möglichkeiten von LLMs in Zusammenhang mit Angriffsaktivitäten zu verstehen und zu erkennen. Wir arbeiten weiterhin mit MITRE zusammen, um diese LLM-Taktiken, -Techniken und -Verfahren (TTPs) in das MITRE ATT&CK® -Framework oder die MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems) Datenbank zu integrieren. Mit dieser strategischen Erweiterung wollen wir nicht nur Bedrohungen aufspüren und neutralisieren, sondern auch Pionierarbeit bei der Entwicklung von Gegenmaßnahmen in der sich entwickelnden Landschaft der KI-gestützten Cyberoperationen leisten.
In dieser Ausgabe der Cyber Signals erfahren Sie, wie Bedrohungsakteure KI nutzen, um ihre Angriffe zu präzisieren und wie wir KI zum Schutz von Microsoft einsetzen.
Cyberkriminelle und staatlich geförderte Akteure setzen auf KI, einschließlich LLM, um ihre Effizienz zu steigern und sich Plattformen zunutze zu machen, die ihre Ziele und Angriffstechniken voranbringen. Obwohl die Motive und die Raffinesse der Bedrohungsakteure unterschiedlich sind, haben sie bei der Durchführung von Angriffen gemeinsame Interessen. Dazu gehören die Auskundschaftung, z. B. die Erforschung von Branchen, Standorten und Beziehungen potenzieller Opfer, die Programmierung, einschließlich der Verbesserung von Softwareskripten und der Entwicklung von Malware, sowie die Unterstützung beim Erlernen und bei der Verwendung sowohl menschlicher als auch maschineller Sprachen. Bei unseren Untersuchungen mit OpenAI wurden keine nennenswerten Angriffe festgestellt, bei denen von uns beobachtete LLMs eingesetzt wurden.
Microsoft setzt mehrere Methoden ein, um sich vor derartigen Cyberbedrohungen zu schützen. Dazu gehören:
- KI-gestützte Erkennung von Bedrohungen, um Veränderungen in der Art und Weise zu entdecken, wie Ressourcen oder Datenverkehr im Netzwerk genutzt werden.
- Verhaltensanalysen, um riskante Anmeldungen und anomales Verhalten zu erkennen.
- Modelle des maschinellen Lernens (ML), um riskante Anmeldungen und Malware zu identifizieren.
- Zero Trust, eine Sicherheitsarchitektur, bei der jede Zugriffsanfrage vollständig authentifiziert, autorisiert und verschlüsselt sein muss.
- Überprüfung des Gerätezustands, bevor ein Gerät eine Verbindung zum Unternehmensnetzwerk herstellen kann.
Darüber hinaus hat generative KI das Potenzial, allen Verteidigern dabei zu helfen, ihre Organisationen mit maschineller Geschwindigkeit zu schützen. Die Rolle der KI in der Cybersicherheit ist vielfältig und treibt Innovation und Effizienz in verschiedenen Bereichen voran. Von der verbesserten Erkennung von Bedrohungen bis hin zu optimierten Reaktionen auf Vorfälle – die Fähigkeiten von KI verändern die Cybersicherheit. Der Einsatz von LLMs in der Cybersicherheit ist ein Beweis für das Potenzial von KI. Diese Modelle können, wenn sie sinnvoll eingesetzt werden, riesige Datenmengen analysieren, um Muster und Trends bei Cyber-Bedrohungen aufzudecken und den Bedrohungsdaten zu kontextualisieren. Sie helfen bei technischen Aufgaben wie Reverse Engineering und Malware-Analyse und bieten eine neue Verteidigungsebene gegen Cyberangriffe. Nutzer*innen von Microsoft Copilot for Security beispielweise haben eine 44 Prozent höhere Genauigkeit und eine 26 Prozent schnellere Identifikation von Bedrohungen und Gegenmaßnahmen sowie der Erstellung von Berichten festgestellt. Diese Zahlen verdeutlichen die greifbaren Vorteile der Integration von KI in Cybersicherheitsverfahren.[1]
Wenn wir die Zukunft der KI sichern wollen, müssen wir die beide Seiten der Technologie anerkennen: Sie bringt neue Möglichkeiten, aber auch neue Risiken mit sich. KI ist nicht nur ein Werkzeug, sondern ein Paradigmenwechsel in der Cybersicherheit. Sie ermöglicht uns, uns gegen ausgefeilte Cyberbedrohungen zu verteidigen und uns an die dynamische Bedrohungslandschaft anzupassen. Wenn wir uns KI zu eigen machen, können wir eine sichere Zukunft für alle gewährleisten.
Die neue Ausgabe der Cyber Signals gibt es hier zum Download. Der Blogpost in Originalsprache ist auf dem Microsoft Security Blog zu finden.
Ein Beitrag von Vasu Jakkal
[1] What Can Copilot’s Earliest Users Teach Us About Generative AI at Work? Microsoft. November 15, 2023.