Le monde de la cybersécurité est actuellement en pleine mutation. L’intelligence artificielle (IA) est au cœur de ce changement et peut permettre aux organisations de déjouer les cyberattaques à plus grande vitesse, de répondre à la pénurie de talents en cybersécurité et de favoriser l’innovation et l’efficacité dans ce domaine. Cependant, les cyberattaquants peuvent également utiliser l’IA dans le cadre de leurs actes malveillants, il n’a donc jamais été aussi crucial de sécuriser notre monde en utilisant l’IA et de sécuriser l’IA elle-même.
Nous avons publié la sixième édition de Cyber Signals, qui dévoile la manière dont nous protégeons les plateformes d’intelligence artificielle contre les menaces émergentes liées aux acteurs malveillants soutenus par des États-nations.
En collaboration avec OpenAI, nous partageons des informations sur les acteurs malveillants affiliés à des États et repérés par Microsoft sous les noms de Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon et Salmon Typhoon, qui ont cherché à utiliser de grands modèles de langage (LLM) pour renforcer leurs attaques en cours. Cette recherche expose les premières techniques utilisées par ces acteurs bien connus, et montre comment nous avons bloqué leur activité pour protéger les plateformes
Nous dévoilons également les principes qui guident les actions de Microsoft pour réduire les risques liés aux cyberattaques avancées et répétées provenant de ces États-nations, aux tentatives de manipulations avancées et aux groupes cybercriminels utilisant des plateformes. Ces principes comprennent l’identification et la lutte contre les usages de ces auteurs malveillants, le signalement aux autres fournisseurs de services d’IA, la collaboration avec d’autres parties prenantes et la transparence.
En outre, Microsoft aide la communauté de la cybersécurité au sens large à comprendre et à détecter les menaces émergentes que peuvent représenter les LLM dans les cyberattaques. Nous continuons à travailler avec le MITRE pour intégrer ces tactiques, techniques et procédures (TTP) sur les LLM dans le cadre du MITRE ATT&CK® ou la base de connaissances MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems). Cette expansion stratégique démontre notre engagement non seulement à neutraliser les menaces, mais aussi à être pionnier dans le développement de contre-mesures dans le paysage en constante évolution des cyberopérations alimentées par l’IA.
Cette édition de Cyber Signals donne un aperçu sur la manière dont les acteurs malveillants utilisent l’IA pour affiner leurs attaques et la manière dont nous utilisons l’IA pour protéger Microsoft.
Les cybercriminels et les acteurs soutenus par des États explorent l’IA, y compris les LLM, pour améliorer leur efficacité et tirer parti de plates-formes susceptibles de servir leurs objectifs et leurs techniques d’attaque. Bien que les motivations et la sophistication des acteurs malveillants soient différentes, ils opèrent de la même manière lorsqu’ils déploient des attaques. Ils procèdent notamment à une reconnaissance, comme la recherche des industries, des emplacements et des relations des victimes potentielles ; ils ont recours au code, de façon à améliorer des scripts logiciels et à développer des logiciels malveillants ; et ils recherchent de l’aide dans l’apprentissage et l’utilisation des langages humains et des langages de programmation. Nos recherches avec OpenAI n’ont pas permis d’identifier d’attaques significatives utilisant les LLM, mais nous continuons à les surveiller de près.
Microsoft utilise plusieurs méthodes pour se protéger contre ces types de cybermenaces, notamment :
- La détection des menaces par l’IA pour repérer les changements dans l’utilisation des ressources ou du trafic sur le réseau ;
- L’analyse comportementale pour détecter les connexions à risque et les comportements anormaux ;
- le Machine Learning pour détecter les connexions à risque et les logiciels malveillants ;
- Le Zero Trust, un modèle de cybersécurité, dans lequel chaque demande d’accès doit être entièrement authentifiée, autorisée et chiffrée ;
- La vérification de l’état des appareils avant qu’ils ne puissent se connecter au réseau de l’entreprise.
En outre, l’IA générative a un potentiel incroyable pour aider tous les acteurs qui souhaitent protéger leurs organisations de manière plus rapide. Le rôle de l’IA dans la cybersécurité est multiple et favorise l’innovation et l’efficacité dans différents domaines. Qu’il s’agisse d’améliorer la détection des menaces ou de rationaliser la réponse aux incidents, les capacités de l’IA remodèlent la cybersécurité. L’utilisation des LLM dans la cybersécurité témoigne du potentiel de l’IA. Ces modèles, capables d’analyser de grandes quantités de données pour détecter les tendances des cybermenaces, fournissent un contexte précieux aux renseignements sur les menaces. Ils contribuent à des tâches techniques telles que la rétro-ingénierie et l’analyse des logiciels malveillants, offrant ainsi une nouvelle couche de défense contre les cyberattaques. Par exemple, les utilisateurs de Microsoft Copilot for Security ont constaté une augmentation de 44 % de la précision sur l’ensemble des tâches et un taux d’achèvement plus rapide de 26 %. Ces chiffres mettent en évidence les bénéfices tangibles de l’intégration de l’IA dans les pratiques de cybersécurité.
Alors que nous travaillons à sécuriser l’avenir de l’IA, nous devons reconnaître la double nature de cette technologie : elle apporte de nouvelles possibilités, mais aussi de nouveaux risques. L’IA n’est pas seulement un outil, mais un changement de paradigme en matière de cybersécurité. Elle nous permet de nous défendre contre les cybermenaces sophistiquées et de nous adapter au paysage mouvant des menaces.
Pour en savoir plus, consultez la sixième édition de Cyber Signals.
© 2024 The MITRE Corporation. Ce travail est reproduit et distribué avec l’autorisation de The MITRE Corporation.