Billet de blog initialement publié en anglais par Takeshi Numoto, Executive Vice President et Chief Marketing Officer
Avec les progrès réalisés par l’IA, nous avons tous un rôle à jouer pour concrétiser l’impact positif de l’IA sur les organisations et les individus à travers le monde. C’est la raison qui nous pousse, chez Microsoft, à accompagner nos clients dans leur utilisation et la conception d’une IA de confiance, c’est-à-dire une IA sécurisée, sûre et respectueuse de la confidentialité des données.
Chez Microsoft, nous nous sommes engagés à garantir une IA de confiance et nous mettons au point une technologie de pointe pour y parvenir. Nos engagements et nos moyens se complètent afin de garantir à nos clients et à nos développeurs une protection à tous les niveaux.
Sur la base de nos engagements, nous annonçons aujourd’hui de nouvelles fonctionnalités au seinde nos produits afin de renforcer la sécurité, la sûreté et la confidentialité des systèmes d’IA.
Sécurité
Chez Microsoft, la sécurité est notre priorité absolue. Notre Secure Future Initiative (SFI) souligne les engagements pris à l’échelle de l’entreprise et la responsabilité que nous avons de renforcer la sécurité de nos clients. Cette semaine, nous avons publié notre premier rapport d’avancement sur la SFI, qui met en lumière les progrès réalisés dans les domaines de la culture d’entreprise, de la gouvernance, de la technologie et des opérations. Ce rapport concrétise notre engagement à donner la priorité à la sécurité et s’appuie sur trois principes : la sécurité dès la conception, la sécurité par défaut et la sécurité des opérations. En plus de nos propres offres, Microsoft Defender et Purview, nos services d’IA sont fournis avec des contrôles de sécurité fondamentaux, tels que des fonctions intégrées pour aider à prévenir les injections de prompt et les violations des droits d’auteur. Sur cette base, nous annonçons aujourd’hui deux nouvelles fonctionnalités :
- Evaluations dans Azure AI Studio pour faciliter les analyses proactives des risques.
- Microsoft 365 Copilot apportera désormais plus de transparence dans les requêtes web afin d’aider les administrateurs et les utilisateurs à mieux comprendre comment la recherche web améliore les réponses de Copilot. Cela sera rendu disponible prochainement.
Nos clients utilisent déjà nos solutions de sécurité. Cummins, une entreprise créée il y a 105 ans connue pour la fabrication de moteurs et le développement de technologies d’énergie propre, s’appuie sur Microsoft Purview pour renforcer la sécurité et la gouvernance de ses données en automatisant la classification, l’étiquetage et la labellisation des données. EPAM Systems, une société d’ingénierie informatique et de conseil aux entreprises, a déployé Microsoft 365 Copilot pour 300 utilisateurs. Un choix motivé par la protection des données dont ils bénéficient de la part de Microsoft. J.T. Sodano, Senior Director of IT de l’entreprise, a confié « [qu’ils] étaient beaucoup plus confiants avec Copilot pour Microsoft 365, par rapport à d’autres grands modèles de langage (LLM), car [ils] savaient que les mêmes politiques de protection des informations et des données déjà configurées au sein de Microsoft Purview s’appliquaient à Copilot. »
Sureté
Intégrant à la fois la sécurité et la confidentialité, les principes plus larges de Microsoft en matière d’IA responsable, établis en 2018, continuent de guider la façon dont nous concevons et déployons une IA sûre au sein de l’entreprise. En pratique, cela nécessite de concevoir, tester et contrôler correctement les systèmes pour éviter les comportements indésirables, tels que les contenus nuisibles, les biais, les utilisations abusives et autres risques imprévus. Au fil des années, nous avons réalisé des investissements importants pour mettre en place une structure de gouvernance, des politiques, des outils et des processus nécessaires au respect de ces principes, au développement et au déploiement d’une IA sûre. Chez Microsoft, nous nous engageons à partager avec nos clients les enseignements que nous tirons de notre parcours en matière de respect des principes d’une IA responsable. Nous utilisons nos propres bonnes pratiques et enseignements pour fournir aux individus et aux organisations les moyens et les outils nécessaires afin de concevoir des applications d’IA qui partagent les mêmes normes élevées que celles que nous nous efforçons d’atteindre.
Aujourd’hui, nous présentons de nouvelles solutions pour aider nos clients à profiter des avantages de l’IA tout en limitant les risques :
- Microsoft Azure AI Content Safety à maintenant une capacité de Correction avec une détection de la pertinence qui permet de corriger les problèmes d’hallucination en temps réel avant que les utilisateurs ne les perçoivent.
- Embedded Content Safety, qui permet aux clients d’embarquer Azure AI Content Safety sur les appareils eux-mêmes. Ceci est particulièrement important dans le cas de scénarios embarqués où la connectivité au cloud peut être intermittente ou indisponible.
- De nouvelles évaluations dans Azure AI Studio pour aider les clients à évaluer la qualité et la pertinence des résultats, ainsi que la fréquence à laquelle leur application d’IA génère du contenu protégé.
- Protected Material Detection for Code est désormais disponible en preview dans Azure AI Content Safety pour aider à détecter le contenu et le code préexistants. Cette fonctionnalité aide les développeurs à explorer le code source public dans les dépôts GitHub, favorisant la collaboration et la transparence, tout en permettant de coder de manière plus avisée.
De nombreux clients à travers tous les secteurs d’activité utilisent déjà les solutions Microsoft pour créer des applications d’IA plus sûres et plus fiables. On peut citer l’exemple de Unity, une plateforme de jeux en 3D, qui a utilisé Microsoft Azure OpenAI Service pour créer Muse Chat, un assistant d’IA qui facilite le développement de jeux. Muse Chat utilise des modèles de filtrage de contenu dans Azure AI Content Safety pour garantir une utilisation responsable du programme. En outre, ASOS, un commerçant spécialisé dans le secteur de la mode basé au Royaume-Uni et comptant près de 900 marques partenaires, a utilisé les mêmes filtres de contenu intégrés à Azure AI Content Safety pour assurer des interactions de meilleure qualité au sein d’une application IA qui aide ses clients à se trouver de nouveaux looks.
Les écoles publiques de la ville de New York se sont associées à Microsoft pour développer un système de chat sûr et adapté au contexte éducatif, actuellement en cours d’expérimentation. Le ministère de l’éducation d’Australie-Méridionale a de son côté introduit l’IA générative dans les salles de classe avec EdChat, en s’appuyant sur lui aussi sur l’Azure AI Content Safety pour garantir une utilisation sûre pour les élèves et les enseignants.
Confidentialité
Les données sont la base de l’IA, et la priorité de Microsoft est de s’assurer que les données de nos clients sont protégées et conformes. Cela est rendu possible grâce à nos principes de confidentialité, définis de longue date, qui intègrent le contrôle de l’utilisateur, la transparence et les protections légales et réglementaires. Pour aller plus loin, nous annonçons aujourd’hui :
- L’inférence confidentielle disponible en preview dans notre modèle Azure OpenAI Service Whisper, afin que les clients puissent développer des applications d’IA générative prenant en charge la confidentialité des données vérifiables de bout en bout. L’inférence confidentielle garantit en outre que les données sensibles des clients restent sécurisées et privées pendant le processus d’inférence, c’est-à-dire lorsqu’un modèle d’IA entraîné fait des prédictions ou prend des décisions sur la base de nouvelles données. Ceci est particulièrement important pour les secteurs réglementés, comme la santé, les services financiers, le retail, l’industrie et l’énergie.
- La disponibilité générale des machines virtuelles confidentielles Azure avec les GPU NVIDIA H100 Tensor Core, qui permettent aux clients de sécuriser les données directement sur le GPU. Cela s’appuie sur nos solutions d’informatique confidentielle, qui garantissent que les données des clients restent chiffrées et protégées dans un environnement sécurisé afin que personne ne puisse accéder à l’information ou au système sans autorisation.
- Les Azure OpenAI Data Zones pour l’Union Européenne et les États-Unis seront bientôt disponibles. Elles s’appuient sur la résidence de données actuelle fournie par Azure OpenAI Service en facilitant la gestion du traitement et du stockage des données des applications d’IA générative. Cette nouvelle fonctionnalité offre aux clients la flexibilité de faire évoluer les applications d’IA générative dans toutes les régions Azure d’une même zone géographique, tout en leur donnant le contrôle du traitement et du stockage des données au sein de l’UE ou des États-Unis.
Nous avons constaté un intérêt croissant des clients pour l’informatique confidentielle, de même que pour les GPU confidentiels, notamment de la part du fournisseur de sécurité des applications F5. Celui-ci utilise les machines virtuelles confidentielles Azure avec les GPU NVIDIA H100 Tensor Core pour créer des solutions de sécurité avancées basées sur l’IA, tout en garantissant la confidentialité des données analysées par ses modèles. Enfin, la banque internationale Royal Bank of Canada (RBC) a intégré Azure Confidential Computing à sa propre plateforme afin d’analyser des données chiffrées tout en préservant la confidentialité de ses clients. Avec la disponibilité générale des machines virtuelles confidentielles Azure avec les GPU NVIDIA H100 Tensor Core, RBC peut désormais utiliser ces outils d’IA avancés pour travailler plus efficacement et développer des modèles d’IA plus puissants.
Réaliser ses ambitions grâce à une IA de confiance
Nous avons tous besoin d’une IA en laquelle nous pouvons avoir confiance. Nous avons vu ce qu’il est possible de faire lorsque les gens sont habilités à utiliser l’IA en toute confiance, qu’il s’agisse d’enrichir l’expérience des employés, de remodeler les processus commerciaux, de réinventer l’engagement des clients ou de réimaginer notre vie de tous les jours. Avec de nouvelles capacités qui améliorent la sécurité, la sûreté et la confidentialité, nous continuons de permettre à nos clients d’utiliser et de concevoir des solutions d’IA de confiance. En fin de compte, l’IA de confiance couvre tout ce que nous faisons chez Microsoft ; elle est essentielle à notre mission alors que nous travaillons à élargir les opportunités, à gagner la confiance, à protéger les droits fondamentaux et à réduire notre empreinte environnementale dans tout ce que nous entreprenons.