IA de confiance Microsoft : miser sur la confiance pour révéler le potentiel humain

Par Takeshi Numoto, vice-président directeur et directeur du marketing

Devant la progression constante de l’intelligence artificielle, nous avons tous un rôle à jouer pour en maximiser l’impact positif pour les organisations et les collectivités du monde entier. C’est pourquoi Microsoft aide ses clients à bâtir et à utiliser une IA digne de confiance, soit une solution à la fois sécuritaire, sûre et confidentielle.

Microsoft est pleinement engagée envers le développement d’une intelligence artificielle de confiance et pour ce faire, nous bâtissons une technologie de soutien à la fine pointe de l’industrie. Nous arrimons nos capacités à nos engagements pour nous assurer que nos clients et nos développeurs sont toujours adéquatement protégés.

Fidèles à nos engagements, nous annonçons aujourd’hui de nouvelles capacités visant à rehausser la sécurité, la sûreté et la confidentialité de nos systèmes d’IA.

Sécurité. La sécurité est la priorité absolue de Microsoft. Notre Initiative pour un avenir sûr (Secure Future Initiative, ou SFI) élargie présente les engagements pris à l’échelle de l’entreprise et notre responsabilité envers la protection de nos clients. Cette semaine, nous avons annoncé la parution de notre premier rapport d’avancement de l’IAS, qui fait état de nos réalisations dans les domaines de la culture, de la gouvernance, de la technologie et des opérations. Remplissant notre promesse de toujours placer la sécurité à l’avant-plan, ces progrès sont guidés par trois principes : la sécurisation par conception, la sécurisation par défaut et la sécurisation des opérations. En plus de nos produits et services de première partie Microsoft Defender et Purview, nous proposons des services d’IA dotés de contrôles de sécurité fondamentaux, tels que des fonctions intégrées permettant d’éviter les infiltrations de requête et les violations de droits d’auteur. Nous annonçons aujourd’hui l’ajout de deux nouvelles fonctionnalités à notre offre existante :

  • La fonction d’évaluation dans Azure AI Studio, qui permet une mesure proactive du risque;et
  • La transparence des requêtes web dans Microsoft 365 Copilot, qui aidera les administrateurs et les utilisateurs à mieux comprendre l’incidence de leurs recherches sur la réponse de Copilot (offerte sous peu).

Nos capacités de sécurité ont déjà été adoptées par les consommateurs. Cummins, un fabricant de moteurs fondé il y a 105 ans et réputé pour ses technologies d’énergies propres, s’est tourné vers Microsoft Purview pour consolider la sécurité de ses données et soutenir sa direction en automatisant la classification, le marquage et l’étiquetage des données. EPAM Systems, une société d’ingénierie logicielle et de conseil aux entreprises, a pour sa part déployé Microsoft 365 Copilot pour 300 de ses utilisateurs en raison de la protection des données supérieure offerte par Microsoft. « Nous avions beaucoup plus confiance envers Copilot pour Microsoft 365 qu’envers d’autres grands modèles de langage, parce que nous savions que les politiques de protection de l’information et des données que nous avions configurées dans Microsoft Purview s’étendent à Copilot », a expliqué J.T. Sodano, directeur principal des technologies de l’information d’EPAM Systems.

Sûreté. Abordant à la fois les enjeux de sécurité et de respect de la vie privée, les principes d’IA responsable élargis de Microsoft, énoncés en 2018, continuent de guider notre approche au développement et au déploiement sécuritaires de l’IA à l’échelle de l’entreprise. En pratique, ces principes visent la conception, la mise à l’essai et le suivi adéquats des systèmes pour éviter les comportements indésirables, notamment les contenus préjudiciables, les biais, les mauvais usages et autres risques involontaires. Au fil du temps, nous avons investi massivement dans l’élaboration des structures de gouvernance, des politiques, des outils et des procédés nécessaires au respect de ces principes, et à la création et au déploiement sécuritaires de l’IA. Microsoft s’engage à transmettre à ses clients les connaissances relatives à son engagement envers les principes d’IA responsable. Nous mettons nos pratiques exemplaires et nos apprentissages à profit pour proposer aux particuliers et aux organisations les capacités et les outils nécessaires pour bâtir des applications d’IA fondées sur les normes élevées auxquelles nous aspirons.

Aujourd’hui, nous proposons de nouvelles capacités pour aider nos clients à profiter des avantages de l’IA tout en atténuant ses risques inhérents :

  • Une fonction de correction intégrée à l’API de détection du fondement de Microsoft Azure, qui contribue à corriger les problèmes d’hallucination en temps réel avant que l’utilisateur ne les constate.
  • Une fonction de sécurité du contenu intégré, qui permet aux clients d’installer Azure AI Sécurité du contenu sur leurs appareils. Cette solution est particulièrement pertinente pour les situations où la connectivité au nuage pourrait être intermittente ou indisponible.
  • De nouvelles options d’évaluation dans Azure AI Studio, qui aident les clients à évaluer la qualité et la pertinence du contenu produit par l’IA, notamment en mesurant la fréquence de production de contenus protégés.
  • Une fonction de détection du matériel protégé dans le code, maintenant offerte en préversion dans Azure AI Sécurité du contenu, qui permet de détecter la présence de contenus et de codes préexistants. En aidant les développeurs à explorer le code source public sur les référentiels GitHub, cette fonction alimente une culture de collaboration et de transparence, et facilite la prise de décisions de codage plus éclairées.

Nous sommes enchantés de constater que nos clients issus d’un éventail d’industrie utilisent déjà les solutions Microsoft pour bâtir des applications d’IA plus sécuritaires et plus fiables. Par exemple, Unity, une plateforme de jeux vidéo 3D, a misé sur Microsoft Azure OpenAI Service pour développer Muse Chat, un assistant IA qui facilite la conception de jeux vidéo. Muse Chat utilise les modèles de filtrage de contenu d’Azure AI Sécurité du contenu pour encadrer l’utilisation responsable du logiciel. De même, ASOS, un détaillant de mode britannique représentant près de 900 marques partenaires, a également fait appel aux filtres de contenu intégrés à Azure AI Sécurité du contenu pour générer des interactions de qualité sur son appli de stylisme propulsée par l’IA.

Nous constatons l’impact de nos solutions d’IA jusque dans le secteur de l’éducation. En effet, New York City Public Schools a fait équipe avec Microsoft pour mettre sur pied un système de clavardage sécuritaire et adapté au cadre éducatif, qui est actuellement mis à l’essai dans les écoles publiques de l’État. Le South Australia Department for Education a également fait entrer l’IA générative en classe grâce à EdChat, une solution de clavardage basée sur la même infrastructure pour assurer son utilisation sécuritaire par les élèves et les enseignants.

Confidentialité. Les données sont la pierre d’assise de l’IA, et la priorité de Microsoft est de veiller à ce que les données de ses clients soient toujours protégées et conformes. Pour ce faire, nous nous sommes dotés de principes de confidentialité, qui régissent le contrôle de l’utilisateur, la transparence, et les protections légales et réglementaires. Pour continuer de promouvoir la confidentialité, nous annonçons aujourd’hui :

  • L’inférence confidentielle, offerte en préversion dans le modèle Whisper d’Azure OpenAI Service. Cette solution permet aux clients de concevoir des applications d’IA générative qui permettent une confidentialité vérifiable de bout en bout. L’inférence confidentielle veille à la sécurité et à la confidentialité des données sensibles des clients pendant le processus d’inférence, soit lorsqu’un modèle d’IA formé fait des prédictions ou prend des décisions sur la base de nouvelles données. Elle est particulièrement importante dans les industries hautement réglementées, telles que les soins de santé, les services financiers, le commerce de détail, la fabrication et la production énergétique.
  • La disponibilité générale de machines virtuelles confidentielles dotées de cœurs NVIDIA H100 Tensor sur Azure, qui permettent aux clients de sécuriser leurs données directement sur le processeur graphique. Cette nouveauté s’ajoute à nos solutions informatiques confidentielles, qui assurent que les données des clients demeurent chiffrées et protégées dans un environnement sécuritaire, pour que personne ne puisse accéder à l’information ou au système sans permission préalable.
  • Des zones de données dans Azure OpenAI, offertes prochainement dans l’Union européenne et aux États-Unis. Cette fonctionnalité s’inspire de la résidence des données d’Azure OpenAI Service pour faciliter le traitement et le stockage des données comprises aux applications d’IA générative. Cette nouvelle fonctionnalité permet aux clients de profiter de toute la flexibilité des applications d’IA générative dans l’ensemble des régions couvertes par Azure, tout en leur donnant le plein contrôle du traitement et du stockage de leurs données dans l’Union européenne ou aux États-Unis.

Nous observons actuellement un intérêt croissant envers l’informatique confidentielle et un engouement marqué pour les processeurs graphiques confidentiels. Par exemple, F5, un fournisseur d’applications de sécurité, utilise les machines virtuelles confidentielles dotées de cœurs NVIDIA H100 d’Azure pour bâtir des solutions de sécurité évoluées propulsées par l’IA, tout en assurant la confidentialité des données analysées par ses modèles. De même, la Banque Royale du Canada (RBC), une institution financière multinationale, a intégré l’informatique confidentielle d’Azure à sa propre plateforme afin d’analyser des données chiffrées tout en protégeant la confidentialité de ses clients. Grâce à l’accessibilité générale des machines virtuelles confidentielles dotées de cœurs NVIDIA H100 d’Azure, RBC est désormais en mesure d’utiliser ces outils d’IA évolués pour accroître son efficacité et concevoir des modèles d’IA plus puissants.

Faites-en davantage grâce à une IA de confiance

Nous souhaitons tous pouvoir avoir confiance en l’IA. Son utilisation fiable et sécuritaire ouvre un monde de possibilités, que ce soit pour enrichir l’expérience des employés, faire évoluer les procédés commerciaux, stimuler l’engagement des clients ou repenser notre quotidien. En proposant de nouvelles capacités qui améliorent la sécurité, la sûreté et la confidentialité, nous aidons nos clients à concevoir et à utiliser des solutions d’IA dignes de confiance, qui permettent aux particuliers et aux organisations du monde entier à en faire davantage. Ultimement, l’IA de confiance est centrale à la mission de Microsoft : elle nous permet de créer de nouvelles opportunités, de gagner la confiance du public, de protéger les droits fondamentaux et de promouvoir la durabilité dans tout ce que nous faisons.

Ressources connexes :

Engagements

Capacités

Related Posts