Qui est responsable de l’intelligence artificielle ?

 |   Microsoft Switzerland

Deutsch | English

Une société de plus en plus numérisée est confrontée à des risques qui émergent rapidement, car les décisions prises par les algorithmes et l’intelligence artificielle (IA) jouent un rôle plus important dans la vie quotidienne. Dans un livre blanc, la Zurich Insurance et Microsoft détaillent la notion croissante de risque algorithmique lié à l’IA et suggèrent des moyens pour les gestionnaires de risques et les assurances de le gérer.

Dans un livre blanc récemment publié, intitulé « Artificial Intelligence and Algorithmic Liability – A technology and risk engineering perspective » (à télécharger ici), Zurich Insurance et Microsoft soulignent que libérer la puissance des données et de l’intelligence artificielle crée « des opportunités commerciales infinies pour, au final, améliorer la qualité de nos vies. » Mais ces opportunités, prévient le rapport, s’accompagnent d’un « large éventail de risques englobant non seulement la conformité réglementaire, mais aussi la responsabilité et le risque de réputation si la prise de décision algorithmique déclenche des conséquences involontaires et potentiellement dommageables ».

L’analyse comprend un examen approfondi des cas pertinents dans les domaines de la responsabilité du fait des produits, de l’indemnité professionnelle et de la faute médicale qui peuvent fournir des conseils pour minimiser l’exposition et le préjudice potentiel pour les clients et la réputation d’une organisation.

Qu’est-ce que le risque algorithmique lié à l’IA ?

Le document définit le risque comme résultant de l’utilisation d’algorithmes logiciels basés sur l’analyse de données et les technologies cognitives dans la prise de décision automatisée et semi-automatisée. Si les algorithmes ne fonctionnent pas comme prévu, il peut en résulter des pertes liées à des dommages matériels, des pertes d’exploitation, des dommages corporels, des responsabilités professionnelles, des fautes médicales et des cyber-expositions.

La gestion du risque algorithmique lié à l’IA est particulièrement importante car il existe peu de produits d’assurance qui le couvrent. Selon le rapport, le secteur de l’assurance commence tout juste à comprendre le risque et à élaborer des couvertures qui y répondent, en raison du manque de données sur les sinistres et de modèles permettant d’estimer la fréquence et la gravité des pertes potentielles.

Pourquoi les assureurs et les entreprises technologiques collaborent-ils ?

Dans l’ensemble, les entreprises technologiques et les assureurs peuvent collaborer pour aider à atténuer les risques émergents liés aux algorithmes d’IA dans tous les secteurs. Les assureurs tels que Zurich ont une longue histoire d’encouragement à l’utilisation des meilleures pratiques et de recherche de solutions innovantes à des expositions peu familières, tandis que les entreprises technologiques telles que Microsoft apportent un aperçu de première main des méthodes de pointe pour réduire les risques du développement au déploiement de systèmes complexes. « Microsoft a adopté six principes d’IA responsable pour guider les développements et les opérations technologiques : L’équité, la fiabilité et la securité, la confidentialité, l’inclusion, la transparence et la responsabilité », explique Franziska-Juliette Klebôn, Data & AI Lead chez Microsoft Suisse.

En particulier, la perspective de Microsoft sur l’IA responsable dans les services financiers fournit une liste complète d’outils et de méthodologies pour atténuer les risques liés à l’IA. Cette collaboration intersectorielle peut contribuer à renforcer la confiance du public dans ces systèmes qui font de plus en plus partie de notre vie à tous.