製品担当リーダーの責任ある AI 実現を支援する新たなリソースとツール

マイクロソフト Industry, Apps, and Data Marketing 担当コーポレートバイスプレジデント
アリサ テイラー (Alysa Taylor)

※本ブログは、米国時間 12 月 7 日に公開された “New resources and tools to enable product leaders to implement AI responsibly” の抄訳を基に掲載しています。

AI が私たちの日常生活に深く浸透していく中、人々や社会に役立つような AI の活用方法について、私たち全員が思慮深く、責任ある行動を取ることが求められています。このテクノロジが成熟するにつれ、責任ある AI への信念に基づいたアプローチがあらゆる組織にとって不可欠になるでしょう。テクノロジや製品のリーダーが責任ある AI の応用やツールを検討する際には、自社の組織、製品、市場に最適なアプローチを見極めるといった課題があります。

Azure のイベント 「Put Responsible AI into Practice」において、マイクロソフトとボストンコンサルティンググループ (BCG) が共同で作成した製品担当リーダー向けのガイドラインなど、この取り組みを続けるお客様を支援する新たなリソースやツールを発表します。本ガイドラインは、マイクロソフトによる Responsible AI の原則やプロセスとは別のものですが、同様に製品のライフサイクルを通じた責任ある AI 開発のためのガイダンスを提供することを目的としています。また、データサイエンティストや開発者向けの Responsible AI ダッシュボード、そして、Novartis などのお客様による Responsible AI の実践についても紹介します。

製品担当リーダーが責任を持って AI を導入するための 10 のガイドラインのご紹介

大多数の人々が責任ある AI の重要性を認める一方、多くの企業が、理念と具体的行動との間にあるギャップ、言わば「Responsible AI Gap」をどのように越えればよいかわからないでいます。実際、多くの企業が責任ある AI における自社の成熟度を過大評価しています。その理由の一つとして、原則を実践する方法が明確でないことが挙げられます。

このニーズに対応するため、マイクロソフトは、BCG と提携して「製品担当リーダーが責任を持って AI を導入するための 10 のガイドライン」を策定しました。本ガイドラインは、製品開発チームが組織内で責任ある AI システムを評価、設計、検証する際に、技術リーダーが明確で実行可能なガイダンスを提供できるようにするため新たなリソースです。

BCG GAMMA のチーフ AI Ethics オフィサー スティーブ ミルズ (Steve Mills) 氏は次のように述べています。「倫理的な AI の原則は必要条件ですが、十分条件ではありません。企業はさらに一歩進んで、AI 製品の設計や製造方法に具体的な変化をもたらす必要があります。マイクロソフトと共同で作成したこのガイドラインは、製品担当リーダーがチームを責任ある開発に導き、積極的にリスクや脅威を特定し、それを軽減することを目的にしています。

10 のガイドラインは、以下の 3 つのフェーズに分類されています。

  1. 評価と準備: 製品の利点、テクノロジ、潜在的リスク、チームを評価する。
  2. 設計、開発、文書化: 影響度、独自の考慮点、文書化活動をレビューする。
  3. 検証とサポート: 製品が意図したとおりに動作することを確認するためのテスト手順とサポートを選択する。

この新たなリソースにより、業界を問わず、より多くの企業が責任ある AI を自社の組織で採用していくようになることを期待しています。

データサイエンティストと開発者に向けた Responsible AI ダッシュボードの提供を開始

公平性や透明性などの倫理原則を AI システム内で実現することは、AI を大規模に適用する上での最大のハードルの 1 つです。これが、マイクロソフトのエンジニアリングチームが、Azure Machine Learning などの Azure AI サービスに責任ある AI 機能を組み込んでいる理由です。これらの機能は、公平性、プライバシー、セキュリティなどの責任ある AI の優先事項を考慮した AI システムを構築できるよう企業を支援するために設計されています。

本日、マイクロソフトは、データサイエンティストや開発者が AI データやモデルをより容易に理解し、保護し、コントロールできるよう支援することを目的とした Responsible AI (RAI) ダッシュボードを発表します。このダッシュボードには、解釈可能性、エラー分析、反実仮想、統計的因果推論といった、責任ある AI 関連機能が搭載されています。オープンソースとして一般公開され、Azure Machine Learning 上で稼働する RAI ダッシュボードは、責任ある AI に関連した主要ツールを単一のワークフローとビジュアルキャンバス上にまとめ、エラーの特定、診断、軽減を容易にします。

図 1: Responsible AI ダッシュボード
図 1: Responsible AI ダッシュボード

責任ある AI の実現に向けて

すでに、さまざまな業界の企業が、Responsible AI ダッシュボードの一部となっている数多くの Responsible AI 関連ツールを含め、Azure の AI 機能を使用しています。

その一例として、医薬品専業のリーディングカンパニーである Novartis は、今年初めに自社の AI の倫理的利用に関する 8 つの原則を発表しました。同社では、すでに社員のワークフローに AI を組み込んでおり、バリューチェーン全体で日常業務に AI を活用している例も数多くあります。デジタル戦略を実現する上で AI が非常に重要な役割を果たす中、マイクロソフトの責任ある AI は、AI モデルが責任を持って構築・使用されることを保証するために不可欠な要素です。

「この AI ダッシュボードにより、AI の倫理的利用に関する当社のフレームワークと整合性が取れた形で AI システムの精度と信頼性を評価できます。これにより、AI システムが、意図された文脈や目的に適しているかどうか、人間の知性とどのように統合していくべきかを確認できます。」— Novartis データサイエンス責任者、ニミット ジェイン (Nimit Jain)

もう一つの例は、健康関連テクノロジのリーディングカンパニー Philips です。同社は、Azure と Fairlearn ツールキットを使用して、機械学習モデルの全体的公平性を向上し、バイアスを軽減することで、患者のウェルビーイングやケアの管理を改善しています。また、Azure Machine Learning のお客様である Scandinavian Airlines では、モデルの予測を理解し、疑わしい行動パターンの特定方法を改善するために、不正行為検出ユニットの解釈可能性機能を活用しています。

デジタルイベントを見逃した方もガイドラインとツールをぜひダウンロードしてください

マイクロソフトはこの取り組みを長期的に継続していますが、これらの新たなリソースが、責任ある AI の導入に向けた一歩を踏み出す助けとなることを確信しています。今回のイベントに参加できなかった方は、是非アーカイブをご覧いただき、資料をダウンロードしてください。マイクロソフトと共に、責任ある AI を実践していきましょう。

本ページのすべての内容は、作成日時点でのものであり、予告なく変更される場合があります。正式な社内承認や各社との契約締結が必要な場合は、それまでは確定されるものではありません。また、様々な事由・背景により、一部または全部が変更、キャンセル、実現困難となる場合があります。予めご了承下さい。

Tags: ,

関連記事