マイクロソフトの責任ある AI プログラムの詳細について

2021 年 1 月 19 日 | ナターシャ クランプトン (Natasha Crampton) AI 担当最高責任者

※ 本ブログは、米国時間 1 月 19 日に公開された ”The building blocks of Microsoft’s responsible AI program” の抄訳です。

人工知能 (AI) は驚くような速さで進化しています。この先数年における同分野の見通しとして確実なのは、AI はそのメリットによって歓迎されるものの、同時に精査されるようになり、ある程度恐れられるようにもなるということです。AI がすべての人にとって役立つものとなるには、信頼を得られるような形で AI が開発され、利用されなくてはならないとマイクロソフトは考えています。マイクロソフトのアプローチは AI の原則に基づき、積極的に AI システムの道筋を築くことにフォーカスしています。これにより、AI システムのリスクを予測して軽減し、恩恵が最大限享受できるようになるためです。

ここ数年で、責任ある AI の開発に関する原則が広まり、透明性や公平性、説明責任、プライバシー、セキュリティといった課題を優先しなくてはならない点については大筋で合意に至っています。ただし、原則は必要ですが、それだけで十分とはいえません。困難で最も重要なのは、こうした原則を実践に移す部分なのです。

ここで、マイクロソフトの責任ある AI プログラムの基本となる構造について詳細をお伝えしたいと思います。その内容は、進歩と説明責任を実現するガバナンス構造についてや、責任ある AI の要件を標準化するにあたってのルール、マイクロソフトの社員が原則に基づいて行動できるよう研修と訓練を実施し、当社の AI システムが社会技術的にもたらす影響について深く考えてもらうようにすること、そして AI の実装に向けたツールやプロセスについてです。

顔認識や大規模な言語モデル、その他生活のあらゆる面に影響が及ぶ慎重に扱うべき AI アプリケーションなど、議論すべき重要な課題は他にもたくさんあります。マイクロソフトはこうした課題に取り組んでおり、今後もより幅広いコミュニティ全体での議論に関わり続け、他者の意見に耳を傾け学んでいく予定です。このように幅広い社会的議論を行うことが重要なのは、集団での選択が AI の構築方法や利用方法、さらには AI がもたらす未来を形成することになるためです。

このブログでこうした課題を直接取り上げることはしません。ここでは、お客様や幅広いコミュニティから受ける核心的な質問にフォーカスし、マイクロソフトがこの原則をどう取り入れ、どう実践しているかについてお話ししたいと思います。今回のブログでは、マイクロソフトの開発する AI ソリューションが、当社で採用した原則を実際に反映しているかご確認いただくためにも、当社で利用しているプロセス、ツール、トレーニング、その他リソースを紹介していきます。

コンプライアンスの基礎となるガバナンス

責任ある AI の分野には、新しいことや未知な部分が数多く潜んでいると同時に、近い分野から学べることも多くあります。マイクロソフトの責任ある AI におけるガバナンスのアプローチには、ハブアンドスポーク方式を取り入れています。これは、プライバシー、セキュリティ、アクセシビリティを製品やサービスに統合する際に成功した方式です。

「ハブ」となる部分を紹介しましょう。まずは Aether Committee です。同委員会のワーキンググループでは、マイクロソフトが責任ある AI の原則を実施するにあたり、科学分野や工学分野でトップクラスの人材が最先端のトレンドや新たな動向など同分野における専門知識を提供します。また、責任ある AI 部門 (Office of Responsible AI) もハブのひとつです。同部門では、マイクロソフトのポリシーやガバナンスのプロセスを設定します。そして、エンジニアリングにおける責任ある AI 戦略 (RAISE: Responsible AI Strategy in Engineering) グループもハブとなっており、エンジニアリング部門がシステムやツールによって責任ある AI プロセスを実装できるようにしています。これら 3 つのグループが協力し、全社で責任ある AI に対する一貫した基準を設定した上で、「スポーク」部分が取り組みを推進し説明責任を果たせるよう支えています。

マイクロソフトのガバナンスにおけるスポーク部分には、責任ある AI チャンピオン (Responsible AI Champs) コミュニティがあります。企業のリーダーシップから任命されたチャンピオンが社内のエンジニアリングチームや営業チームに配属され、責任ある AI に向けたマイクロソフトのアプローチや、用意されているツールやプロセスについて認識を高めるほか、問題を見つけ出し、倫理・社会面を考慮して評価できるよう支援します。また、チーム内で責任あるイノベーションの文化を育む役割も担います。

原則の実現に向けたルール作り

2019 年秋、マイクロソフトは責任ある AI の基準 (Responsible AI Standard) の初版を社内で公開しました。これは、マイクロソフトの企業ポリシーに基づいた責任ある AI の原則をどう実行するか定めたルールです。同基準の初版は学習を目的として公開したもので、マイクロソフトが組織的に原則から実践へと移行する取り組みの初期段階であることを若干意識していました。エンジニアリング部門の 10 グループと顧客対応の 2 チームを対象とした段階的な試験により、うまくいく部分とそうでない部分が把握できました。試験対象となったチームは、責任ある AI に対し懸念が生じる過程の例があるのはありがたいとしていたほか、基準に示されていた検討事項の自由度が高いことに難色を示し、より具体的な条件や基準を求める意見もありました。また、もっとツールやテンプレート、システムを用意してもらいたい、既存の開発手法とより緊密に統合したいといった声もありました。

あれから約 1 年が過ぎ、現在責任ある AI の基準第 2 版を社員とプレビュー中です。改訂版では、強力な研究とエンジニアリングの基盤を元に、人間中心のアプローチを強調しています。これにより AI システムを構築するチームは、原則特有の目標が達成できるような要件を満たすことが義務付けられます。こうした目標により、エンジニアリングチームの問題解決に対する本能を引き出し、要件に状況をあてがうことができるようになります。

責任ある AI の基準における各要件については、チームで利用できる実装方法を構築していきます。これには、社内外から収集し、成熟プロセスを経て洗練されたツールやパターン、演習なども含まれます。これは全社で複数年にわたって実施する取り組みで、責任ある AI の全社での運用に欠かせない要素です。今後もマイクロソフトでは、基準の第 2 版を仕上げグローバル展開するにあたり、引き続きフィードバックを集め、まとめていきます。

越えてはならない一線とグレーゾーンに対する取り組み

責任ある AI の実践が急速に変化し微妙に異なる中、複雑な社会技術的考慮点のすべてを徹底的に事前定義されたルールに落とし込むことは不可能です。そこで、影響力が高い事例や持ち上がった課題・疑問点を継続的にレビューし管理するプロセスを構築することにしました。

マイクロソフトの機密使用プロセス (sensitive uses process) では、社内のレビュー基準に合ったユースケースを、これまでに前例がない場合の審議も含め、責任ある AI 部門に報告して選別し、審査することになっています。マイクロソフトでは、2019 年 7 月以降 200 件以上のユースケースを審査してきましたが、2020 年 3 月からはその件数が増加しています。マイクロソフトの社員やお客様がアプリケーションと機会にあふれる AI 技術を活用し、データと AI の手法を用いて新型コロナウイルスに関する課題に対処しようとしているためでしょう。

こうした機密使用審査プロセスが、必然的に遭遇することのあるグレーゾーンの扱いに役立つほか、時にはそこから越えてはならない新たな一線を見いだすことにもつながっています。このプロセスの結果、特定の AI アプリケーションを構築し展開する機会があったものの、マイクロソフトの原則に沿って実施できるか疑問だったため辞退したこともあります。例えば、マイクロソフトのプレジデントであるブラッド スミス (Brad Smith) は、当社の機密使用審査プロセスにより、カリフォルニア州の地元警察がパトロール中にウェアラブルカメラやドライブレコーダーでリアルタイムに顔認識機能を利用するのは時期尚早だと判断し、その契約を辞退したことについて公の場で語っています。監督の行き届かない環境で顔認識を運用することによる技術的な課題を乗り越えなくてはならないことはもちろんですが、機密使用審査プロセスにより、顔認証の利用については社会的議論が必要で、法整備も必要だという見解にも至りました。こうした経緯により、2018 年にはこのようなユースケースは一線を越えるものだと判断したのです。

ほかにも複雑なケースをいくつか扱う中で、主に 3 つの重要な学びを得ることができました。1 点目は、ユースケースの詳細を掘り下げることにより、例えば失敗や誤用による関係者への影響や、特定のユースケースに対する技術の準備状況など、さまざまなリスクの側面を把握し明確に伝えられるようになったことです。2 点目の学びは、ベンチマークと運用テストが重要な役割を果たすということです。これがあるからこそ AI システムは利用者に十分なサービスが提供できるようになり、実験だけでなく実社会でも品質基準を満たせるようになるのです。そして 3 点目は、お客様が責任を持ってシステムを展開できるようになるには、お客様とコミュニケーションを取る必要があることも学びました。

こうした学びが、マイクロソフトの新たな実践にもつながりました。例えば、当社では透明性ノート (Transparency Note) を用意してチームに AI システムの目的や機能、制限を伝えることで、お客様がマイクロソフトのプラットフォーム技術をいつどのように導入するべきか把握できるようにしています。透明性ノートはマーケティングと技術文書の溝を埋めるもので、責任を持って AI を導入する際に知っておくべき情報を積極的にお客様に伝えることができるようになります。この新たな実践における最初の試みとなったのは Face API の透明性ノートでしたが、現在では当社のプラットフォームサービス全体で透明性ノートを次々と用意しています。マイクロソフトでは、この透明性ノートと、業界内で取り組んでいる Model Cards Datasheets for DatasetAI FactSheets との相乗効果もあると見ているほか、Partnership on AI の ABOUT ML イニシアチブにも積極的に関与しています。ABOUT ML イニシアチブは、責任ある AI の文書化に向け、成果物とプロセスを発展させる取り組みです。

考え方の進化と難しい疑問の問いかけ

現在マイクロソフトでは、当社が構築する AI システムについて従業員が総合的に考慮することが非常に重要だと捉えています。その一環で、全員が社会技術的な影響について深く考え、責任を持つ必要があると考えています。そこでマイクロソフトでは、トレーニングと実習を用意してチームを支援し、「なぜこの AI システムを構築するのか」、「このシステムの中核となる AI 技術はこのアプリケーションに対応できるだろうか」といった根本的な疑問を投げかける力を養おうとしています。

2020 年には、責任ある AI 入門という必須の研修により、14 万 5000 人以上の従業員が機密使用プロセスや責任ある AI の基準、さらには当社における AI の原則の基礎を学びました。

また、影響度評価の完了に向け、応用ワークショップおよび実習となる Envision AI も導入しました。Envision AI は、Project Tokyo チームと責任ある AI 部門が開発したもので、Project Tokyo チームがインテリジェントパーソナルエージェント技術のアプローチ設計に取り組む中で生まれた実際のシナリオを参加者が体験することになります。参加者は、インタラクティブな実習によって人間中心の AI とそれに必要な考えを学び、テクノロジがさまざまな人に与える影響を体系的に考慮するにあたって利用できるツールを体験します。マイクロソフトの責任ある AI の基準で必須となっている影響度評価を実施する際は、個人やチームがこの手法を直接適用します。同ワークショップは、当社の責任ある AI の取り組みでは一般的な研究主導の反復型テストと学習のアプローチで構築しており、フィードバックもありがたく受け止めました。現在は Envision AI をマイクロソフト社内のより多くのチームや社外のグループにも展開しようとしています。

考え方を変えるには、対話、統合、補強のプロセスを継続していくことも必要です。マイクロソフトのチームでは、進化を加速させるような刺激的な瞬間を経験することがあります。例えば、AI システムがありえない動きをしているといったお客様からの報告を選別している時などです。また、「責任ある」ことによって制限がかかるのではないかと感じていたチームが、AI に対し人間中心のアプローチをすることで、責任ある製品ができるだけでなく、全体的により良い製品へとつながっていることに後になって気づいたこともありました。

新たなエンジニアリング手法の開拓

プライバシーに関し、特に GDPR の取り組みで明らかになったのは、新たな構想を大規模に展開し、重要な検討事項を設計に組み込むには、エンジニアリングシステムやツールが重要だということです。

マイクロソフトが責任ある AI プログラムを全社展開する際にも、責任ある AI への真摯な取り組みを実現するエンジニアリングシステムとツールの存在がチームにとっての最優先事項です。ツールは、特に最も技術的な部分では、AI システムの構想に必要な人間中心の深い思考ができるわけではありません。それでもマイクロソフトでは、できる限り再現性のあるツールやパターン、実践を開発することが重要だと考えています。これによってエンジニアリングチームのクリエイティブな思考が、車輪の再発明ではなく、最も斬新でユニークな課題へと向けられるからです。また、統合されたシステムやツールによって一貫性を保つこともできるほか、責任ある AI をエンジニアリングチームの日々の業務の一環とする際にも役立ちます。

マイクロソフトはこの必要性を把握した上で、責任ある AI に向け「築かれた道のり」を用意する取り組みに着手しています。ツールやパターン、実習により、チームが容易に責任ある AI の要件を日々の開発作業に統合できるようにしようと考えているのです。この築かれた道のりの基礎となるのは Azure ML で、マイクロソフトのオープンソースツールである Fairlearn および InterpretML との初期統合を駆使し、当社のエンジニアリングシステムとツールの開発によってお客様もメリットを享受できるようにします。

責任ある AI の開発に向けた取り組みの拡大へ

今後マイクロソフトが注力することは 3 つです。まずは、責任ある AI の基準を継続的に展開することにより、一貫性を持って体系的に当社の原則を実行することです。2 点目は、研究から実践への促進や、新たなエンジニアリングシステムとツールによって、責任ある AI の最先端技術を進化させることです。3 点目は、引き続き社内全体で責任ある AI の文化を構築していくことです。

AI 技術の採用が加速する中、新しい複雑な倫理的課題が出てくることも実感しています。マイクロソフトですべて対応できるわけではありませんが、当社の責任ある AI に向けたアプローチの要素は、こうした課題の先を見越し、意図的で原則的なアプローチができるよう設計されています。今後も引き続きマイクロソフトでは学びを共有し、他者と共に学んでいきたいと思います。

本ページのすべての内容は、作成日時点でのものであり、予告なく変更される場合があります。正式な社内承認や各社との契約締結が必要な場合は、それまでは確定されるものではありません。また、様々な事由・背景により、一部または全部が変更、キャンセル、実現困難となる場合があります。予めご了承下さい。

Tags:

関連記事