リリ チェン (Lili Cheng)
Conversational AI 担当
コーポレートバイスプレジデント
多くのパートナーやお客様が、チャットボットやバーチャルアシスタントなど、対話型インターフェイスの設計に取り組むようになる中で、これらのテクノロジが人々からの信頼を維持しつつ、人々に貢献できるような開発方法に関する質問を受けることが多くなっています。こうした状況を受け、本日、責任あるAIにフォーカスしたマイクロソフト社内横断的な取り組みや、お客様やパートナーの声からの学びを基にマイクロソフトが作成した、対話型AIの責任ある開発のためのガイドラインを公表します。
対話型 AI は、私にとってもマイクロソフトにとっても新しい概念ではありません。実際、Internet Explorer の初期バージョン向けのグラフィカルチャットサービスである Comic Chat を1995 年に開発して以来、私は対話型インターフェイスの開発に取り組んできました。これらの経験や、Cortana や Zo などの最近のツールにおける経験から学んだ教訓が、今回のガイドラインの作成に有効でした。信頼できるボットの開発のためにマイクロソフト自身が従ってきた指針であるからです。
これらのガイドラインは「指針」にすぎない点にご注意ください。検討に値するとマイクロソフトが考える項目が含まれていますが、雇用、金融、肉体および精神面の健康など、特に人々の行動に影響を与えるボットを設計する際に重要です。このような状況では、判断、専門知識、共感などの要素を提供するために人間を関与させるべきかどうかを一度立ち止まって検討することが重要です。
このガイドラインに加えて、マイクロソフトの他のツールの活用も推奨します。たとえば、Microsoft Bot Framework によって侮辱的言葉を分類することでボットを悪用から守ることができます。また、Microsoft Azure Application Insights によってボット内にトレーサビリティ機能を組み込み、エラーの原因の判定や信頼性の維持に活用できます。
一般に、このガイドラインでは、設計プロセスの最初の段階から信頼できる対話型 AI の開発を行うべきことが強調されています。ボットがどのように使われるかを熟考し、悪用を防ぐために必要なステップを取ることが推奨されています。結局ところ、このガイドラインで最も重要なのは信頼の獲得です。人々がテクノロジを信頼しなければ、そのテクノロジが使われることはないからです。
信頼を得るために最初に必要な要素は、組織による対話型 AI の活用における透明性であるとマイクロソフトは考えます。ユーザーが、人間ではなく(または、人間に加えて)ボットとやり取りしていること、そして、ボットも人間と同じように間違いを犯すことを確実に理解しているようにしなければなりません。ボットの限界を認め、元々想定された範囲内で動作するようにすることも重要です。たとえば、ピザを注文するために設計されたボットは、人種、性別、宗教、政治などの微妙な話題を避けるようにすべきです。
対話型 AI を自社のブランドの拡張とみなし、自然言語を使って組織に代わって顧客とやり取りしてくれるサービスと考えましょう。あなたの組織を代表するボットと顧客がやり取りしている時には、組織の信頼はボット次第です。もしボットが信頼感を損ねることがあれば、組織全体の信頼が損なわれてしまいます。このガイドラインの最も重要な目標として、対話型 AI の設計者や開発者が組織の信頼感を代表できるボットを構築できるよう支援することを挙げているのはこれが理由です。
また、ガイドラインの検討と適用にあたっては、企業が自ら最善の判断を行うこと、そして、急速に変化するプライバシー、セキュリティ、アクセシビリティ関連のコンプライアンスに準拠するための組織内の適切な窓口を活用することを推奨します。
最後に、これらの指針は現時点でのマイクロソフトの考え方に過ぎず、発展途上の段階にあるということを述べたいと思います。私たちはすべての質問への答えを持っているわけではありません。今後、現実世界で多くのボットを設計、構築、展開する過程でより多くのことを学んでいくでしょう。ガイドラインに関する皆様からのフィードバックを得られることを楽しみにしています。そして、対話型 AI がより多くのことを実現できるよう支援してくれる未来に共に歩んで行きましょう。
関連情報
Responsible Bots: 対話型AI開発者向けの10のガイドライン(英語)
MicrosoftのAIへのアプローチ および電子書籍 The Future Computed日本語版
Lili Cheng,経歴