コンテンツへ移動
AI の方向性を正しく保つには測定が不可欠

AI の方向性を正しく保つには測定が不可欠

※本ブログは、米国時間 9 月 9 日に公開された“Measurement is the key to helping keep AI on track”の抄訳を基に掲載しています。

ハンナ ウォラック (Hanna Wallach) が機械学習モデルのテストを始めた当初、タスクは明確に定義されており、評価も簡単でした。モデルは画像内の猫を正しく識別できたか? 異なる視聴者が映画につけた評価を正確に予測できたか? 誰かが話した言葉を正確に書き起こせたか?

しかし、モデルの性能を評価するこの作業は、人間と対話する大規模言語モデル (LLM) のような生成 AI の誕生によって一変しました。そのため、マイクロソフトの研究者としてのワラックの焦点は、定量化が容易ではない潜在的なリスク、つまり公正さや心理的安全性といった「人間の概念」に対する AI の反応を測定することに移っています。

AI におけるリスクを定義、評価し、ソリューションが効果的であることを保証するための測定に対するこの新しいアプローチは、生成技術が人々とどのように相互作用するかという社会的、技術的要素の両方に注目しています。そのため、AI はより複雑なものとなりますが、すべての人にとって安全であり続けるために不可欠なものでもあります。

本ブログ記事は、マイクロソフトの「Building AI Responsibly (責任ある AI の構築)」シリーズの一環で、AI を導入する際の最大の懸念事項と、同社が責任ある AI の実践とツールによってそれらにどのように対処しているかを探るものです。

「私のチームの多くは、社会科学のアイデアを責任ある AI の文脈でどのように利用できるかを考えています。社会的側面を理解せずに AI の技術的側面を理解することはできませんし、その逆もまた然りです。」とウォラックは言います。

マイクロソフト リサーチの応用科学者からなる彼女のチームは、顧客からのフィードバック、研究者、マイクロソフトの製品チームやポリシーチーム、AI レッドチーム (技術者やその他の専門家で構成され、AI システムのどこがうまくいかないかを探るグループ) によって明らかになったリスクを分析しています。

例えば、AI システムが厨房にいるのは女性だけだとか、CEO は男性だけだとか、不公平さが潜在的な問題として浮上した場合、ウォラックのチームや社内の他の人たちが、そうしたリスクの背景や程度、そしてシステムとのさまざまな相互作用の中で現れうる方法を理解し、定義するために介入します。

他のチームがユーザーが遭遇する可能性のあるリスクに対する修正を開発したら、彼女のグループはシステムの反応を再度測定し、調整が効果的であることを確認します。

彼女と同僚たちは、AI が特定のグループの人々をステレオタイプ化したり、貶めたりすることの意味など、漠然とした概念に取り組んでいます。彼女たちのアプローチは、言語学や社会科学の枠組みを応用し、論争となっている意味を尊重しながら具体的な定義を明確にするもので、「体系化」として知られるプロセスです。リスクを定義 (体系化) したら、アノテーション技術 (システムの反応にラベルを付けるための手法) を使って、シミュレートされた実世界のインタラクションにおいて、リスクの測定を開始します。そして、それらの反応をスコア化し、AI システムが受け入れられるパフォーマンスを示したかどうかを確認します。

このチームの作業は、マイクロソフト社の技術者が緩和策を開発する際に、詳細な情報を提供し、エンジニアリングの意思決定に役立っています。また、マイクロソフト社内の方針決定にも役立っており、測定結果は、あるシステムが導入可能かどうか、また導入可能なタイミングをリーダーが決定する際に役立っています。

「測定しない限り、私たちの緩和策や解決策が効果的であるかどうかをどうやって知ることができるでしょうか?これが今、責任ある AI において最も重要なことです。」

マイクロソフトの責任ある AI 担当チーフ プロダクト オフィサー、サラ バード (Sara Bird)

生成 AI システムは、社会や私たちを取り巻く世界を表現するテキストや画像、その他のモダリティを扱うため、ウォラックのチームはユニークな専門知識を組み合わせて結成されました。彼女のグループには、さまざまなタイプのリスクがどのように顕在化するかを研究する、コンピューター サイエンスや言語学のバックグラウンドを持つ応用科学者が含まれています。また、研究者、分野の専門家、政策アドバイザー、エンジニアなどと協力し、できるだけ多くの視点や背景を取り入れるようにしています。

AI システムが普及するにつれ、疎外されたグループを公平に代表し、扱うことがますます重要になっています。そのため、例えば昨年、当グループはマイクロソフトのチーフ アクセシビリティ オフィサーのチームと協力し、障碍のある方に影響を与える公平性に関連するリスクを理解しました。彼らはまず、障碍のある方を公平に代表するとはどういうことかを深く掘り下げ、AI システムの応答がどのように障碍者主義を反映しうるかを特定することから始めました。また、AI と対話する際に障碍のある方がどのような経験をしているかについての洞察を得るために、コミュニティのリーダーたちとも関わりました。

これらの発見を明確に体系化された概念に変えることは、リスクを測定し、必要に応じてシステムを修正し、障碍のある方にとってより良い体験となるように技術を監視する方法を開発するのに役立ちます。

マイクロソフトの責任ある AI 担当最高製品責任者であるサラ バードは次のように述べています。「ウォラックのチームが開発に携わった新しい手法ツールの 1 つである Azure AI Studio の安全性評価では、生成 AI そのものを使用しており、これはますます複雑で広範化するシステムを継続的に測定および監視できる画期的なものです。」

「社会的側面を理解せずに AI の技術的側面を理解することはできません。」

マイクロソフト研究員、ハンナ ウォラック

このツールに適切なインプットを与え、AI システムのアウトプットにどのようにラベルを付けるかのトレーニングを行うと、例えば不適切な性的コンテンツを引き出そうとする人物になりきってロールプレイを行います。そして、慎重に体系化されたリスクを反映したガイドラインに基づいて、システムの応答を評価します。得られたスコアは、リスクの程度を評価するための指標を使用して集計されます。「専門家グループが定期的にテストを監査し、それが正確で人間の評価と一致していることを確認します」と、バードは言います。

AI システムに専門家のような振る舞いをさせるには、多くの労力とイノベーションが必要で、マイクロソフトが進化する評価科学の分野に投資しているように、開発には本当にやりがいがあり、楽しいものです。」と、彼女は言います。

マイクロソフトのお客様もこのツールを使って、自社のチャットボットやその他の AI システムが特定の安全目標に対してどのように機能しているかを測定することができます。 

「評価こそが、AI システムが大規模にどのような動作をしているかを理解するのに役立つ堅牢なものです。測定しない限り、緩和策や解決策が効果的かどうかをどうやって知ることができるでしょうか?」と、バードは言います。

「これは今、責任ある AI で最も重要なことです。」

本シリーズの第 1 弾、第 2 弾はこちらからご覧いただけます: AI の幻覚レッド チーミング

マイクロソフトの 責任ある AI の取り組みについてはこちらをご覧ください。 

リードイラスト: Makeshift Studios/Rocio Galarza

 

本ページのすべての内容は、作成日時点でのものであり、予告なく変更される場合があります。正式な社内承認や各社との契約締結が必要な場合は、それまでは確定されるものではありません。また、様々な事由・背景により、一部または全部が変更、キャンセル、実現困難となる場合があります。予めご了承下さい。