2025 年版「責任ある AI の透明性レポート」: 成長を促すシステム構築とお客様への支援

2025 年版 「責任ある AI の透明性レポート」:成長を促すシステム構築とお客様への支援

テレサ ハットソン (Teresa Hutson)、Trusted Technology Group CVP 及び ナターシャ クランプトン (Natasha Crampton)、Chief Responsible AI Officer

※本ブログは、米国時間 6 月 20 日に公開された “Our 2025 Responsible AI Transparency Report: How we build, support our customers, and grow” の抄訳を基に掲載しています。

私たちは初の Responsible AI 透明性レポートを 2024 年 5 月公開しました。世界中のステークホルダーから寄せられたフィードバックに改めて感謝の意を表します。いただいたインサイトは、この 2 回目となる年次の「責任ある AI の透明性レポート」に反映されているだけでなく、人々が信頼できる AI 技術の構築にむけた継続的な取り組みの強化に活用されています。本レポートでは、AI システムの責任ある構築と展開、お客様および広範なエコシステムへの支援提供、そして学びと応用に関する新たな取り組みを紹介しています。

過去 1 年間で、あらゆる規模の組織による AI の導入が進み、実践的な AI ガバナンスへの関心が高まりました。マイクロソフトのプログラムの展開方法や、高度な規範を実践に落とし込むツールと手法について、お客様やパートナーから多くの関心が寄せられています。

信頼できる AI の構築がビジネスにとって有益であり、AI の可能性を引き出す上での適切なガバナンスの重要性を、私たちと同様に多くのお客様が実感しています。IDC の Microsoft Responsible AI Survey によると、回答者の 30% 以上が AI の導入と展開における最大の障壁として、ガバナンスとリスク管理ソリューションの欠如を挙げています。一方で、責任ある AI ツールをリスク管理に活用している回答者の 75% 以上は、(AI が) データ プライバシー、顧客体験、ビジネス判断、ブランド、信頼性の向上に役立っていると回答しています。

また、過去 1 年間で新たな規制や法律も登場しました。マイクロソフトでは、約 10 年にわたり責任ある AI の実践を推進しており、これらの規制への対応準備を万全に整えている他、お客様が適切にお対応できるように支援体制も整備しています。もちろん、これで終わりではありません。レポートでも詳述しているように、国境を越えた AI 技術の導入を支援する効率的かつ効果的な規制と実践については、議論が続いています。私たちは、世界中の標準や規範の策定に対して、実践的な知見の提供を通じて引き続き貢献してまいります。

私たちは、ガバナンスのあらゆる側面において、現実の導入経験から得られた知見を活用し、最新技術の進展を反映して実践方法を更新し、ステークホルダーからのフィードバックに迅速に対応する柔軟な姿勢を重視しています。こうした原則に基づく反復的なアプローチから得られた知見は、本レポートの随所に反映されています。ガバナンスの実践が進化し続ける中、私たちは今後も透明性レポートやその他の公開の場を通じて、新たな知見を積極的に発信、共有していきます。

2025 年版 透明性レポートの主なポイント

2024 年、私たちは AI の革新スピードに対応するため、責任ある AI のツール、ポリシー、実践に対して重要な投資を行いました。

  • テキスト以外のモダリティ (画像、音声、動画) に対応したリスク評価と軽減機能を拡張した他、2025 年以降の主要な投資分野になると予想されるエージェント型システム (半自律型システム) へも追加的に支援を提供しました。
  • 欧州連合の AI 規則 (AI Act) を含む新たな規制要件への対応として、積極的かつ多層的なアプローチを採用し、お客様が規制に準拠しながら革新を継続できるようリソースと資料を提供しました。また、業界をリードする包括的な責任ある AI プログラムへの早期投資を通じ、2024 年には AI 規制対応を加速しました。
  • デプロイ前レビューとレッドチームによる一貫したリスク管理アプローチを継続し、Azure OpenAI Service に追加されたすべてのフラッグシップ モデルや Phi モデルのリリースを含む、ハイインパクト・ハイリスクの AI 活用に対する監視と評価を実施しました。また、これらのレビューの一環である、責任ある AI の文書化をさらに支援するために、責任ある AI 標準 (Responsible AI Standard) に定められた要件を一元管理する内部ワークフロー ツールを開発しました。
  • Sensitive Uses and Emerging Technologies チームによるハイインパクト・ハイリスクの AI 活用において、実践的な助言の提供をはじめとした支援を継続しました。特に医療や科学分野における生成 AI アプリケーションは、2024 年の成長分野として注目されましたが、事例を通じた知見の収集や研究者との連携を通じ、新たなリスクや AI 機能に対する早期ガイダンスを提供し、革新を促進するとともに、社内ポリシーやガイドラインの策定に寄与しました。
  • 最新のAI 技術の進歩に起因する社会技術的な課題への理解を深めるため、研究から得られた知見やインサイトを活用しました。AI の能力、効率、安全性の限界に挑戦するコア技術への投資として、AI Frontiers Lab を設立しました。
  • 世界中のステークホルダーと協力し、国境を越えた AI の導入と革新を加速させるための一貫したガバナンス アプローチの構築を推進しました。これには、さまざまな領域におけるガバナンスを調査した書籍の出版や、AI システムの評価に関する統一基準の策定支援などが含まれています。

今後の展望

AI の革新と導入が進む中で、私たちの目標は変わりません。それは、世界中で広く有益な AI の導入を促進するための基盤となる信頼を獲得することです。今後 1 年間の取り組みでは、進化し続ける環境に対応しながら、AI ガバナンスへの揺るぎないコミットメントを推進するため、以下の 3 つの分野に注力します。

  1. より柔軟かつアジャイルなリスク管理ツールおよび実践手法の開発と、AI の進化に先んじて適応できるスキルの育成に注力します。変革をもたらす AI の可能性を世界中の人々や組織が最大限に活用できるようにするためには、AI のリスクを的確に予測し、管理する能力も同様に進化していく必要があります。そのため、AI の能力向上や多様化する展開シナリオに迅速に対応できるツールや実践手法の構築に取り組みます。今後は、最も一般的なリスクに対応するリスク管理システムへの投資を拡大し、テストセットやリスク軽減策、ベストプラクティスの共有を Microsoft 内外のチーム間で促進してまいります。
  2. AI サプライチェーン全体における効果的なガバナンスを支援します。 AI への信頼を構築し、維持するためには、モデル開発者、アプリ開発者、システム利用者が、それぞれ信頼性できる設計や開発、運用に取り組む協働が不可欠です。欧州連合の AI 規則を含む各種規制は、サプライチェーンの関係者間での情報共有の重要性を示しています。マイクロソフトでは「責任の共有」というコンセプトを重視しつつも、急速に変化する AI エコシステムにおいて責任の所在や役割を明確にする難しさも認識しています。こうした実践的な理解を深めるため、社内外での取り組みを強化し、関係者の役割と期待の明確化に取り組んで行きます。
  3. AI のリスク測定と評価における共有の規範と効果的なツールによるエコシステムの活性化を推進します。AI のリスク測定と評価に関する科学は成長中ではあるものの、依然として初期段階にあります。私たちは同分野の成熟を支援するため、社内での継続的な投資をはじめ、AI リスクの測定と評価の限界に挑戦する研究や、それらを大規模に実践できるツール開発を推進しています。最新のツールやベストプラクティスを広くエコシステムと共有し、AI のリスク測定と評価のための共有規範や標準の発展を積極的に支援してまいります。

私たちの取組みの進捗や今後の課題や協力の機会について、皆様のご意見をお待ちしています。共に、効率的かつ効果的にAIガバナンスを進めることで、技術の進化がもたらす将来の機会に合わせた速度で、AI システムへの信頼を促進していくことができると期待しています。「2025 年版 責任ある AI の透明性レポート」をご覧ください。

本ページのすべての内容は、作成日時点でのものであり、予告なく変更される場合があります。正式な社内承認や各社との契約締結が必要な場合は、それまでは確定されるものではありません。また、様々な事由・背景により、一部または全部が変更、キャンセル、実現困難となる場合があります。予めご了承下さい。

Tags: ,

関連記事