コンテンツへ移動
AI の透明性を高めてディープフェイクと戦う

AI の透明性を高めてディープフェイクと戦う

ヴァネッサ ホー (Vanessa Ho)

※本ブログは、米国時間 10 月 3 日に公開された “Fighting deepfakes with more transparency about AI” の抄訳を基に掲載しています。

2022 年のウクライナ侵攻の直後、地元の写真家たちは、国の遺産を保護し、返還のための証拠を集めるために、破壊された文化遺産を記録し始めました。しかし、戦争関連の偽の画像が拡散したことで、どの写真が本物であるか確信が持てないという問題が巻き起こっていました。

そのため、写真家たちは新しいツールを使って、自分たちの写真が「ディープフェイク」 (すなわち AI によって生成された、実在の人物、場所、出来事に作為的な方法でリアルに似せたコンテンツ) ではないことを証明することになりました。そのツールのプロトタイプが、オンライン コンテンツの透明性を高めるために設計されたマイクロソフトのコンテンツ整合性ツールにつながりました。

今年、世界各地の選挙では過去最高の 20 億人の有権者が参加すると予想されているため、複数の政治団体、選挙やメディアの組織がこのツールを使って、自分たちのドキュメントの出所を特定し、透明性や信頼性を向上させ、偽情報を排除しています。ただし、責任ある AI ツールとプラクティスによって、より信頼できる情報エコシステムをサポートすることは、マイクロソフトが有害なディープフェイクと闘うための方法の 1 つにすぎません。

本ブログは、マイクロソフトの「Building AI Responsibly (責任ある AI の構築)」シリーズの一環であり、AI の導入に関する重要な懸念事項と、当社が責任ある AI のプラクティスおよびツールによってそれらにどのように対処しているかを探求しています。

「ディープフェイクの影響は、信じられないほど深刻なものになる可能性があります。コグニティブ ハッキングの一種で、現実との関係や世界の考え方を変えてしまうのです」と、マイクロソフト メディア プロヴィナンス担当ディレクターのアンドリュー ジェンクス (Andrew Jenks) は述べています。

ジェンクス は、マイクロソフトが共同で設立した Coalition for Content Provenance and Authenticity (C2PA) の議長を務めています。C2PA は、オープンな技術標準を開発する組織で、AI で生成されたアセットを含むデジタル コンテンツの出所 (情報元と履歴) を確立しています。

操作されたコンテンツは目新しいものではなく、明らかな風刺やコメディである場合もあります。しかし、生成 AI の台頭により、悪意のある人々が偽情報を拡散することが容易になり、詐欺、ID の窃盗、選挙妨害などの被害につながる可能性があります。コンテンツが共有されると、属性やキャプションなどの詳細が消えてしまうことが多く、何を信頼すべきかを判断するのが難しくなっています。

コンテンツの出所を知り、履歴を追跡することで、人々はより多くの情報を得ることができ、被害に遭いにくくなるとジェンクスは言います。マイクロソフトのツールには、クリエイターやパブリッシャーが自分の作品にコンテンツ資格情報、すなわちコンテンツの制作者、制作日時、AI 使用の有無などの詳細を含む認証済みメタデータを追加するためのアプリケーションが含まれており、現在はプライベート プレビューで提供されています。C2PA の技術標準の一部であるコンテンツ資格情報は、写真や動画、音声に暗号化されて付加されるため、その後の編集や改ざんを容易に検出できます。

メタデータは目に見えないため、マイクロソフトは消費者が資格情報をスキャンし、出所情報を確認できるように、コンテンツ整合性チェックツールウェブ ブラウザ拡張機能も提供しています。また、LinkedIn などのプラットフォーム上の画像や動画でコンテンツ資格情報アイコンを探すこともできます。

「コンテンツ資格情報は、AI が関与しているかどうかにかかわらず、透明性のある重要なレイヤーを提供し、ユーザーがオンライン上で共有し消費するコンテンツについて、より多くの情報に基づいた意思決定を行うのに役立ちます。コンテンツの情報元と履歴を特定することが容易になるにつれて、人々は特定の出所情報を欠いた資料に対してより懐疑的になる可能性があります」とジェンクスは言います。

マイクロソフトは、自社画像生成 AI 製品 (DesignerCopilotペイントAzure OpenAI Service の一部のモデル) でコンテンツ資格情報ツールを使用して、AI が使用されたこと、画像が作成された日時、その他の詳細を開示しています。ディープフェイクの悪用を抑止するための責任ある AI 制御としては、Copilot にアップロードされた写真に写っている人物の顔をぼかすなどがあります。

「ディープフェイクの影響は、信じられないほど深刻なものになる可能性があります。コグニティブ ハッキングの一種で、現実との関係や世界の考え方を変えてしまうのです」
マイクロソフト メディア プロヴィナンス担当ディレクター および C2PA 議長 アンドリュー ジェンクス (Andrew Jenks)

「AI で生成された、または AI で修正されたメディアは、教育からアクセシビリティまで、さまざまな状況で役立つ可能性があります。しかし、どこから来たのか、どの程度改変されたのか、AI が使われたのかを人々が理解できるように、コンテンツの情報元とその過程について開示すべきです。私たちの手法は、どのコンテンツが信頼できるかを消費者に伝えるのではなく、消費者が情報に基づいた意思決定を行うために必要なコンテキストを提供することなのです」と科学技術ポリシー担当シニア プログラム マネージャーのジェシカ ヤング(Jessica Young) とマイクロソフト最高科学責任者およびメディア プロヴィナンス エキスパートのエリック ホーヴィッツ (Eric Horvitz) は述べています。

コンテンツ資格情報は広告から出会い系ウェブサイトまで、あらゆるものに対する信頼を確立するのに役立つとジェンクスは述べていますが、マイクロソフトは、今年の選挙で AI の悪意ある使用と闘うという公約の一環として、まずはキャンペーン、選挙団体、ジャーナリストにプロヴィナンス (情報の出所元) 確認ツールのプライベート プレビューを提供します。マイクロソフトはまた、LinkedIn、Xbox、その他のマイクロソフト コンシューマー サービスに出現した選挙ディープフェイクを候補者が報告できるサイトを作成し、OpenAI とともに 200 万ドルの基金を立ち上げて、有権者や被害の対象になりやすいコミュニティの AI 教育を促進しています。

マイクロソフトは、現在 200 人近くのメンバーを擁する C2PA を共同設立し、ジャーナリストとともにプロヴィナンス テクノロジを開発し、民主的プロセスをサポートすることで、情報の整合性を推進してきました。当社は、単一の企業やアプローチだけではこの問題に対処できないことを認識しており、関連する法律の制定を提唱し、さらなる透明性のある手法を研究しています。この取り組みは、研究、エンジニアリング、ポリシー、脅威インテリジェンスの専門知識を統合し、さまざまなメディア形式やプラットフォームが混在する複雑な環境で情報システムを強化することを目的としています。

「ライブ動画のような新しいフォーマットで生成 AI を使用するメディアが進化する中で、最も堅牢なソリューションを見つけるために継続的な開発に取り組んでいます。そして、ベスト プラクティスとツールをより広範なエコシステムと共有しています」とヤングは述べています。

ディープフェイクを見つける方法

  • 情報元を知って理解する: 属性、キャプション、およびコンテンツ資格情報を探します。画像検索を使用して画像を調査します。情報元が信頼できるかどうかを自分に問いかけ、情報元が明確でない場合は慎重に進めます。
  • 意図を考える: コンテンツはあなたを楽しませたり、情報を提供したり、勧誘したりすることを目的としていますか? 目的を分析すると、誰かが騙そうとしているかどうかをより正確に理解できます。
  • 矛盾や違和感のあるものを探す: AI によって生成された画像には、スペルミス、ぼやけた図、不揃いな衣服、一貫性のない照明、奇妙なテクスチャが含まれている可能性があります。
  • 自分の AI 判定スキルをテストする: Real or Not クイズに答えて、AI が生成した画像と実際の画像を見分けられるかどうか確認してみましょう。

マイクロソフトの責任ある AI の取り組みについてはこちらをご覧ください。
リード イラスト: Makeshift Studios / Rocio Galarza

本ページのすべての内容は、作成日時点でのものであり、予告なく変更される場合があります。正式な社内承認や各社との契約締結が必要な場合は、それまでは確定されるものではありません。また、様々な事由・背景により、一部または全部が変更、キャンセル、実現困難となる場合があります。予めご了承下さい。