微軟打擊假資訊的新方法
微軟近期宣佈兩項打擊假資訊的新技術,以及倡導大眾假資訊嚴重性的新工具,並説明如何快速增進技術和教育工作的合作關係。
現今網路世界中普遍存在各種假資訊。根據普林斯頓大學雅各·夏皮羅教授9月更新的研究顯示,2013年至2019年針對30個國家發起了96項不同的國際影響力活動,這些在社群媒體上進行的活動,試圖詆毀知名人士,並說服大眾或使辯論兩極分化。其中26%的運動針對美國,其他目標國家則包括亞美尼亞、澳大利亞、巴西、加拿大、法國、德國、荷蘭、波蘭、沙烏地阿拉伯、南非、臺灣、烏克蘭、英國和葉門。其中大約有93%的活動包含內容的創建,86%的活動放大原先的內容,74%的活動扭曲了客觀可驗證的事實。近期的報告更表明,關於COVID-19疫情擴散的假訊息四處傳播,導致人們死亡和住院治療,而且他們尋求的治療方法實際上相當危險。
微軟此次宣佈的內容是「微軟捍衛民主計畫 (Microsoft’s Defending Democracy Program)」中重要的一部分,該計劃除了打擊假資訊外,更有助於透過選舉衛士(ElectionGuard)來保護投票,並透過會計衛士(AccountGuard)、Microsoft 365競選和選舉安全顧問説明來保護競選活動和其他參與者。而關注資訊保護和推廣新聞產業也是布拉德·史密斯和卡羅爾·安·布朗在2020年十大技術政策議題中廣泛討論的話題之一。
新技術Microsoft Video Authenticator與新辨別工具的誕生
假資訊有許多形式,但目前沒有任何一種技術能幫助人們分辨訊息的真假。在Microsoft,我們致力研究兩種不同的技術來解決不同的問題。
一個主要問題是Deepfake,或稱之為合成內容,它們由人工智慧(AI)以難以偵測的方式變造照片、影片或音訊文件,讓人們說出自己不曾說過的東西,或者出現在自己不曾去過的地方,而且Deepfake由AI運作並能繼續學習,無法避免地,它們將對傳統的偵測技術造成威脅與挑戰。但在短期間內,例如即將來臨的美國大選,先進的偵測技術可以成為一種有用的工具,來幫助有識別能力的用戶來辨別Deepfake。
因此,微軟宣布一項新技術 ─ Microsoft Video Authenticator,可以分析靜止的照片或影片,以提供媒體被人為操縱的機率或信心分數。針對影片,它可以在影片播放時的每個幀上實時提供前述的百分比。這項技術透過偵測無法被人眼察覺的Deepfake邊緣接合痕跡、及細微的糊化或灰階元素來運作。
這個技術最初是由微軟研究院與微軟責任AI( Responsible AI )以及微軟工程與研究AI、倫理與效果(AETHER)委員會共同開發的。AETHER是Microsoft的顧問委員會,致力於以負責任的方式確保新技術的開發和部署。 Video Authenticator是使用Face Forensic ++的公開資料集開發而成的,並在DeepFake辨識技術挑戰賽(DeepFake Detection Challenge Dataset) 上進行了測試,這兩個都用於訓練和測試Deepfake偵測技術的領先模型。
由於所有AI偵測方法都有失敗的可能性,因此我們必須了解並準備好應對透過偵測方法的Deepfake。因此,從長遠來看,我們必須尋求更強有力的方法來維護和證明新聞報導和其他媒體的真實性。至今,幾乎沒有什麼工具可以幫助閱聽人確保他們在網上看到的媒體,都來自可靠的來源且沒有經過變造。
另外,微軟也將宣布另一項技術,除了可以偵測變造過的內容,也可以確保媒體內容的真實性。這項技術由兩個部分組成,第一個是Microsoft Azure內建的工具,內容製作人可以在某個部分加入數位雜湊和憑證於內容中,這東西可變成內容metadata的一部分,即使傳送也會帶著走。第二個則是一個讀取器,可以實作成瀏覽器外掛或是其他形式,用於檢查憑證及對比雜湊值,可以準確地告訴接收者內容是真是假,是否被變造過,同時也能查看有關內容產製者的詳細訊息。
這項技術是由微軟研究院和Microsoft Azure部門與捍衛民主計劃(Defending Democracy Program) 共同合作打造的。這將推動BBC最近宣布的一項Project Origin的計劃。
比以往更加緊密地合作夥伴關係
沒有任何一個組織能夠對打擊虛假訊息和有害的Deepfake產生有意義的影響。我們將竭盡所能的提供幫助,但是挑戰的本質是需要廣泛採用多種技術,始終如一地為各地的消費者提供教育服務,並且我們隨著挑戰的發展,不斷了解更多。
這次,我們也將著重介紹努力建立的夥伴關係。
首先,我們與AI基金會合作,這是一家位於舊金山的商業和非營利性的雙重企業,其使命是帶給全世界的每個人AI的力量與保護。透過夥伴關係,AI基金會的Reality Defender 2020(RD2020)計劃將Video Authenticator提供給參與民主程序的組織使用,包括新聞記者和競選團隊。 Video Authenticator最初僅在RD2020計畫中可用,它將透過Deepfake偵測技術內既有的局限性和道德考量來指導組織。 有興趣了解更多訊息的團隊和新聞記者可以在此處聯繫RD2020。
其次,我們也與包括BBC,CBC / Radio-Canada和紐約時報的在內的多家媒體公司建立了合作夥伴關係,Project Origin將測試我們的真實性技術(authenticity technology) ,並協助發展為可為廣泛採用的標準。包括一系列出版商和社群媒體公司的信賴新聞計畫(Trusted News Initiative)也同意加入使用這項技術。在未來的幾個月中,我們希望將這一領域的工作擴大到更多的科技公司、新聞出版商和社群媒體平台公司。
建立媒體素養的重要性
我們更與華盛頓大學、辨識Deepfake的工具商Sensity和USA Today合作,致力於提高媒體素養。改善媒體素養將幫助人們從真實訊息中篩選虛假訊息,並管理Deepfake帶來的風險。實用的媒體知識可以使我們對媒體的背景進行批判性思考,並在欣賞諷刺和模仿的同時成為更有參與性的公民。雖然並非所有的合成內容都是不好的,但即使是對媒體素養資源的短暫干預,也已顯示可以幫助人們辨別和更謹慎地對待虛假訊息。
此次,我們為美國選民發起了一個互動測驗以了解Deepfake合成內容,及發展關鍵的媒體素養技能並提高合成媒體對民主所造成影響的認識。 Deepfake現場測驗是一種以互動體驗進行的媒體素養工具,由微軟與UW知情人士中心,Sensity 和USA Today共同開發。該測驗將透過USA Today、微軟和華盛頓大學擁有的網路和社群媒體資源以及社群媒體廣告進行發送。
此外,微軟與廣播電視新聞協會、信任計畫和西澳大學知情公共和加速社會變革計劃中心合作,支持一項公共服務公告(PSA)活動。隨著即將舉行的美國大選,鼓勵人們在社群媒體上分享或宣傳之前,採取“反思式停頓(reflective pause)”並檢查,以確保訊息是來自知名新聞機構。PSA運動將幫助人們更完善的理解錯誤與虛假訊息對民主所造成的危害,以及花時間辨別、分享和使用可靠訊息的重要性。這些廣告將在9月和10月於美國的所有廣播電台當中投放。
最後,在近幾個月中,我們極大地擴展了NewsGuard的實現,使人們能夠在使用媒體內容之前,了解有關線上新聞的更多訊息。NewsGuard擁有一支由經驗豐富的新聞工作者的團隊,他們根據九個新聞完整性標準對線上新聞網站進行分級,使用這些標準替每一個受分級的新聞網站創建“營養標籤”和紅色/綠色分級。我們可以透過下載簡單的瀏覽器外掛程序來使用NewsGuard的服務,這項服務適用於所有標準瀏覽器。針對Microsoft Edge瀏覽器的用戶,可以免費使用。更重要的是,Microsoft對NewsGuard的任何分級都沒有編輯控制權,NewsGuard瀏覽器外掛也不會以任何方式限制訊息。相反的,NewsGuard旨在透過提供有關新聞的重要上下文,以提供更高的透明度並培養媒體素養。
公部門組織的串聯及政策的影響力
世界各地的政府、公司、非營利組織和其他組織,在解決虛假訊息和選舉干擾方面都可以發揮關鍵作用。 在2018年,巴黎網路信任與資訊安全呼籲召集了一個由多方利益相關者組成的全球領導者小組,致力於九項原則,這些原則有助於確保線上和平與資訊安全。這些原則中最關鍵的一項是捍衛選舉程序。 5月,微軟的確保民主聯盟和加拿大政府發起了一項以這一原則領導全球的活動。我們鼓勵任何有興趣的組織參與Paris Call。
最後,我們宣布了微軟為消除假資訊而採取的新措施,包括為提高媒體信任度的兩項技術 ─ Microsoft Video Authenticator、媒體出處真實性辨識的解決方案,以及幫助人們了解假資訊的教育工作。我們也與Reality Defender 2020,華盛頓大學和Trusted News Initiative以及BBC、《紐約時報》和《今日美國》等媒體組織合作,以推動技術發展和教育工作,共同為打擊網路假消息盡一份心力。
如欲瞭解更多詳細內容,請至Microsoft On the Issues官方部落格參考更多。