跳過主内容

《趨勢名人堂》實現可信賴的 AI 應用願景:
淺談負責任 AI

微軟全球助理法務長及台灣微軟公共暨法律事務部總經理施立成

2023年是AI的重要轉捩點,AI議題在產業應用面、政策面和法律層面的討論聲不斷。而使AI展現價值的核心,就在於AI資料的治理,且生成式AI的大語言模型(LLM)及演算法都需仰賴高效的雲端運算,這也是目前政府與公部門面臨到最大的挑戰之一。因此,如何透過負責任AI的架構在資料治理、資安及產業應用上實現可信賴的AI願景,也成為現階段各界探討的熱門議題。 

實現人工智慧願景,AI應以負責任及合乎道德的方式被應用 

自1992年,Bill Gates便提出「電腦有一天將能夠理解人類」的願景,這種能力包括看得到、聽得懂、能夠交談並理解人類。近年來,許多技術的進步,例如FIFA所使用的臉部和語音辨識技術。但直到去年,OpenAI推出了ChatGPT,人們才真正體驗到了人工智慧與人類交談的可能性。相較於過去較單純、如 Siri的智慧語音,ChatGPT發展出的是能夠真正理解人類,並與人類進行有意義的對話。 

AI的應用影響層面廣泛,無論身為產品開發者或佈署者,都應該以負責任的方式使用AI技術。然而,這些想法不應該只局限於技術或商業層面,應該思考如同OpenAI這樣的科技橫空出世、改變了世界後,究竟能夠為世界做出什麼貢獻,並對所創造出的科技負責。 

現在應該先預見未來因AI可能帶來的問題,並負責任地進行探討與解決。微軟總裁Brad Smith在其所撰《未來科技的15道難題》一書中,特別提及許多AI和人類社會互動相關的實例,並在其中討論了最新的AI原則和負責任AI準則。微軟也在2018年公佈了AI的六項準則,重點在於人工智慧應以負責任及合乎道德的方式被建構及使用,並且應該廣泛的服務社會;人工智慧更應以提升國際競爭力及國家安全為原則,在國際競爭的局勢下,AI應該讓所有人都能夠輕鬆使用,而非僅是為了狹隘的商業利益而存在。 

微軟制訂負責任AI六大原則,確保AI以值得信賴的方式被建構 

微軟早在2018年就率業界之先,制定並公開負責任AI六大原則,包括公平性、可靠性與安全、隱私及資安、包容性、透明度及當責等。 微軟視這些原則為負責任、且值得信賴的AI建構基礎。 

除了制定基本原則外,微軟並透過嚴謹的公司治理規範,在每項原則下分門別類設定具體規則,再透過訓練與實踐發展出一系列的工具與流程來確保六大原則從AI研發、設計到部署的具體實現,並公開分享包括設立負責任AI辦公室(Responsible AI Office)及負責任AI長(Chief Responsible AI Officer)的實踐經驗。 

微軟提出治理 AI 的五大重點藍圖  

我們更在今年中發表了《治理AI:未來的藍圖》,內容闡述微軟在負負責任 AI 中所累積的經驗,以及對於 AI 監管上的構想。治理AI的五大重點藍圖如下: 

  1. 實作並建立在政府主導的新 AI 安全架構上 

屬於美國商務部的國家標準與技術委員會 (NIST) 已經完成並啟動了新的 AI 風險管理架構 (AI Risk Management Framework),微軟根據這個架構提供了具體的實作建議,包括微軟為了回應最近與主要 AI 公司召開的白宮會議所做出的承諾等。行政當局和其他政府亦可以根據這個架構,透過採購條例加速推動。 

2. 對於控制關鍵基礎結構的 AI 系統要求有效的安全制動裝置 

隨著 AI 逐漸強大,如何有效控管 AI 也變得更加重要。人們普遍對於 AI 在電力網路、供水系統和城市交通流量等關鍵基礎結構的控制,感到擔憂與質疑。藍圖中提出了新的安全指引,即為為控制指定關鍵基礎結構的 AI 系統建立安全制動裝置,並將有效的人為監督、彈性和穩健性列為首要考量。 

3. 根據 AI 的技術架構研擬廣泛的法規制度 

AI 需要一個能反映 AI 本身技術架構的法規架構。簡而言之,法律需要根據管理 AI 技術不同層面的角色,對不同參與者施加各種監管責任。因此,這份藍圖包含了建立和使用生成式 AI 模型所需部分關鍵要素的相關資訊,不同的法律應該在技術堆疊的三個層次,包括應用層、模型層和基礎結構層上,對行使特定責任的組織施加特定的監管責任。  

4. 提高透明度並確保學術和非營利組織能善用 AI  

我們應以負責任的方式讓 AI 系統更透明,微軟致力於發佈年度 AI 透明度報告以及其他擴大 AI 服務透明度的步驟。特別是擴大學術研究和非營利組織對 AI 資源的存取至關重要,設法使學術研究人員能夠取用更多計算資源,以進行 AI 相關研究。 

5. 尋求新的公私合作夥伴關係,使用 AI 應對新技術帶來的社會挑戰 

我們應運用 AI 保護民主和基本權利、提供廣泛獲取 AI 技能的機會以促進包容性增長,並且利用 AI 的力量推動地球的永續發展,這些都要仰賴政府、企業、及非政府組織一起展開計畫合力推動。 

 奉行KY3C原則:了解雲端、了解客戶和了解內容 

 針對金融服務所發展的「了解您的客戶」(Know Your Customer,KYC) 概念,在 AI 情境中也應延伸採用這項 KY3C 原則,包括了解AI部署的雲端(Cloud)、了解存取使用AI的客戶(Customers)、了解AI建立的內容(Content) 

首先,指定強大 AI 模型的開發者要先「了解雲端」,也就 是用來開發和部署其模型的雲端環境。此外,在涉及敏感用途的情況下,與客戶直接相關的公司 ( 無論是模型開發者、應用程式提供者,還是運作模型的雲端營運商 ) 應該「了解客戶」,也就是存取模型的客戶。同時,當某個視訊或音訊檔案是由AI模型而非人類所製作時,大眾應該要能夠透過使用告知人們的標籤或其他標記 「了解AI所建立的內容」。這種標記的義務也可以保護大眾防範原始內容遭竄改和創造「深度偽造」的狀況。 

您的資料就是您的資料,不會被用來訓練微軟所提供給其他客戶的模型 

AI應用中的重要核心便是AI資料的處理,負責任AI的背後需要有一個可信賴的機制,也就是對於所有雲端資料的保護機制。而目前生成式AI的資料庫及LLM都以雲端為主,這也是許多政府單位或公部門對於雲端安全性有所疑慮與擔憂之處。 

首先,除了透過最先進的技術及明確的合約規範,確保客戶的資料受到合規性及安全性的全面保護外,微軟雲端服務強調,您的資料就是您的資料。當客戶使用fine-tuning的OpenAI服務時,客戶的數據就只會存在於客戶自己所訂閱的雲端空間中,並不會被放到更大的資料庫中。這意味著微軟不會使用客戶的數據來訓練其提供給其他客戶的模型。這是因為fine-tuning採用了”Custom Manager Key”技術,此技術可以確保客戶的數據只能由客戶自己來管理和使用,微軟因為沒有相關的密鑰,無法觸及或使用客戶的數據。客戶還可選擇透過加密的安全保護措施,以及限制訪問數據的人員和角色等功能,以確保其數據不會外洩。 

此外,fine-tuning還有附加合約,該合約中明確規定了客戶的數據會如何被使用和處理,合約內包括保密協議、數據使用限制和責任分配等內容,以完善保護客戶的數據不被未經授權的人員造訪或使用。最後,fine-tuning還提供了一個客製化服務,此服務可以根據客戶的需求客製化模型和算法,讓微軟就算想要利用客戶的數據也無法做到,因為每個客戶都有自己獨特的需求和設定。 

對客戶的負責任AI 承諾及Copilot著作權承諾 

此外,我們在今年下半年更首開業界先例,提出AI 客戶承諾,包括分享有關負責任AI的開發和部署經驗、創建AI保障計劃以及支持實施負責任AI系統等,並基於此將現有的智慧財產權支持延伸至商用 Copilot 服務和 Bing Chat Enterprise而提出Copilot著作權承諾,在202310月份生效的產品條款中直接發佈並實施,幫助客戶對第三方智慧財產侵權的主張提出辯護,以致力在負責任AI旅程中為客戶提供其所需要的協助。 

在追求最新的AI 技術所帶來的創新、效率和變革的旅程中,確保 AI 的開發和實作是在負責任的治理架構下持續精進更突顯其重要性。微軟致力採取積極主動且務實的措施,不僅將負責任 AI 文化納入公司體制,而且還公開分享並提供讓 AI 對客戶和社會更加安全可靠的實質工具與治理經驗。我們很樂意繼續保持公開透明,廣泛地分享我們的AI 治理經驗。讓我們在產業、政府、學術界和公民社會共同努力下,攜手共創一個讓AI促進人類發展的美好未來。 

本文轉載自 CIO IT 經理人