(2024 年 9 月 26 日,台北)微軟宣布 可信任 AI 計畫(Trustworthy AI),推出全新的相關產品功能及服務,進一步強化 AI 服務的全面性防護措施,以協助客戶使用並建構值得信任的人工智慧,確保其 AI 受到保護、並具備安全性及隱私性。
微軟全球執行副總裁暨首席行銷長沼本健(Takeshi Numoto)指出,微軟致力於確保可信任的 AI,並打造領先業界的支援技術;微軟承諾持續精進技術與能力,確保客戶和開發者在每一層面的 AI 應用都得到充分保護。微軟即日起推出全新產品功能,以加強 AI 系統的保障、安全及私隱保護。
安全保護(Security)
微軟將安全列為第一優先,擴展的「安全未來倡議計劃」(SFI)強調了公司全體上下對客戶的安全承諾。繼本週發布首份「SFI 進展報告」,重點介紹了企業文化、治理、技術和營運方面的最新進展,並遵循安全設計、安全預設與安全營運三大核心原則。除了 Microsoft Defender 和 Purview 外,AI 服務也內建基本的安全控制功能,如防止提示詞被截取(prompt injections)和版權侵犯,微軟再宣布了推出兩項新功能:
- Azure AI Studio 中的 Evaluations 功能已支援主動式的風險評估。
- Microsoft 365 Copilot 將提供網路查詢的透明度,協助管理員和用戶了解網路搜尋如何改善 Copilot 的回應。
微軟的資料保護方案已經被客戶廣泛使用;康明斯(Cummins)是一家擁有 105 年歷史、以發動機製造和清潔能源技術開發聞名的公司,他們選擇使用 Microsoft Purview 來強化其數據安全與治理,透過自動分類、標籤和標示數據來實現這一目標。EPAM Systems 是一家軟體工程和商業諮詢公司,因為看重 Microsoft 提供的數據保護,為 300 名用戶部署了 Microsoft 365 Copilot。
安全性(Safety)
微軟自 2018 年建立「負責任 AI 原則」以來,致力於在公司內安全的構建和部署 AI 服務,這包括建立、測試和監控系統,以防止有害內容、偏見及其他風險。多年來,我們在治理結構、政策、工具和流程方面進行了重大投資,確保這些準則的落實。微軟承諾與客戶分享這些經驗和最佳實踐,幫助他們開發符合高標準的 AI 應用。為幫助客戶在追求 AI 帶來的利益同時能夠降低相關風險,微軟推出以下全新產品功能:
- 在 Microsoft Azure AI Content Safety 中的 Groundedness 檢測功能中新增矯正功能(Correction),有助於在出現幻覺(hallucination)之前即時修復這些問題。
- Embedded Content Safety 允許客戶將 Azure AI Content Safety 功能嵌入到裝置設備中,這對於雲端連接可能不穩定或無法使用的裝置設備情境非常重要。
- Azure AI Studio 推出了新的評估功能(Evaluations),可協助客戶評估輸出內容的品質和關聯性,並檢測他們的 AI 應用輸出受保護的資料之頻率。
- Azure AI Content Safety 中的 Protected Material Detection for Code 功能目前正在預覽中,有助於偵測預先存在的內容和程式代碼。此功能幫助開發者探索 GitHub 儲存庫中的公開原始碼,促進協作和透明度,進而做出更明智的編碼決策。
許多微軟客戶均已採用微軟解決方案以建立更安全可靠的 AI 應用,如 3D 遊戲平台Unity 運用 Microsoft Azure OpenAI 服務建構 AI 助理 Muse Chat;Muse Chat 透過 Azure AI Content Safety 中的內容過濾模型以保障負責任的軟體應用,進而使遊戲開發過程更容易。另外,座擁將近 900 個品牌合作夥伴的英國時裝零售商 ASOS 同樣利用 Azure AI Content Safety 的內置內容過濾工具,透過 AI 提供高品質的客戶互動,協助客戶發掘新造型。
隱私保護(Privacy)
數據是 AI 的基礎,微軟的首要任務是透過長期遵循的隱私原則,確保客戶資料得到保護並符合規範,這些原則包括用戶控制、透明度以及法律和監管保護。微軟宣布以下新的產品功能:
- Azure OpenAI Service Whisper 模型現已推出「機密推理 (Confidential inferencing)」預覽功能,客戶可開發支援可驗證端到端隱私保護的生成式 AI 應用程式。機密推理能確保訓練好的 AI 模型,在推理、預測或決策的過程中,敏感的客戶資料能受到安全及隱私的保護。這對於高度受監管的行業,尤其是醫療保健、金融服務、零售、製造和能源等行業尤為重要。
- 配備 NVIDIA H100 Tensor Core GPU 的 Azure Confidential VMs 現已全面上市,這讓客戶可以直接在 GPU 上保護資料。這是以我們機密運算解決方案為基礎,確保客戶資料在安全環境中保持加密和保護,任何人都無法在未獲得授權的情況下存取相關資訊或服務。
- 適用於歐盟和美國的 Azure OpenAI Data Zones 即將推出,它是建構於 Azure OpenAI 服務提供的現有資料駐留,能使客戶更輕鬆地管理生成式 AI 應用程式的資料處理和儲存,並靈活地在一個區域內擴充所有 Azure 區域的生成式 AI 應用,同時能夠在歐盟或美國境內控制資料處理和儲存。
目前,應用程式安全供應商 F5 正在使用配備 NVIDIA H100 Tensor Core GPUs 的 Azure Confidential VMs 建構先進的 AI 驅動安全性解決方案,同時確保其模型分析的資料私隱性。另外,跨國銀行企業加拿大皇家銀行(RBC)已將 Azure 機密運算融入其平台,在保護客戶隱私的同時分析加密資料。配備 NVIDIA H100 Tensor Core GPUs 的 Azure Confidential VMs,更使加拿大皇家銀行可以利用進階的 AI 工具提升工作效率和開發更強大的 AI 模型。
以可信任 AI 實現更多、成就非凡
我們都期望擁有值得信任的 AI,當人們被賦能以可信任的方式使用 AI 時,不論在提升員工體驗、重塑業務流程,到再造與客戶的互動模式,以至重新想像人們的日常生活,都將充滿無限可能。隨著提升安全性、可靠性和隱私等新功能,微軟持續協助客戶使用並構建可信任的 AI 解決方案,協助地球上每個人和組織實現更多目標。可信任 AI 涵蓋了微軟所做的一切,這對於微軟的使命至關重要,因為微軟致力於擴展機會、贏得信任、維護基本權利,並在每一件所做的事當中持續推動著永續發展。