跳過主内容

《趨勢名人堂》微軟全球首位「負責任AI長」 如何不讓工具變武器?

生成式AI雖讓人類更加賦權,但也衝擊隱私與安全,考驗企業與政府。微軟率全球之先,設立「負責任AI長」,從風險管理來制定AI監管。

生成式人工智慧快速席捲全球,更大大衝擊了隱私、經濟、政府和工作倫理,這讓「負責任AI」(Responsible AI﹚,一躍成為浪尖上的熱門議題。

2019年,微軟就跑在全球科技大廠之前,率先成立「負責任AI辦公室」,更設置全球第一個「負責任AI長」(Chief Responsible AI Officer﹚職位,來呼籲政府保護隱私,為AI訂定使用準則。

留著一頭溫柔棕髮,接受《天下》獨家採訪的微軟全球首位負責任AI長克萊普頓(Natasha Crampton)打趣自己說,「在2022年11月底,ChatGPT突然出現之前,我這個職位,對外界來說並沒有多大意義。」

克萊普頓是律師出身,2011年進入微軟,在微軟法務部門負責人權和AI研究。如今,她直接向微軟總裁史密斯(Brad Smith)報告。

史密斯是微軟領跑科技大廠,設立負責任AI長的關鍵。他以重視隱私權著稱,一九年著作《工具與武器》就強調AI科技改變世界,但需要被科技公司、政府共同監管,同時需要加快速度。

到底怎麼讓AI負責任?

技術研發時,就要設立「護欄」

「AI是工具也能變成武器,」克萊普頓強調,當新技術、新工具不斷發展前進,微軟思考負責任AI是從風險管理的角度來制定準則。

這代表,微軟研發人員開發技術時,除了想到技術的正向用途,還要防範技術可能被濫用。

「我們的研發工程師一開始就要在系統中設計護欄,」克萊普頓不諱言。

譬如,最被廣泛討論的AI技術「臉部辨識」,克萊普頓直言,微軟內部花相當多時間研究臉部辨識技術。

從「負責任AI」角度思考,微軟先制定一套系統性準則,公司和合作伙伴如OpenAI,要遵循及共享這些價值及準則,包括微軟訂出的原則,反對以不受限制的方式,使用臉部辨識技術進行大規模監控。

「但在一些合法的執法場景中,監控則為必要,但需要有適當的護欄,」她指出,法院獲得逮捕令就是護欄。

負責任AI的關鍵:以人為本

有的護欄可以直接建在技術上,譬如:大規模監控需要頻寬,可透過技術中內建的風險管理護欄,透過讓頻寬減速,讓大規模監控無法執行。

或者在提供臉部辨識技術時,附帶一些元件,讓使用者能添加某人的臉部照片,幫助推薦情緒、年齡和性別。

目的是,加上精準的資料一起判斷,避免僅僅因為某人在微笑,就直接推斷他們很開心。

克萊普頓坦言,負責任AI面臨的挑戰是使用場景(context)。譬如:一樣是運用最新的AI技術生成有害內容,但如果目的是研究,藉此理解有害內容是什麼,這就不應該被限制。反之,在教育應用中直接出現有害內容,就非常不合適了。

所以,負責任AI的關鍵,最終仍是回到「以人為本」。

這體現在微軟最新推出的軟體 Copilot上。「我們的AI系統不是取代人類,而是與人類一起工作的工具,」克萊普頓說。

負責任意味著,AI應是幫助人類提高生產力、創造力、解決問題,「這不僅僅是一個口號,」她強調。

微軟全球首位負責任 AI 長 Natasha Crampton

本文轉載自天下雜誌