第一堂課就談AI責任!微軟前執行副總裁沈向洋,開始在北京清華大學任教
彭新/黃詠琳編譯
2020-03-07 16:40

(圖片取自北京清華大學)

3月5日,北京清華大學宣布,通過視訊連線為正在西雅圖清華大學全球創新學院(GIX)大樓授課的沈向洋博士頒發雙聘教授聘書,這也是北京清華大學首次以視訊會議方式線上舉行聘任儀式。

沈向洋是大陸著名的電腦視覺和電腦圖學專家,1996年加入微軟,1999年在北京參與創立微軟中國研究院。在微軟期間,歷任微軟亞洲研究院院長兼首席科學家,微軟全球資深副總裁、全球執行副總裁。

本次聘任儀式,是沈向洋在去年宣布離職微軟後首次公開亮相。2019年11月13日,微軟執行長Satya Nadella宣布沈向洋將在2020年初離開微軟。2020年3月2日,「清華大學本科教學」官方帳號發佈了命名為《沈向洋雙聘教授聘任儀式暨春風講堂第四講》的通知,正式確認沈向洋動向。

聘任儀式後,沈向洋在線發表了名為「Engineering Responsible AI」的報告並通過在線平台公開直播,這也被視為其在清華的「第一堂課」。

沈向洋稱,近年來人工智慧領域取得的進步已經超出了過去的預期。但是,許多人工智慧領域的從業人員並未充分考慮其可能產生的社會影響。如今企業界、學術界和政府需要立即採取行動以應對相關的社會挑戰。

所謂Responsible AI,即負責任的人工智慧。2018年,微軟發表《未來計算》(The Future Computed)一書,其中提出了人工智慧開發的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。在報告開始階段,沈向洋再次引用該原則,重申其重要性。

在報告中,沈向洋回顧了當前AI的進展,他認為,如今AI技術已經可以做決策,這是AI技術發展過程中非常重要的一步,但是人們依然缺乏對AI做決定這一過程的理解。舉例而言,當人類在生產電氣零部件時,都會有相應的檢查記錄,哪裡出現問題,就可以對操作文件進行分析,從而找出問題。但是,AI卻沒有這樣的環節,導致問題很難排除、審查和發現。

AI這一特點在微軟內部同樣表現如此,「我們對微軟500名機器學習領域工程師進行了調查,我們問他們如何改善機器學習系統?在經過調查後,得出結論:如今機器學習工程師面臨的最大問題之一是,他們知道出了一些問題,但是不知道具體是哪裡出了問題,也並不知道為什麼會出現問題。」沈向洋說。

在對AI訓練結果的解釋性、AI的偏見上,研究人員的缺陷也在影響AI發展。沈向洋以圖形識別狗舉例,儘管研究人員可以創造準確率較高的識別算法,區別圖像中的狼和哈士奇,但仍無法解釋其中原理。實際上,AI的判斷並非通過圖片中的動物部分,而是通過圖片中除了動物之外的部分進行的。

在AI的偏見上,一個經典例子就是黑色人種的人臉辨識。通常,AI對黑人女性比白人的面部識別準確率要低。但經過調整再次訓練模型後,這種辨識率的差距可以降低,達到可接受水平。從不斷的訓練中,研究者得出結論,這種偏見來自於訓練採用的樣本數據。因為研究者人員更多採用非黑色人種的數據樣本。

報告中,沈向洋還引用《麻省理工科技評論》的一則新聞報導,該報導稱。通過評估算法,AI可能將錯誤的人送進監獄。在沒有仔細評估的前提下,AI預測犯罪可能會加劇對深色皮膚人士的不平等,而非提高社會安全。

最後,沈向洋總結道,「我們是第一代和AI共存的人類,無論喜歡與否都別無選擇,人類得決定怎麼構建、使用AI。而一個由AI做決定、人類無法理解的世界是不能接受的。」

 

本文為界面新聞授權刊登,原文標題為「微軟前執行副總裁沈向洋受聘清華大學,首堂課談AI責任