研究:AI 無法模擬人腦對動態臉部表情的處理
東尋 / 何渝婷編譯
2023-11-14 21:00

根據《站長之家》 11 月 14 日報導,一項最新研究發現,儘管 AI 在靜態圖像上的辨識能力強大,但在處理動態臉部表情時,其表現與人腦存在顯著差異。

來自達特茅斯學院與波隆那大學的研究團隊針對深度卷積神經網絡(DCNNs)進行了研究,這是人工智慧中用於辨識視覺圖像的關鍵組件。

問題根源在於,深度卷積神經網絡在辨識靜態圖像方面表現出色,但由於當前設計主要用於靜態圖像辨識,對於動態表情的處理相對欠缺。

研究中,團隊通過使用不同族裔、年齡和表情的臉部影音進行測試,與以往主要使用靜態圖像不同。

結果顯示,儘管人腦對面部的神經表徵在參與者之間高度相似,而 AI 對臉部的人工神經編碼在不同 DCNNs 之間也高度相似,但是與 DCNNs 的腦活動相關性較弱。

這表明,目前的人工神經網絡僅能捕捉到人腦資訊的一小部分,尤其是在處理動態面部時。

對此,研究建議,為了更準確地模擬人腦對臉部處理的方式,AI 開發者需要建構基於真實生活刺激(如動態影片中的臉部)的算法,而不是僅僅依賴靜態圖像。

本文為AI新智界授權刊登,原文標題為「研究:AI 無法模擬人腦對動態面部表情的處理