臉書的AI系統,恐無法準確辨識仇恨言論和宣揚暴力的內容
界面新聞 / 何渝婷編譯
2021-10-18 09:20

《彭博社》於10月18日援引《華爾街日報》報導,Facebook的內部文件顯示,該公司的人工智慧技術可能無法將仇恨言論和暴力等攻擊性內容屏蔽。

報導稱,Facebook的算法不夠強大,無法刪除違反平台規則的內容,而且其人工智慧系統無法保持對第一人稱射擊影片的辨識。

據報導,一位高階工程師和研究科學家在2019年的年中曾經預估稱,僅有大約2%違反平台守則的仇恨言論被系統辨識刪除。

Facebook相關部門負責人對《華爾街日報》表示,該審查的文件已經過時,並稱更重要的其他數據指標顯示,仇恨言論的數量在該平台整體內容中的比例正在下降。

本文為界面新聞授權刊登,原文標題為「美媒:臉書的AI系統或無法準確識別仇恨言論和宣揚暴力的內容