臉書開發出「反人臉辨識」系統,用AI來欺騙AI!
劉琳 / 何渝婷編譯
2019-12-10 11:00

(示意圖/取自pixabay)

近日,來自挪威科技大學的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇論文中提到,有新的方法可以欺騙人臉辨識系統,就是在不改變原來數據分布的前提下,把人臉匿名化,更通俗的說法就是輸出一張逼真的人臉,但是不改變原圖人的姿態和背景。

在這種技術的加持下,人臉辨識系統依舊能夠正常運行,但是完全無法辨識出原來的人臉身份,偽造者則可以冒充他人自由出入具有人臉辨識系統的設施。

根據作者們的測試,經過他們匿名化的人臉,仍然保持了接近於原圖的人臉可辨識性,普通的人臉辨識對於匿名化後的圖像,辨識出人臉的平均準確率只下降了0.7% 。而人臉含有的自然生物資訊,竟然是100%不重合的。

用AI來欺騙AI ,這簡直是太厲害了。

此前,Facebook也針對反人臉辨識做過嘗試,近日,終於有了結果。

外媒VentureBeat報導稱,近日,Facebook的人工智慧實驗室Facebook AI Research(FAIR),開發出一種「去識別」系統,該系統可以欺騙臉部辨識系統,例如,讓臉部辨識系統將你辨識為一位女明星。

該技術使用機器學習,即時改變影片中人物的關鍵臉部特徵,誘使臉部辨識系統,錯誤地辨識成其他對象。

據稱,該技術將一個對抗自編碼器(Adversarial Autoencoders ),與一個訓練過的臉部分類器配對,使人的臉部稍微扭曲,從而在迷惑臉部辨識系統的同時,又能維持一個人們可以認出來的自然樣貌,它可以用在影片,甚至是直播中。

事實上這種「去識別」技術,在過去已經存在,以色列的自動反人臉辨識系統提供商D-ID,已經研發出了針對靜態圖像的去識別技術。另外,還有一種被稱為對抗性示例,它利用了電腦視覺系統的弱點,人們通過穿戴印有對抗圖案,來誘騙臉部辨識系統看到並不存在的東西。

過去的技術,通常應用於從監視器等渠道獲得的照片、靜止影像,或是已事先計劃好,利用對抗圖像欺騙人臉辨識系統。現在,FAIR的研究針對即時影像和影片腳本,且它足以抵抗精密的臉部辨識系統。

FAIR稱,這項技術成果是產業首例。

Facebook還發表了一篇論文,解釋了其對新技術的態度。它提出了一種觀點,即臉部辨識可能會侵犯隱私,人臉替換技術可能被用來製作誤導性影片。為了控制人臉辨識技術的濫用,該公司推出了對影片進行去識別的方法,並取得了很好的效果。

此外,據VentureBeat報導,Facebook並不打算在任何商業產品中使用這個反人臉辨識技術,但這項研究可能會對未來的個人隱私保護工具產生影響。並且,就像該研究在「誤導性影片」中所強調的那樣,它能夠防止個人肖像被用於製造偽造影片。

其實反人臉辨識技術近年來發展迅速,早在去年,多倫多大學Parham Aarabi教授和研究生Avishek Bose的團隊,開發出一種算法,可以動態地破壞人臉辨識系統。

簡單來說,他們選擇的方法是通過干擾人臉辨識算法,來達到阻礙人臉辨識的功能。該算法通過改變一些人眼幾乎不可辨識的微小像素,來改變識別器的檢測結果。儘管算法對於像素的修改十分微小,但對於檢測器來說卻是致命的。

研究人員針對300-W數據庫上的檢測結果,也證實了這種方法的可行性。該數據集包含多種族、不同照明條件和背景環境的超過600張人臉照片,是一個業界的標準庫。結果表明,他們的系統可以將原本可檢測到的人臉比例,從接近100%降低到0.5% 。

而且更可怕的是,這個反人臉辨識系統具有神經網路自主學習能力,可以隨著人臉辨識系統的進化,而不斷改變自己。

但讓雷鋒網編輯感到更為可怕的是,AI時代下,我們竟不能保全自己的「臉面」。

本文為雷鋒網授權刊登,原文標題為「Facebook開發了一套「去識別」系統,能讓你在實時視頻中「隱身」