谷歌發布TensorFlow,用於測試人工智慧模型的隱私保護
郭仁賢 / 鄭寧編譯
2020-06-30 08:00

近日,谷歌發布了隱私保護TensorFlow工具包,可以評估各種機器學習分類器的隱私屬性。谷歌表示,它旨在成為一個隱私測試套件的基礎,不管AI開發者的技能水準高低都可以使用它。

當前,各種人工智慧隱私技術仍然是社群內爭論的話題,但還沒有一個規範的指南來建立一個私有模型。而越來越多的研究顯示人工智慧模型可以洩漏訓練資料庫的敏感資訊,進而產生隱私風險。TensorFlow隱私保護所採用的緩解方法是差分隱私,它在訓練資料中添加雜訊以隱藏單個示例。據了解,這種雜訊是以學術上最壞的情況去設計的,同時會顯著影響模型的準確性。

因此,這促使谷歌的研究人員在尋求另一種選擇。新的TensorFlow隱私模組支援的成員推斷攻擊方法,建立分類器來推斷訓練資料庫中是否存在特定樣本。分類器越精確,記憶就越多,因此模型的隱私保護就越少,做出高精度預測的攻擊者將成功找出訓練集中使用了哪些資料。

新模組提供的測試是黑盒,這意味著它們只使用模型的輸出,而不是內部或輸入樣本。它們產生一個漏洞得分,確定模型是否從訓練集中洩漏資訊,並且它們不需要任何再訓練,使得它們相對容易執行。

「在內部使用成員關係推斷測試之後,我們將與開發人員共用這些測試,以幫助他們構建更多的私有模型,探索更好的架構選擇,使用正則化技術,如提前停止、退出、權重衰減和輸入增強,或收集更多資料。」谷歌Brain的雙歌和谷歌軟體工程師David Marn在TensorFlow部落格上對外表示。

另外,谷歌表示:「今後,它將探索將成員推斷攻擊擴展到分類器之外的可行性,並開發新的測試。它還計畫透過將新的測試與用於安排生產機器學習管道的端到端平臺TensorFlow Extended(TFX)匯集,探索將新的測試添加到TensorFlow生態系統中。」

據了解,谷歌在去年夏天開放的基礎差異隱私庫中增加了對Go和Java的支援,還提供了Beam上的隱私,基於Apache Beam(一個特定於語言的sdk模型和集合)構建的端到端差異隱私解決方案,它依賴於差異隱私庫的低級構建塊,並將它們組合成一個「開箱即用」的解決方案,該解決方案考慮了差異隱私所必需的步驟。

此外,谷歌還推出了一個新的隱私損失分配工具,用於跟蹤隱私預算,允許開發者對收集差異私人查詢的用戶隱私總成本進行估計,並更好地評估其管道的總體影響。

本文為雷鋒網授權刊登,原文標題為「谷歌發布TensorFlow,用於測試人工智慧模型的隱私保護」