ChatGPT爆重大漏洞:可能洩露1.2%用戶數據 AI安全引人震驚
清元宇宙 / 何渝婷編譯
2023-03-27 13:50

(取自OpenAI twitter)

美國時間3月25日,OpenAI官方發布了3月20日ChatGPT臨時中斷服務的調查報告,並表示有1.2%的ChatGPT Plus用戶可能數據被洩露。

根據OpenAI官網公告表示,3月20日以前,一個名為Redis-py的開源庫中的錯誤造成了緩存問題,該問題會導致用戶可能看到其他人聊天記錄的片段,甚至會向一些活躍用戶顯示其他用戶信用卡的最後四位數字、到期日期、姓名、電子郵件地址和付款地址。

本來可能還只是零星的用戶出現該類BUG,但令人神經大條的是,在20號早上,OpenAI在對伺服器進行更改的時候出現失誤,導致Redis請求取消激增,問題進一步的加劇,所以出現了這個「1.2%」的可能。

根據OpenAI官方的說法,有兩種可能會使這些資訊被暴露:

1. 在特定時間內的付款確認郵件,可能會發給了一些錯誤的用戶,這些郵件上包含信用卡的後四位數字。

2. 在特定時間內,點擊「我的帳戶」-「管理我的訂閱」,可能會導致另一個活躍用戶的姓名、電子郵箱、付款位址、信用卡後四位被洩露。

OpenAI表示,目前已經聯繫了這些可能已經洩露資訊的用戶。

為了防止此類事情再次發生,OpenAI也在不落格文章裡說明了他們已經採取的行動,包括添加「冗餘檢查」以確保提供的數據與用戶匹配;改進修復了其Redis集群在高負載下吐出錯誤的可能性......而且還強調他們的Redis開源維護者一直是出色的合作者。

雖然問題已經解決,但還是有大量的網友們依舊質疑OpenAI的安全性,還有網友詢問,為什麼不能用GPT4檢查程式碼上的錯誤。

可能是為了安撫ChatGPT用戶的心緒,OpenAI CEO Sam Altman在當天立刻接受了媒體專訪,雖然隻字未提此次用戶數據洩露事件,卻多次強調「AI安全」。

他提到了以下四點:

1.人工智慧語言模型(如 GPT)的開發和改進需要一個包含公眾回饋的迭代過程,專注於解決偏見,並考慮 AI 安全性和一致性。

2.人工智慧的進步,特別是GPT技術的進步,正在改變編程的性質,需要仔細考慮人工智慧的安全性、語言輸出的監控和解決偏見。

3.人工智慧的發展,特別是神經網路,有可能超越人類智慧,大大提高生活品質,但也帶來了重大的風險和挑戰,必須通過不斷研究和開發人工智慧安全性和一致性來解決。

4.OpenAI是一家營利性公司,致力於強大的AI技術,同時對安全問題保持透明。

OpenAI CTO Mira Murati也在其官網上發出自己的觀點,「人工智慧系統正在成為日常生活的一部分,關鍵是要確保這些機器符合人類的意圖和價值觀。」

而如今,他們一手創造的ChatGPT正在挑戰著他們所給到公眾的承諾。

隨著人類工作生活使用人工智慧的頻次越來越高,AI安全問題也應該成為我們在當下及未來相當長一段時間應該重視的問題,AI技術不能只考慮跑得快,還要考慮不翻車。

根據OpenAI官方解釋,這是由於緩存問題導致用戶資訊洩漏,然而這種錯誤,在網際網路產業中,並不是第一起。

早在2015年的聖誕節,Steam也因為緩存問題,使34000名左右用戶的個人資訊被洩露。

OpenAI投入巨量的精力和金錢在AI的潛在安全的研究上,卻被一個常見的老問題給絆倒。

雖說「成大事者,不拘小節」,但「天下難事,必作於易;天下大事,必作於細。」希望未來OpenAI不會再出現此類的問題了。

我們詢問了GPT-4,AI安全問題應該如何解決,它回答道:

在人工智慧(AI)領域,確保安全性是至關重要的,以下是一些建議和方法,以解決AI安全問題:

可解釋性和透明度:AI系統的設計應具備可解釋性,以便研究人員、用戶和監管機構理解其決策過程,提高透明度有助於確保AI系統的行為符合預期,便於發現潛在的安全隱患。

數據安全和隱私:AI系統通常需要大量數據進行訓練,保護這些數據的隱私和安全至關重要,採用加密、數據脫敏和差分隱私等技術,以確保數據在處理、傳輸和儲存過程中得到保護。

穩健性和抗攻擊能力:AI系統應具備對抗對手的能力,包括識別和抵禦對抗性攻擊、欺騙性輸入等,研究穩健性訓練方法,提高系統的抗干擾能力。

可審計性:建立可審計的AI系統,以記錄關鍵決策過程,這將有助於追蹤潛在問題、確保合規性,並為未來糾正錯誤和不當行為提供依據。

倫理與法規遵循:確保AI系統符合倫理原則和法律法規,遵循公平、透明、可解釋等原則,研究AI倫理,制定相應的政策和指導方針。

持續監控和更新:隨著技術的進步和新的安全威脅的出現,需要不斷監控和更新AI系統,以確保其安全性和有效性。

多學科合作:鼓勵不同領域的研究人員、政策制定者、企業家和公眾共同參與AI安全問題的討論,跨學科合作將有助於制定更全面的安全策略。

開放研究和分享:展開開放、合作的研究,分享AI安全相關的知識、技術和最佳實踐,這將有助於整個AI領域在安全問題上取得進展。

通過積極採納這些措施和方法,我們可以降低AI領域的安全風險,推動人工智慧的健康、可持續發展。

希望OpenAI在內的人工智慧公司,都能為保障AI安全而多上心、多出力,AI產業才能夠更加健康地發展。

本文為金色財經授權刊登,原文標題為「ChatGPT爆重大漏洞:可能洩露1.2%用戶數據 AI安全引人震驚