研究顯示:包括ChatGPT在內的AI工具,可能會被誘騙生成惡意程式碼
東尋 / 何渝婷編譯
2023-10-26 08:30

(示意圖/取自pixabay)

根據《站長之家》 10 月 25 日報導,英國謝菲爾德大學的研究人員近日發表的一項研究顯示,包括 ChatGPT 在內的 AI 工具可以被操縱,產生惡意程式碼,可能用於發動網路攻擊。

該研究首次證明了 Text-to-SQL 系統的潛在危險,這種 AI 系統可以讓人們用普通語言提出問題,以搜尋數據庫,廣泛應用於各行各業。

研究發現,這些 AI 工具存在安全漏洞,當研究人員提出特定問題時,它們會生成惡意程式碼。

一旦執行,這些程式碼可能洩露機密數據庫資料,中斷數據庫的正常服務,甚至摧毀數據庫。

研究團隊成功攻擊了六種商業 AI 工具,其中包括高知名度的 BAIDU-UNIT,該工具在眾多領域中得到廣泛應用,如電子商務、銀行業、新聞業、電信業、汽車業和民航業等。

此外,研究還揭示了一種可能的後門攻擊方法,即通過污染訓練數據,在 Text-to-SQL 模型中植入「特洛伊木馬」。

這種後門攻擊通常不會對模型的性能產生一般性影響,但可以隨時觸發,對使用它的任何人造成實際危害。

本文為巴比特授權刊登,原文標題為「研究顯示:包括 ChatGPT 在內的 AI 工具可能會被誘騙生成惡意代碼