(示意圖/取自pixabay)
根據《站長之家》 10 月 25 日報導,英國謝菲爾德大學的研究人員近日發表的一項研究顯示,包括 ChatGPT 在內的 AI 工具可以被操縱,產生惡意程式碼,可能用於發動網路攻擊。
該研究首次證明了 Text-to-SQL 系統的潛在危險,這種 AI 系統可以讓人們用普通語言提出問題,以搜尋數據庫,廣泛應用於各行各業。
研究發現,這些 AI 工具存在安全漏洞,當研究人員提出特定問題時,它們會生成惡意程式碼。
一旦執行,這些程式碼可能洩露機密數據庫資料,中斷數據庫的正常服務,甚至摧毀數據庫。
研究團隊成功攻擊了六種商業 AI 工具,其中包括高知名度的 BAIDU-UNIT,該工具在眾多領域中得到廣泛應用,如電子商務、銀行業、新聞業、電信業、汽車業和民航業等。
此外,研究還揭示了一種可能的後門攻擊方法,即通過污染訓練數據,在 Text-to-SQL 模型中植入「特洛伊木馬」。
這種後門攻擊通常不會對模型的性能產生一般性影響,但可以隨時觸發,對使用它的任何人造成實際危害。
本文為巴比特授權刊登,原文標題為「研究顯示:包括 ChatGPT 在內的 AI 工具可能會被誘騙生成惡意代碼」