OpenAI回應安全性質疑,公布保障AI模型安全方法
界面新聞 / 何渝婷編譯
2023-04-06 14:04

(取自OpenAI twitter)

美國當地時間4月5日,ChatGPT研發公司OpenAI在其官方部落格發表文章《我們保障AI安全的方法》,回應外界對其AI模型安全性的質疑。

文章介紹了ChatGPT六個方面的安全部署,包括建構日益安全的AI系統、在實際使用中學習改進安全措施、保護兒童、尊重隱私、提高事實準確性,以及持續研究和參與。

其中提到,OpenAI要求用戶必須年滿18週歲,或在父母同意的情況下年滿13週歲才能使用AI工具,驗證選項正在研究中。

OpenAI不允許其技術被用於生成仇恨、騷擾、暴力或成人內容,與GPT-3.5相比,GPT-4響應禁止內容請求的可能性降低了82%。

此外,當用戶試圖將兒童性虐待相關素材上傳到圖像工具時,OpenAI會阻止並向美國國家兒童失蹤與受虐兒童援助中心報告。

在隱私方面,OpenAI強調不使用數據來銷售服務、做廣告或建立用戶檔案,並努力在可行的情況下從訓練數據集中刪除個人資訊,微調模型以拒絕對私人資訊的請求,響應用戶從OpenAI系統中刪除個人資訊的請求。

在提高事實準確性方面,OpenAI表示,通過用戶的錯誤報告回饋,GPT-4的事實內容準確性較GPT-3.5提高40%,當用戶註冊使用該工具時,該公司盡可能做到透明。

本文為界面新聞授權刊登,原文標題為「OpenAI回應安全性質疑,公佈保障AI模型安全方法