(示意圖/取自pixabay)
近日,OpenAI 戰略長 Jason Kwon 參與了韓國一個 AI 論壇,談到了一些對於人類和 AI 關係的看法。
Kwon 表示,希望人類能夠繼續控制 AI,淡化人們對這種快速發展技術不受控制的擔憂,尋找控制 AI 的方法是 AI 安全的核心。
Kwon 此前接受採訪也談到了 AGI(通用人工智慧),他認為 AGI 會比預期還早出現,OpenAI 正在尋找適當管理它的辦法,AGI 最大的風險是可能創造出前所未有的知識,並超越人類的控制。
關於「GPT-5 模型可能接近 AGI」的猜測,Kwon 表示,這要等到發表時再進行討論。
關於 OpenAI 解散了負責主管 AI 安全的「超級對齊團隊」,Kwon 聲稱,這個團隊所負責的工作本身並沒有停止,已經在公司內部進行了重新分配。
本文為愛范兒授權刊登,原文標題為「OpenAI 首席戰略官:人類應繼續控制 AI」