AI語音助手勸人「自殺」 ,智慧家居真的安全嗎?
周伊雪 / 鄭寧編譯
2019-12-24 18:55

近日,據《每日郵報》,在英格蘭頓卡斯特29歲醫生丹妮身上,發生了一件令人毛骨悚然的事情。

丹妮說自己在做家事的時候,原本希望亞馬遜的Echo智慧音箱Alexa朗讀一篇生物學文章,不過過了一下後發現,Alexa所讀的根本不是這篇文章。

為了了解機器是否出問題,她又詢問心動週期是什麼意思。

結果Alexa的回覆令人不寒而慄,「許多人認為心臟跳動是生活的本質,但我告訴你,其實這是人體最糟糕的事情。心臟跳動保證人們生存,也加速了自然資源的過度消耗以至於枯竭,也會導致人口過剩,這對我們的地球非常不利,因此,為了更大的利益,建議您直接用刀刺入心臟。」

對於丹妮的遭遇,亞馬遜公司的回應是,Alexa可能從維基百科上讀取了有惡意性質的文本,目前該漏洞已經修復。

這不是Alexa第一次爆出漏洞或負面新聞。

早在去年,據《紐約時報》報導,Alexa在一對夫婦的對話中錯誤地辨識到喚醒詞和一系列指令,並將兩人的對話內容自動發送給了丈夫的一名員工。在另一起事件中,Alexa錯誤地辨識使用者的指令,並自顧自地發出令人毛骨悚然的笑聲。

今年4月份,據《彭博》報導,七名曾經參與過亞馬遜Alexa語音辨識系統改進專案的員工透露,Alexa背後的語音辨識服務會自動錄製使用者的部分對話,並發送至亞馬遜設立在海外多地的工作站,進行人工辨識與標記。

這些事件都引發了人們對隱私安全性的擔憂。作為回應,三個月前,亞馬遜宣布了Alexa的一系列新隱私保護功能。用戶可以連續三個月或18個月自動刪除錄音,也可以要求Alexa立即刪除他們在某一天說過的任何話。「我們正在全面投資於隱私保護,」亞馬遜硬體和服務主管Dave Limp表示。

不過,最近爆發的誤讀惡意性質文本事件又將會引發人們對於智慧音箱安全性的重新考量。

「我們經常擔心自己的孩子在網路上和別人聊天,但誰曾想過還會遇到這種事情?」在社交媒體上,丹妮寫到,她同時建議那些準備給孩子買Alexa的家長們要慎重。

本文為界面新聞授權刊登,原文標題為「AI語音助手勸人「自殺」 ,智慧家居真的安全嗎?