馬斯克公開承認:特斯拉最新的Beta版自駕系統「不是很好」
冉啓行 / 何渝婷編譯
2021-08-25 09:15

特斯拉執行長馬斯克週一在社群平台上發文表示,該公司最新測試版本的駕駛輔助系統FSD Beta 9.2「實際上並不好」。

馬斯克是這麼寫的:「在我看來,FSD 9.2測試版其實不太好,但Autopilot/AI團隊正在努力盡快改進,我們正試圖為高速公路和城市街道建立一個堆疊,但這需要大量的神經網路再訓練。」

在一定程度上,馬斯克承認了FSD的不完美性,但他並未透漏更多關於人工智慧系統訓練的細節過程。

特斯拉將用戶當小白鼠?

雖然特斯拉的智慧駕駛系統並不完美,但特斯拉卻依然在銷售它,該公司在美國市場銷售的FSD套餐價格為一次性一萬美元或每月199美元。

其中,FSD Beta版本僅適用於之前購買過FSD的消費者和特斯拉員工,使用它的同時,還將承擔一定的保密義務。

一般消費者們通常會同意對於FSD測試版本的體驗進行保密,不過也有一些媒體被允許可以在社群平台上發表影片,展示他們在道路上試用的最新功能。

也許有一天,監管機構可能會決定禁止未經專業訓練的司機,在公共道路上進行自動駕駛車輛測試。但就目前而言,沒有任何法規妨礙特斯拉將客戶,以及與之共享道路的所有人變成「小白鼠」的計劃。

值得一提的是,在馬斯克在週一發表這條批評推文的幾天前,他還在特斯拉人工智慧日(Tesla AI Day)上,吹捧特斯拉在自動駕駛系統和零部件方面的能力。

在上周的那次活動上,特斯拉展示了一款訂製晶片,用於數據中心培訓人工智慧網路。這些晶片旨在訓練AI自動辨識道路上出現的各種障礙物,這些障礙物由特斯拉汽車內的鏡頭記錄下來。

所以,外界就此推測特斯拉現在正在利用所謂的「內測群體」收集街道、障礙物等相關數據,訓練FSD內部人工智慧網路。

FSD可能存在安全隱患

特斯拉早前表示,今年晚些時候,FSD還將上線包括在城市街道上自動駕駛的功能,這是一個拖延已久的功能。然而目前FSD測試版已經包括了城市街道上的自動駕駛功能,但它並不完善。

在馬斯克發表這條批評推文之前,美國聯邦汽車安全部門上週對特斯拉的自動駕駛系統展開了正式調查。

美國國家公路交通安全管理局(NHTSA)發現,在美國,配備自動駕駛或僅配備交通自動巡航控制功能的特斯拉汽車,至少11次與應急車輛相撞,造成至少17人受傷,1人死亡。

這促使特斯拉正式調查自動駕駛系統是否存在安全缺陷,NHTSA可能會要求特斯拉做出改變。

此外,上週晚些時候,美國國家運輸安全委員會(NTSB)新任命的主席Jennifer Homendy,在接受媒體採訪時表示,無論是特斯拉還是其他公司,這些製造商都有責任誠實地說出他們的技術能做什麼,不能做什麼。

毫無疑問,自動駕駛系統雖然是大勢所趨,但現在依舊是一個不成熟的風口。就目前來看,自動駕駛系統還有很多試錯的路需要去嘗試,真「全自動智慧駕駛」的功能應用,可謂任重而道遠。

本文為雷鋒網授權刊登,原文標題為「Elon Mask 公開承認:特斯拉最新的 Beta 版自動駕駛系統「不是很好」