全世界都被騙到了?輝達發表會「數位替身」出場14秒,暴露了一個大問題
梁曉憧 / 何渝婷編譯
2021-08-17 09:20

「黃仁勳騙過了全世界,三個多月都沒人發覺!皮衣是假的廚房是假的,連他自己都是假的!」這兩天,一則震驚科技圈的消息佔滿大家的版面。事情是,輝達最近公開了4月GTC發表會的幕後紀錄片,展示技術人員如何通過Omniverse平台,製作現場各種3D仿真特效。其中包括完美複製出黃仁勳家的廚房,以及,合成了他本人的「數位人形」。

什麼?眼前如此逼真的黃老闆竟然不是活人?

先不要激動,不是你想的那樣。實際上據輝達部落格稱,當天1小時48分的發表會裡,「數位人形」出場只佔了14秒(原片01:02:41~01:02:55)。這14秒之外,全都是黃仁勳本人在演講。

21個真假黃仁勳

被輝達稱為發表會高潮時刻的14秒,是長這樣的:

在介紹輝達首款CPU Grace時,真廚房瞬間變成假廚房,並像變形金剛一樣開始「解體」。然後,場景進入虛擬空間,黃仁勳的「數位人形」便穿著他的假皮衣上場了。

你完全可以把這段理解為對Omniverse平台的炫技。官方描述稱,這14秒將輝達的深度學習與圖像研究團隊、工程師團隊和設計師團隊的工作,都很好地結合到了一起。

為了復刻這個廚房,技術人員從不同角度拍了幾百張照片,再進行3D建模。據稱,這裡的東西多達6000~8000件。他們還在假廚房裡悄悄埋了3個彩蛋:一台印有輝達logo的咖啡研磨機、一罐品牌名叫Tao的橄欖油,以及一個黃仁勳模樣的樂高小人。

至於「造假」CEO本人,需要先給黃仁勳(和他的皮衣)來一次全身的3D掃描,以幾千張照片為基礎來建模,再用AI訓練臉部動作和表情。

另外,他們找來了專門的演員,特意對黃仁勳過往演講的肢體語言進行學習模仿,再進行長達8小時的動作捕捉。在多番細節調整後,團隊做出了21個版本的「數位人形」,供老闆最終挑選出鏡。

真的假的?14秒背後的大問題

在YouTube上,這條幕後紀錄片的簡介是:看一群藝術家,如何在輝達發表會Keynote中模糊現實和渲染的界線。在部落格正文,輝達表示,廚房「解體」的瞬間讓觀眾們大吃一驚,大家開始懷疑整個發表會到底有多少是真實的?又有多少是AI的功勞?

老實說,回頭認真看這14秒,廚房「解體」的效果還算驚艷,但合成版黃仁勳的肢體動作比較僵硬,甚至口型有些對不上。要辨別出來是AI的傑作,跟真人版區分開來並不算太難。

但最初在誤讀的消息傳出時,我也一度陷入自我懷疑,開始感覺這1小時48分鐘裡,黃老闆真人出鏡時的每個笑容,似乎都有著祖克柏同款的機器人味道。

嗯,看來他是假的。嗯?他真是假的嗎?

為什麼我們會為真假老黃的問題而感到困惑?可能是因為,我們生活在一個「眼見未必為實」的世界裡。

以Deepfake技術為例,曾經它被用來生產女明星換臉色情影片,或政客名人假新聞。如今,這項技術的應用變得更廣泛了,只需要一張大頭照,你身邊的女同事或女性朋友都可能成為裸照受害者

萬物皆可Deepfake的年代,任意篡改影片和語音也只是基本操作。

電話那頭的人類萌妹,實際上可能是摳腳大漢詐騙犯在操縱的AI。2019年,就有騙子通過AI合成的語音,冒充一家英國能源公司德國母公司的CEO,成功從該公司員工手裡騙走22萬歐元。

今天,就連直播都未必可信。舉個例子,輝達最近推出了一種即時虛擬形象技術。即使工程師正戴著口罩在咖啡館摸魚,對方在視訊會議畫面裡看到的,也可以是他此刻人在辦公室履西裝革履風度翩翩。只要你願意,還可以瞬間切換到陽光與海灘的度假形象。

多位專家提醒,這種現象很容易讓人們對社交網路的內容、乃至對整個社會的不信任。

隨著現實和虛擬的界線日漸模糊,我們分辨人類和AI的雷達將會頻繁失靈。在元宇宙(Metaverse)即將成真抵達的未來,你問我眼前的老黃是不是真老黃?我真不敢回答。

人類需要一個小小的陀螺

就在上個月,CNN紀錄片《Roadrunner: A Film About Anthony Bourdain》引起了一波關於AI使用道德倫理的討論。

紀錄片的主人公,是已故的明星廚師Anthony Bourdain。片中採用了很多他生前的影片和音訊素材,但有一點,導演並沒有主動告知公眾:有3句聽起來像是Bourdain本人敘述的旁白,其實是由AI技術模仿生成的。

雖然這3句話的原文都來自Bourdain撰寫的郵件,但仍然讓人感到不適、憤怒和被欺騙。紐約大學新聞學教授Meredith Broussard表示,跟虛構的影視作品不同,人們認為紀錄片是真實的,如果作品中使用了AI,就應該明確說明。

Gartner Research的分析師Nicole Greene,也贊成在AI介入的時候明確告知,「不管是品牌跟虛擬偶像合作,還是電影用AI技術重現逝世演員的角色,只要消費者知道正在發生的事情,他們是可以接受的。」

從2015年開始,美聯社一直使用AI自動生成公司財報類新聞,每一篇都會附上注釋:「本故事由Automated Insights自動生成」。清清楚楚告訴你,這就是AI搬磚寫的稿子。

這簡單的一句說明,就像是恐怖電影開始前的「家長指引」,泡麵包裝和漢堡廣告的「一切以實物為準」。它是最基本的信息告知,也是生產方對消費者的負責任。在Deepfake等技術作惡消耗信任的時代,甚至能帶來信任的重建。

我們並不拒絕AI闖入現實生活,畢竟,它為高效和創意帶來了無限種新的可能性(至於AI的濫用,那是另一個話題了)。但我們都希望能擁有知情權。

目前全球最火紅的虛擬偶像之一Lil Miquela,2016年出道,2018年才承認自己並非真實的人類。現在,她的Instagram自我介紹寫的是「一個住在洛杉磯的19歲機器人」;而同樣受歡迎的Imma,則稱自己為「對日本文化感興趣的虛擬女孩」。

雖然本質上只是一串由0和1組成的程式碼,但絲毫不影響年輕人對她們的追捧。今天,Miquela和Imma坐擁百萬粉絲,時尚和廣告合作資源接到手軟,是名副其實的社群網路紅人。

回頭看這次輝達的真假黃仁勳,如果能勞煩AI或工作人員在演示畫面加一行說明,是不是就可以避免「震驚!全世界都被騙到了」「發表會中的老黃全是假的」這種烏龍事件?

在真假難辨的世界裡,人類需要有《全面啟動》裡那個旋轉或倒下的陀螺,提醒我們:前方是虛擬空間,請保持警惕,小心通行。

目前,Facebook、Google和Twitter等互聯網公司,都在研究如何檢測並遏制Deepfake影片的傳播,一些地區也頒布了相關禁令。但這仍然像是一場「貓抓老鼠」的遊戲。

至於AI的使用界線和道德倫理問題,未來估計也會有相關法律法規祭出。朋友,我們正站在元宇宙的入口,假亦真時真亦假,一切才剛剛開始。

本文為愛范兒授權刊登,原文標題為「全世界都被騙到了?英偉達發佈會「數字替身」出場 14 秒,暴露了一個大問題