MLPerf最新結果公布,NVIDIA仍是「王者」
姚勇喆 / 何渝婷編譯
2022-07-04 09:50

(取自NVIDIA臉書粉專)

MLCommons社群發布了最新的MLPerf2.0基準測評結果,在新一輪的測試中,MLPerf新添加了一個對象檢測基準,用於在更大的OpenImages數據集上訓練新的RetinaNet。

MLperf表示,這個新的對象檢測基準能夠更準確反映適用於自動駕駛、機器人避障和零售分析等應用的先進機器學習訓練成果。

MLPerf2.0的結果與去年12月發布的v1.1結果大致相同,AI的總體性能比上一輪發佈提高了大約1.8倍。

有21家公司和機構在最新一輪的測試中,提交了MLPerf基準測試的成績,提交的成績總數超過了260分。

NVIDIA依然「打滿全場」

本次測試中,NVIDIA依然是唯一一家完成2.0版本中全部八項基準測試的參與者,這些測試包含了目前流行的AI用例,包括語音辨識、自然語言處理、推薦系統、目標檢測、圖像分類等方面的內容。

除了NVIDIA之外,沒有其他加速器運行過所有基礎測試。而NVIDIA自2018年12月,首次向MLPerf提交測試結果以來就一直完成所有基礎測試。

共有十六家合作夥伴使用了NVIDIA平台提交了本輪測試結果,包括華碩、百度、中國科學院自動化研究所、戴爾科技、富士通、技嘉、新華三、慧與、浪潮、聯想、寧暢和超微。在這一輪MLPerf的基準測試結果中,NVIDIA及其合作夥伴佔了所有參賽生態夥伴的90%。

這顯示出了NVIDIA模型良好的通用性。

通用性在實際生產中,為模型協同工作提供了基礎。AI應用需要理解用戶的要求,並根據要求對圖像進行分類、提出建議並以語音資訊的形式進行回應。

要完成這些任務,需要多種類型的人工智慧模型協同工作,即使是一個簡單的用例也需要用到將近10個模型,這就對AI模型通用性提出了要求。

好的通用性意味著用戶在整個AI流程中,可以盡可能使用相同的設施工作,並且還能夠兼容未來可能出現的新需求,從而延長基礎設施的使用壽命。

AI處理性能三年半提高23倍

在本次基準測評結果中,NVIDIA A100仍然保持了其單晶片性能的領軍者地位,在八項測試中的四項中取得了最快速度的成績。

兩年前,NVIDIA在MLPerf 0.7的基準測試中首次使用了A100 GPU,這次已經是NVIDIA第四次使用該GPU提交基準測試成績。

自MLPerf問世以來的三年半時間裡,NVIDIA AI平台在基準測試中已經實現了23倍的性能提升。而自首次基於A100提交MLPerf基準測試兩年以來,NVIDIA平台的性能也已經提高了6倍。

性能的不斷提升得益於NVIDIA在軟體上的創新,持續釋放了Ampere架構的更多性能,如在提交結果中大量使用的CUDA Graphs可以最大限度地減少跨多加速器運行的啓動開銷。

值得注意的是在本輪測試中,NVIDIA沒有選擇使用其最近發布的Hopper GPU,而是選擇了基於NVIDIA Ampere架構的NVIDIA A100 Tensor Core GPU。

NVIDIA Narasimhan表示,NVIDIA更希望專注於商業上可用的產品,這也是NVIDIA選擇在本輪中基於A100提交結果的的原因。

鑒於新的Hopper Tensor Cores能夠應用混合的FP8和FP16精度的數據,而在下一輪MLPerf測試中NVIDIA很有可能會採用Hopper GPU,可以預見在下一輪基準測試中,NVIDIA的成績有望取得更大的飛躍。

本文為雷鋒網授權刊登,原文標題為「MLPerf最新結果公佈,英偉達仍是「王者」