蘋果研究人員稱其設備端模型ReALM性能優於GPT-4,可大幅提升Siri智慧程度
品玩 / 何渝婷編譯
2024-04-02 11:50

(取自蘋果官網)

根據《 51CTO 》報導,在最近的一篇研究論文中,蘋果的人工智慧團隊描述了一種可以顯著提升 Siri 智慧的模型,而且他們認為這個名為 ReALM 的模型在測試中,優於 OpenAI 的知名語言模型 GPT-4.0。

ReALM 的特別之處在於,它可以同時理解用戶螢幕上的內容和正在進行的操作。

論文將資訊分為以下三種類型,包括螢幕實體,指的是當前顯示在用戶螢幕上的內容;對話實體,指的是與對話相關的內容。例如,用戶說「打電話給媽媽」,那麼媽媽的聯絡人資訊就是對話實體;背景實體,指的是與用戶當下操作或螢幕顯示內容可能並不直接相關的實體,比如正在播放的音樂或即將響起的鬧鈴。

如果能夠完美運行,ReALM 將使 Siri 變得更加智慧和實用,他們將 ReALM 與 OpenAI 的 GPT-3.5 和 GPT-4.0 進行了性能對比:「我們同時測試了 OpenAI 提供的 GPT-3.5 和 GPT-4.0 模型,並為它們提供了上下文訊息,讓它們預測一系列可能的實體。GPT-3.5 只接受文字輸入,因此我們只提供了文字提示;而 GPT-4 能夠理解圖像資訊,因此我們為它提供了螢幕截圖,這顯著提升了它的螢幕實體辨識性能。」

論文的結論之一是,ReALM 即使擁有比 GPT-4 少得多的參數,也能在性能上與之匹敵,並且在處理特定領域的用戶指令時表現更加出色,這使得 ReALM 成為一種可以在設備端運行的、實用高效的實體辨識系統。

本文為品玩授權刊登,原文標題為「蘋果研究人員稱其設備端模型 ReALM 性能優於 GPT-4,可大幅提升 Siri 智能程度