不用Claude寫程式會被甩在後面?AI正重塑軟體開發生態
品玩 / 洪嘉鎂編譯
2024-08-12 15:10

OpenAI的「權力遊戲」仍在持續上演,這回是共同創辦人John Schulman離職了。他在OpenAI工作近9年後,轉投競爭對手Anthropic陣營。

John Schulman表示,此舉並非出於對OpenAI的不滿,而是為了更專注於AI研究,並重返技術第一線。他認為Anthropic能提供新的視角和研究環境,更符合他的職涯規劃。這與先前離開OpenAI的首席科學家Ilya Sutskever和負責人Jan Leike給出的理由相似。

此外,OpenAI產品負責人Peter Deng也選擇離職,總裁Greg Brockman將延長休假至年底。至此,OpenAI的11位共同創辦人中,只剩下執行長Sam Altman和Wojciech Zaremba,以及仍在長期休假中的Greg Brockman。這次高層的離職再次引發業界對OpenAI發展現況的討論,而這也是繼Jan Leike之後,OpenAI高層再次跳槽Anthropic。

然而,與OpenAI「動盪」的一年形成鮮明對比的是Anthropic,展現出令人矚目的發展勢頭。不僅吸引了OpenAI人才加盟,其最新產品也廣受用戶好評。

在競爭日益激烈的市場中,Anthropic憑藉獨特的公司架構和產品理念逐漸吸引了更多關注。雖然與ChatGPT還存在較大差距,但在過去6個月中,Claude的流量佔比逐漸增加,尤其是最近一段時間顯示出顯著的成長趨勢。

「Claude額度用完就下班」

Anthropic是一家成立於2021年的人工智慧新創公司,團隊中包括多位OpenAI的前員工。該公司由創辦人Dario和Daniela Amodei兄妹掌舵,分別擔任執行長和總裁。兩人此前曾在OpenAI擔任高層職務。因為對OpenAI發展方向產生分歧,於是離職創辦了Anthropic。自Anthropic創立以來,這兩家位於舊金山的公司一直在激烈競爭,爭相開發最佳的AI模型。

Anthropic最新的模型是Claude 3.5 Sonnet,在多個領域樹立了新的業界標竿,包括研究生級別的推理能力(GPQA測試)、大學生水平的知識儲備(MMLU測試)以及程式設計技能(HumanEval測試)。在多個評估中表現優異,超越了競爭對手模型,同時保持了中階模型Claude 3 Sonnet的速度和成本。

Sonnet 3.5在chatbot arena程式碼類別中排名第一。

Claude 3.5超強的程式碼生成能力尤其備受好評,許多程式設計師表示寫程式已經離不開Claude 3.5 Sonnet的幫助。最近,Y Combinator執行長在X轉發了一篇讚揚Claude Sonnet 3.5的文章,獲得了超過400萬的瀏覽量。

在文章中,作者寫道,在使用Claude Sonnet 3.5後,工作效率有了顯著提升,可以比以前快10倍的速度實現大多數流行應用程式的技術部分。雖然仍然需要做出架構和基礎設施的決策,但現在像UI元件功能這樣的事情快了10倍,讓迭代速度非常快。

他的工作流程分為三個步驟:

1. 認真思考功能,並與Claude討論;

2. 為該功能編寫基本規格(通常只是幾句話和要點),並與Claude進行迭代;

3. 確保為Claude提供所有相關背景,並要求實作(程式碼)

ottogrid.ai的執行長也在跟帖中表示,他們有50%的程式碼是Claude寫的,明年會提高到80%,並直言「不用Claude 3.5寫程式?小心被我們這樣的團隊甩在後面。」

「Claude用不了,我乾脆決定放一天假」

「Claude額度用完就下班」

更誇張的是,Anthropic的一名工程師Erik Schluntz因自行車事故摔斷右手,只能用左手打字,他利用語音轉文字和Claude AI來繼續工作,一週內甚至寫出了3000多行程式碼。

Erik Schluntz還撰文分享了他的心得,他認為AI在軟體開發領域的應用呈現出快速發展的趨勢。他預測,未來1-3年,AI工程師將成為現實,能夠自主和協同工作。屆時,創造力將成為唯一的瓶頸。

Artifact:開啟AI互動革命

值得一提的是,Claude還推出了新的互動方式Artifact,該功能允許用戶在AI對話介面中直接執行和除錯程式碼。Artifacts的主要特點包括即時程式碼執行、互動式操作、視覺化預覽以及跨平台分享能力。這些特性使得開發者能夠快速驗證想法、迭代原型,並方便地展示成果。

「Claude 3.5 Sonnet + Artifacts是一個『改變遊戲規則的產品』。」

Artifacts為開發者提供了更直接的程式設計體驗。許多開發者表示,這一功能開啟了AI輔助開發的新可能性,有潛力改變目前的應用程式開發模式。

乍看之下,Artifacts可能只是一個不起眼的更新。只是一個專門的工作區,與聊天介面並列,讓用戶即時操作和優化AI生成的內容。但這個看似簡單的新增功能,卻可能是未來幾年AI最關鍵的戰場之一:互動介面。

因為AI一大挑戰不僅在於創造更智慧的AI,而是如何讓它變得易於使用、直觀且無縫融入現有的工作流程中。

這也是Anthropic與OpenAI等競爭對手截然不同的地方。ChatGPT的新語音功能讓人眼前一亮,Google強調Gemini在知識獲取和處理方面的能力,但Anthropic瞄準的是一個更根本的問題:如何將AI從一個花俏的聊天機器人轉變為一個真正的合作夥伴?

透過創立一個可以輕鬆編輯、最佳化並融入現有專案的AI生成內容的空間,Anthropic正在試圖弭平AI作為工具與AI作為團隊成員之間的差距。這一轉變有可能徹底改變各個產業的工作模式。

這也凸顯了AI開發中日益擴大的理念分歧。OpenAI和Google似乎陷入了模型能力的軍備競賽,彼此爭相打造最大、最智能的AI。而Anthropic則在下一盤不同的棋,專注於實用性和使用者體驗。

在一個常常被指責追求基準測試,而忽視實際應用的產業,Anthropic對用戶體驗的重視,可能讓自己脫穎而出。隨著企業努力將AI整合到業務之中,那些不僅足夠智慧,還能提供直觀介面和無縫工作流程整合的解決方案將占據決定性優勢。

隨著模型之間能力差距縮小的背景下,建立一個圍繞模型構建生態系統是留住客戶的關鍵。特別是在程式設計領域,Artifacts為開發者提供了一個全新的、更加高效的工作流程。

當然,Artifacts還處於起步階段,競爭對手也不會袖手旁觀。可以預見的是,隨著其他公司意識到重構使用者介面的重要性,這一領域將湧現大量創新。

「Anthropic穩健的發布,OpenAI則常被批評過度宣傳」

「發生在OpenAI的事情不會發生在我們身上」

OpenAI此前的「宮鬥」風波中,董事會解雇了Sam Altman,這件事之所以可能發生,原因在於OpenAI的公司結構埋下的隱患。在OpenAI的架構中,公司由不對公司股東負責的非營利董事會管理。

Anthropic的結構更接近傳統公司,它有一個對股東負責的董事會,不過,Anthropic也採用了非傳統的公司架構,它不是一家有限責任公司,而是一家公益公司(PBC),這意味著除了有增加股東利潤的受託責任外,其董事會還有法律空間確保「變革性AI有助於人類和社會繁榮發展」,也就是說董事會選擇優先考慮安全而非增加利潤,股東將更難對Anthropic董事會提起訴訟。

Anthropic一直以其獨特的公司結構自豪,認為自己與OpenAI有所不同。Anthropic也曾向媒體強調,發生在OpenAI的事情不會發生在Anthropic身上。然而,Anthropic的結構本質上是一種實驗性設計。哈佛法學教授Noah Feldman在Anthropic建立早期治理結構時曾擔任外部顧問,他表示即使是世界上最好的設計,有時也未必能奏效。但他對Anthropic的成功抱有很大的希望。

除了公司結構,OpenAI和Anthropic的另外一大區別在於,使用一種結構化的方法來確保AI系統的行為符合特定的倫理標準和行為準則,這是Anthropic的一個重要特徵。

Anthropic更加關注人工智慧的安全性和可控性,致力於開發出可解釋、可審查、可引導的AI,以確保人工智慧能夠為人類服務。因此,Anthropic在訓練Claude時採用了一種被稱為「憲法AI」(Constitutional AI,CAI)的方法,與OpenAI的GPT模型訓練方式存在差異。

透過給Claude制定一系列指導方針或「憲法」,在模型訓練的早期階段就被引入,而不僅僅是在生成答案後用於篩選。這些原則涵蓋了從道德倫理到資料隱私的廣泛領域,目的是讓AI系統在符合這些原則的情況下作出決定和生成內容。

然而,這種承諾也帶來了更大的挑戰。儘管Anthropic堅守其獨特的公司結構和使命,但在現實世界的商業環境中,它仍需應對外部壓力和內部平衡的雙重挑戰。

過去一年裡,Anthropic融資超過70億美元,主要來自亞馬遜和谷歌這樣的科技巨頭。這些公司,連同微軟和Meta,都在爭相主導AI領域。未來,Anthropic還需要更多資金支持。它必須持續推出更好的產品,展示巨大的利潤前景來滿足投資者的期望,才能獲得構建頂級模型所需的巨額資金。

另一方面,如果Anthropic能保持目前這種比OpenAI更為穩健發展趨勢,公司或許能夠開闢一條新路——在這條路上,AI可以安全發展,不受市場的惡劣壓力的影響,並為整個社會帶來福祉。

本文為品玩授權刊登,原文標題為「人人都愛Anthropic