根據 Venturebeat 的報導,蘋果公司的研究團隊在 Hugging Face 上發布了一系列開放的 DCLM 模型。
該系列包含兩個主要模型:一個有 70 億個參數,另一個有 14 億個參數。這兩個模型在基準測試中的表現都相當不錯,尤其是較大的那個模型——其性能超越了 Mistral-7B,並正在接近其他領先的開放模型,包括 Llama 3 和 Gemma。
值得注意的是,隨著模型權重、訓練程式碼和預訓練資料集的發表,此專案真正實現了開源。
本文為品玩授權刊登,原文標題為「蘋果開源小模型 DCLM-Baseline-7」