《經濟通通訊社25日專訊》外電指螞蟻集團成功使用阿里及華為等國產芯片降低人工智能
(AI)模型訓練成本20%,訓練出參數規模達2900億的大模型「Ling-Plus」
。消息令業界振奮,但不能忽視的是同一份成果發表的另一項細節--螞蟻集團憑藉這次低成本
訓練實驗推出了兩款不同規模的MoE大語言模型--百靈輕量版(Ling-Lite)與百
靈增強版(Ling-Plus),前者參數規模為168億(激活參數27﹒5億),
Plus基座模型參數規模高達2900億(激活參數288億),兩者性能均達到行業領先水
平。
據內媒《IT之家》報道,該份由螞蟻集團Ling團隊近日發表於論文預印版平台
Arxiv的技術成果論文,題為《每一個FLOP都至關重要:無需高級GPU即可擴展
3000億參數混合專家LING大模型》。實驗表明,其3000億參數的MoE大模型可在
使用國產GPU的低性能設備上完成高效訓練,性能與完全使用英偉達芯片、同規模的稠密模型
及MoE模型相當。
當前,MoE模型訓練通常依賴英偉達H100╱H800等高性能GPU,成本高昂且芯
片短缺,限制了其在資源受限環境中的應用。螞蟻集團Ling團隊提出「不使用高級GPU」
擴展模型的目標,通過創新訓練策略,突破資源與預算限制。在五種不同硬件配置下,Ling
團隊對9萬億個token進行Ling-Plus預訓練。結果顯示,使用高性能硬件配置訓
練1萬億token的預訓練成本約635萬元人民幣,而採用螞蟻優化方法後,低規格硬件訓
練成本降至508萬元左右,節省近20%,且性能與阿里通義Qwen2﹒5-72B-
Instruct和DeepSeek-V2﹒5-1210-Chat相當。
報道指出,此前DeepSeek通過算法創新及工程優化,使用英偉達H800訓練出性
能頂尖的V3與R1模型,為降低成本、提高效率開辟新道路。報道認為,螞蟻集團的技術成果
若得到驗證推廣,將助力國產大模型尋找成本更低、效率更高的國產芯片或其他替代方案,進一
步降低對英偉達芯片的依賴。(sl)
《說說心理話》遺體修復師分享入行過程!初入行有冇心理壓力?「無言老師」計劃推行初衷?► 即睇