27819 阿里法巴六四購A (認購證)
即時 按盤價 升0.230 +0.057 (+32.948%)

25/03/2025 10:37

【AI】螞蟻推出百靈輕量版、增強版,性能達行業領先水平

  外電指螞蟻集團成功使用阿里及華為等國產芯片降低人工智能模型訓練成本20%,訓練出參數規模達2900億的大模型「Ling-Plus」。消息令業界振奮,但不能忽視的是同一份成果發表的另一項細節--螞蟻集團憑藉這次低成本訓練實驗推出了兩款不同規模的MoE大語言模型--百靈輕量版(Ling-Lite)與百靈增強版(Ling-Plus),前者參數規模為168億(激活參數27.5億),Plus基座模型參數規模高達2900億(激活參數288億),兩者性能均達到行業領先水平。

  據內媒《IT之家》報道,該份由螞蟻集團Ling團隊近日發表於論文預印版平台Arxiv的技術成果論文,題為《每一個FLOP都至關重要:無需高級GPU即可擴展3000億參數混合專家LING大模型》。實驗表明,其3000億參數的MoE大模型可在使用國產GPU的低性能設備上完成高效訓練,性能與完全使用英偉達芯片、同規模的稠密模型及MoE模型相當。

  當前,MoE模型訓練通常依賴英偉達H100/H800等高性能GPU,成本高昂且芯片短缺,限制了其在資源受限環境中的應用。螞蟻集團Ling團隊提出「不使用高級GPU」擴展模型的目標,通過創新訓練策略,突破資源與預算限制。在五種不同硬件配置下,Ling團隊對9萬億個token進行Ling-Plus預訓練。結果顯示,使用高性能硬件配置訓練1萬億token的預訓練成本約635萬元人民幣,而採用螞蟻優化方法後,低規格硬件訓練成本降至508萬元左右,節省近20%,且性能與阿里通義Qwen2.5-72B-Instruct和DeepSeek-V2.5-1210-Chat相當。

  報道指出,此前DeepSeek通過算法創新及工程優化,使用英偉達H800訓練出性能頂尖的V3與R1模型,為降低成本、提高效率開辟新道路。報道認為,螞蟻集團的技術成果若得到驗證推廣,將助力國產大模型尋找成本更低、效率更高的國產芯片或其他替代方案,進一步降低對英偉達芯片的依賴。
《經濟通通訊社25日專訊》

【樂本健11月限時優惠!】 憑獨家優惠碼【ETN2511】,購物滿$500即送免費禮品► 了解詳情

備註: 即時報價更新時間為02/01/2026 17:59
  港股即時基本市場行情由香港交易所提供; 香港交易所指定免費發放即時基本市場行情的網站
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ

etnet初心不變 風雨無阻 與你並肩投資路,立即加入成為etnet YouTube頻道會員!

獨家優惠【etnet x 環球海產】 用戶專享全場95折,特價貨品更可折上折,立即選購五星級酒店御用海鮮!

樂本健 x etnet健康網購 | 購物滿額即送免費禮品

大國博弈

回顧25 展望26

貨幣攻略

說說心理話

Watch Trends 2025

北上食買玩

Wonder in Art

理財秘笈

山今養生智慧

輕鬆護老

照顧者 情緒健康