AI 導師吳恩達在其最新一期的 The Batch Newsletter 中,將目光投向了來自螞蟻集團的最新開源模型 Ling-1T。

吳恩達 The Batch Newsletter 首頁截圖
他敏銳地指出:Ling-1T 作為一個非推理(non-reasoning)模型,其性能卻直逼業(yè)界頂尖的閉源模型,這背后隱藏著一個關鍵的技術轉向。

Ling-1T(最右列)與幾款具有代表性的旗艦模型的比較,包括大參數(shù)量的開源模型(DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905)與閉源 API(GPT-5-main、Gemini-2.5-Pro)。此圖也被吳恩達 Newsletter 引用。
吳恩達提到,Ling-1T 在預訓練階段就強化了思維鏈(CoT) ,這種做法「正在模糊推理與非推理模型之間的界限」。這引出了一個業(yè)界都在關心的問題:Ling-1T 卓越的推理能力究竟從何而來?
事實上,Ling-1T 的成功還并非孤例。近兩個月,螞蟻集團以前所未有的速度和力度密集開源了 Ling-mini-2.0、Ling-flash-2.0、萬億參數(shù)的 Ling-1T(參閱報道《更大,還能更快,更準!螞蟻開源萬億參數(shù)語言模型 Ling-1T,刷新多項 SOTA》),乃至其后的 Ring 系列推理模型(參閱《螞蟻 Ring-1T 正式登場,萬億參數(shù)思考模型,數(shù)學能力對標 IMO 銀牌》)。這一系列動作的背后,都指向了一套統(tǒng)一的「秘密武器」。
現(xiàn)在,通過一份長達 58 頁的硬核技術報告《Ling 2.0 Technical Report》,螞蟻集團百靈團隊(Ling Team)揭示了這個答案。
