- +1
DeepSeek春節(jié)再扔王炸?官方披露正測試新模型結(jié)構(gòu)
2月13日,澎湃新聞記者獲悉,DeepSeek 網(wǎng)頁/ APP 正在測試新的長文本模型結(jié)構(gòu),支持 1M 上下文。其API 服務(wù)不變,仍為 V3.2,僅支持 128K 上下文。
這也被外界認(rèn)為,DeepSeek或?qū)⒃诮衲甏汗?jié)再次“炸場”發(fā)布新模型,復(fù)刻去年春節(jié)現(xiàn)象級轟動。
今年1月12日,DeepSeek曾發(fā)布一篇新論文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》(基于可擴(kuò)展查找的條件記憶:大語言模型稀疏性的新維度),梁文鋒位列作者名單中,這篇論文為北京大學(xué)和DeepSeek共同完成。據(jù)分析,這篇論文的核心直指當(dāng)前大語言模型存在的記憶力“短板”,提出了“條件記憶”這一概念。
當(dāng)時行業(yè)就普遍猜測,DeepSeek的下一代模型V4或?qū)⒃诮衲甏汗?jié)前后正式發(fā)布。
去年12月1日,DeepSeek曾經(jīng)同時發(fā)布兩個正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale,官方網(wǎng)頁端、App和API均已更新為正式版 DeepSeek-V3.2,Speciale版本目前僅以臨時API服務(wù)形式開放,以供社區(qū)評測與研究。
據(jù)介紹,DeepSeek-V3.2的目標(biāo)是平衡推理能力與輸出長度,適合日常使用,例如問答場景和通用Agent(智能體)任務(wù)場景。在公開的推理類Benchmark測試中,DeepSeek-V3.2達(dá)到GPT-5的水平,僅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的輸出長度大幅降低,顯著減少計算開銷與用戶等待時間。
作為當(dāng)之無愧的大模型風(fēng)向標(biāo),DeepSeek一舉一動都受到行業(yè)整體關(guān)注。網(wǎng)易有道詞典發(fā)布2025年度詞匯——“deepseek”以 8672940次年度搜索量成功當(dāng)選。據(jù)有道詞典負(fù)責(zé)人介紹,“deepseek”在詞典內(nèi)部的搜索曲線呈現(xiàn)明顯的爆發(fā)式特征,從年初因“低成本”突破算力封鎖起,幾乎每個重要進(jìn)展都會帶動搜索量上漲。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




