2月13日,記者獲悉,DeepSeek 網頁/ APP 正在測試新的長文本模型結構,支持 1M 上下文。其API 服務不變,仍為 V3.2,僅支持 128K 上下文。
這也被外界認為,DeepSeek或將在今年春節再次“炸場”發佈新模型,複刻去年春節現象級轟動。
今年1月12日,DeepSeek曾發佈一篇新論文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》(基於可擴展查找的條件記憶:大語言模型稀疏性的新維度),梁文鋒位列作者名單中,這篇論文為北京大學和DeepSeek共同完成。據分析,這篇論文的核心直指當前大語言模型存在的記憶力“短板”,提出了“條件記憶”這一概念。
當時行業就普遍猜測,DeepSeek的下一代模型V4或將在今年春節前後正式發佈。
去年12月1日,DeepSeek曾經同時發佈兩個正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale,官方網頁端、App和API均已更新為正式版 DeepSeek-V3.2,Speciale版本目前僅以臨時API服務形式開放,以供社區評測與研究。
據介紹,DeepSeek-V3.2的目標是平衡推理能力與輸出長度,適合日常使用,例如問答場景和通用Agent(智能體)任務場景。在公開的推理類Benchmark測試中,DeepSeek-V3.2達到GPT-5的水準,僅略低於Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的輸出長度大幅降低,顯著減少計算開銷與用戶等待時間。
作為當之無愧的大模型風向標,DeepSeek一舉一動都受到行業整體關注。網易有道詞典發佈2025年度辭彙——“deepseek”以 8672940次年度搜索量成功當選。據有道詞典負責人介紹,“deepseek”在詞典內部的搜索曲線呈現明顯的爆發式特徵,從年初因“低成本”突破算力封鎖起,幾乎每個重要進展都會帶動搜索量上漲。
來源:中國澎湃新聞