DeepSeek發佈新版本模型,調用API成本降低超50%。
9月29日,DeepSeek正式發佈DeepSeek-V3.2-Exp模型,這是一個實驗性(Experimental)的版本。
值得注意的是,此前有不少科技博主發現,DeepSeek-V3.2新模型已上傳至其HuggingFace官方頁面,隨後被刪除,此後DeepSeek正式公告新版本的推出。
據DeepSeek介紹,作為邁向新一代架構的中間步驟,V3.2-Exp在V3.1-Terminus的基礎上引入DeepSeek Sparse Attention(一種稀疏注意力機制),針對長文本的訓練和推理效率進行探索性優化和驗證。目前,官方App、網頁端、小程式均已同步更新為DeepSeek-V3.2-Exp,同時API大幅度降價。
據瞭解,DeepSeek Sparse Attention(DSA)首次實現細粒度稀疏注意力機制,在幾乎不影響模型輸出效果的前提下,實現長文本訓練和推理效率的大幅提升。為嚴謹評估引入稀疏注意力帶來的影響,把DeepSeek-V3.2-Exp的訓練設置與V3.1-Terminus進行嚴格的對齊。在各領域的公開評測集上,DeepSeek-V3.2-Exp的表現與V3.1-Terminus基本持平。
在新模型的研究過程中,需要設計和實現很多新的GPU算子,使用高級語言TileLang進行快速原型開發,以支持更深入的探索。在最後階段,以TileLang作為精度基線,逐步使用底層語言實現更高效的版本。此次開源的主要算子包含TileLang與 CUDA兩種版本。
DeepSeek表示,得益於新模型服務成本的大幅降低,官方API價格也相應下調,開發者調用DeepSeek API的成本將降低50%以上。從價格來看,輸入緩存命中從0.5元降至0.2元/百萬tokens,緩存未命中從4元降至2元/百萬tokens,輸出由12元降至3元/百萬tokens。
除了DeepSeek,國內另一大模型廠商智譜的新一代旗艦模型GLM-4.6也即將發佈,目前,在Z.ai官網可以看到,GLM-4.5標識為上一代旗艦模型。
此前9月18日,梁文鋒帶著DeepSeek-R1的研究,登上最新一期國際頂級期刊《自然》(Nature)封面。
今年1月份,國產大模型公司深度求索(DeepSeek)在預印本平臺arxiv公佈論文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,創始人梁文鋒位於署名之列。
《自然》雜誌指出,如此總結DeepSeek-R1帶來的進步:如果訓練出的大模型能夠規劃解決問題所需的步驟,那麼它們往往能夠更好地解決問題。這種“推理”與人類處理更複雜問題的方式類似,但這對人工智慧有極大挑戰,需要人工干預來添加標籤和注釋。
DeepSeek的研究人員揭示了他們如何能夠在極少的人工輸入下訓練一個模型,並使其進行推理。DeepSeek-R1模型採用強化學習進行訓練。在這種學習中,模型正確解答數學問題時會獲得高分獎勵,答錯則會受到懲罰。
來源:中國澎湃新聞