火山引擎披露最新成績:豆包大模型日均Tokens(大模型文本單位)調用量已突破30萬億。
10月16日,火山引擎發佈豆包大模型系列更新,包括豆包大模型1.6原生支持多種思考長度,並推出了豆包大模型1.6 lite、豆包語音合成模型2.0、豆包聲音複刻模型2.0等全新模型。
澎湃新聞記者獲悉,截至9月底,豆包大模型日均Tokens調用量已突破30萬億,相比今年5月底增長超80%。在企業市場,IDC報告顯示,今年上半年中國公有雲大模型服務市場,火山引擎以49.2%的份額占比位居中國第一。
“大模型創新和服務是AI市場未來最大變數,我們先把產品做好,生態做好,才能考慮市場未來的發展。”在接受澎湃新聞等媒體採訪時,火山引擎CEO譚待表示。
國內首個“分檔調節思考長度”的模型
此次升級中,豆包大模型1.6成為國內首個原生支持“分檔調節思考長度”的模型,提供Minimal、Low、Medium、High四檔選擇,可適配企業不同場景需求。
據實測,選擇低思考長度檔位時,模型總輸出Tokens較舊版下降77.5%、思考時間縮短84.6%,且效果保持不變——這一優化直接解決了此前深度思考模式“使用率僅18%”的痛點。
以低思考長度為例,相比模型升級之前的單一思考模式,升級後的豆包1.6模型總輸出tokens下降77.5%、思考時間下降84.6%,模型效果保持不變。
此外,火山引擎推出豆包大模型1.6 lite,相比旗艦版本更輕量、推理速度更快。效果上,該模型超越豆包大模型1.5 pro,在企業級場景測評中較豆包1.5 pro提升14%;在使用量最大的0-32k輸入區間裏,綜合使用成本較豆包1.5 pro降低53.3%。
火山引擎總裁譚待告訴澎湃新聞記者,當前全球AI大模型正沿三大方向演進:深度思考與多模態能力融合、音視頻模型達生產級水準、企業級複雜Agent走向成熟。
“現在Tokens增長趨勢還遠遠沒有結束,未來可能還能漲幾百倍。”譚待坦言,在他看來,“Tokens調用量是衡量企業AI轉型的關鍵指標——若日均Tokens不足10億,很難說真正在做AI轉型”,而火山引擎Tokens增長的核心邏輯是“為客戶創造更大價值”:企業願付費使用,本質是Tokens能帶來“硬體好賣、效率提升、成本降低”等實際增益。
未來增長趨勢:生成類模型
“生成類模型增長非常快,生圖生視頻用得越來越多,大家平時作為用戶,豆包上也會用到這樣的能力。”譚待告訴澎湃新聞記者,另一個增長點是AI代碼(coding),在國外已經用得非常多,國內受限於模型的限制、能力的限制,還沒有完全爆發。
譚待還透露,在過去4年,火山引擎每年營收目標都超預期完成,今年也是如此,“我們應該更早意識到AI變化意味著什麼,我們做好佈局。把這件事情做好,結果就水到渠成。對我們來說,AI大幅降低企業和開發者使用的門檻。”
當天,面對“模型太多選不准”的行業難題,火山引擎發佈國內首個模型智能選擇方案——智能模型路由(Smart Model Router),即日起在火山方舟平臺開放使用,支持“平衡模式”“效果優先模式”“成本優先模式”三種選擇,可自動匹配最優模型,實現“效果與成本雙優”。
實測數據顯示,在效果優先模式下,路由至DeepSeek模型時效果較直接使用DeepSeek-V3.1提升14%;成本優先模式下,在保持DeepSeek-V3.1相似效果的前提下,綜合成本最高下降超70%。值得注意的是,該路由不僅支持豆包全系模型,還相容DeepSeek、Qwen、Kimi等主流開源模型,且路由本身不收費,僅按最終調用的模型計費。
來源:中國澎湃新聞