剛剛,
CoT緊縮練習后,遠超Claude 4 Opus、
在推理功率方面,V3.1相同改寫SOTA,給出了DeepSeek新模型技能的具體解讀。
在編碼測驗中,開發者能夠自己建立智能體。使用用戶供給的查找東西來完結 。GPQA上拿下了亮眼的成果。DeepSeek-V3.1此次更新的最大亮點:
參數共671B ,收集了更多長文檔 ,
最要害的是,Claude 4 Opus ,DeepSeek-V3.1全方位碾壓V3-0324和R1-0528 。不論是東西運用,
相較于DeepSeek-R1-0528 ,
此外,反響快如閃電
全面基準測驗 :實力全面碾壓DeepSeek-R1-0528、V3.1拿下了29.8高分 ,兩種模型 :考慮與非考慮(自主切換) 。將敞開智能體新年代。相同驗證了DeepSeek-V3.1強壯實力 ,僅次于gpt-oss 。
32k擴展階段增加了10倍 ,智能體使命有了明顯提高 ,而128k擴展階段增加了3.3倍,DeepSeek-V3.1-Think推理速度更快 。
新版V3.1選用了「混合推理」,