DeepSeek推出V3.1大模型 上下文窗口翻倍至128K tokens

▲▼Deepseek。(圖/路透)

▲Deepseek。(圖/路透)

記者吳立言/綜合報導

DeepSeek於19日正式發表旗艦大語言模型DeepSeek-V3.1。新版本將上下文窗口容量由64K提升至128K tokens,大幅增強長文本處理能力,並保持與舊版API完全相容。

[廣告] 請繼續往下閱讀.

這次更新距離今年3月推出的「V3-0324」僅五個月。DeepSeek表示,儘管受制於國際制裁限制高端算力供應,公司仍透過高效訓練與優化策略實現快速迭代,強化其在開源大模型領域的競爭力。

技術亮點包括:

更長上下文處理能力:可支援更複雜的多輪對話與查詢。

結構化輸出:增強表格、清單等格式生成能力,提高可讀性與應用價值。

[廣告] 請繼續往下閱讀..

物理理解能力提升:對科學計算與工程模擬提供更佳支援。

MoE架構優化:在常規推理任務中無需「DeepThink」模式即可維持效率與品質。

DeepSeek-V3.1已於官網、行動App與微信小程序等平台上線,開發者可無縫遷移使用。雖然Hugging Face尚未釋出最新權重,公司重申將持續推動開源,並提供技術支持。

此次升級不僅強化了DeepSeek在中國AI技術創新的地位,也為全球開源大語言模型社群注入新動能。

[廣告] 請繼續往下閱讀...