LLM

DeepSeek-V4推出百萬Token長上下文:開放權重模型加速代理式應用落地

DeepSeek發布V4系列模型,主打1M上下文與更省記憶體的KV快取設計,瞄準長流程代理任務。

為何百萬上下文開始變得「可用」

長上下文一直是企業導入代理式工作流程的關鍵瓶頸:文件、郵件、工單與程式碼往往跨越多輪對話與多個工具呼叫,容易出現上下文溢出、推理路徑中斷或成本飆升。DeepSeek-V4把上下文拉到百萬Token,並以更激進的注意力與快取壓縮設計降低記憶體壓力,目標是讓代理在長時間任務中維持一致性,例如跨系統查詢、逐步生成程式改動、或在同一會話內追蹤大量業務規則與例外。

對企業部署與生態的意義

V4同時提供不同尺度的變體,強調在長上下文情境下的推理效率與快取佔用優化,這使得部署端在相同硬體條件下可以承載更長的任務軌跡。對企業而言,長上下文若能以可控成本運行,將改變「先切碎資料再檢索」的工程架構,部分場景可直接把完整專案、合約或客服歷史放入同一會話內處理,減少額外資料管道的維護成本。再加上開放權重帶來的可審核與可微調特性,企業可以在資料主權與合規要求下自行部署,並把模型調校到特定行業語料與流程,推動本地化代理工具更快形成供應鏈。