DeepSeek-V3.2-Exp发布:稀疏注意力革新长文本处理,API成本腰斩引领行业竞争

日期:2025-09-30 09:39:29 / 人气:36

9月29日,DeepSeek创始人梁文锋团队正式发布实验性大模型DeepSeek-V3.2-Exp并同步开源。作为迈向下一代架构的过渡版本,该模型在V3.1-Terminus基础上引入自主研发的DeepSeek稀疏注意力(DSA)机制,旨在攻克长文本处理的效率瓶颈,同时通过API价格大幅下调与双版本算子开源,进一步降低开发者门槛,引发行业广泛关注。
9月29日,DeepSeek创始人梁文锋团队正式发布实验性大模型DeepSeek-V3.2-Exp并同步开源。作为迈向下一代架构的过渡版本,该模型在V3.1-Terminus基础上引入自主研发的DeepSeek稀疏注意力(DSA)机制,旨在攻克长文本处理的效率瓶颈,同时通过API价格大幅下调与双版本算子开源,进一步降低开发者门槛,引发行业广泛关注。

技术突破:细粒度稀疏注意力实现效率与质量的平衡

DeepSeek-V3.2-Exp的核心创新在于DSA稀疏注意力架构,这是业内首次实现细粒度(fine-grained)稀疏注意力机制。不同于传统全注意力模型对所有token进行无差别计算,DSA采用动态分层稀疏策略,结合粗粒度Token压缩与细粒度Token选择,在保证全局上下文感知的同时,精准聚焦关键信息,显著降低计算开销。
为验证技术有效性,DeepSeek将V3.2-Exp与V3.1-Terminus的训练配置严格对齐。测试结果显示,新模型在通用基准测试、长文本处理及指令推理任务中表现与前代持平,却实现了推理效率的飞跃——解码阶段速度提升高达11.6倍。这种"性能不打折、效率猛提升"的特性,使模型能够直接处理整本书籍、代码仓库或千轮对话等复杂场景,拓展了大模型在文档分析、代码生成等领域的应用边界。

生态革新:TileLang+CUDA双版本算子开源,降低研究门槛

本次发布的另一大亮点是算子开源策略。由于稀疏注意力机制需要全新GPU算子支持,DeepSeek采用"快速原型开发+高效落地"的双轨模式:先用北京大学杨智团队研发的TileLang高级语言进行原型验证,再以TileLang为精度基线,用底层语言实现高效版本。最终开源的算子包含TileLang与CUDA两种版本,前者代码量仅为传统实现的1/6(如FlashAttention算子从500+行精简至80行),且性能持平,极大方便社区进行研究性实验与快速迭代。
值得注意的是,昇腾生态已快速完成V3.2-Exp在vLLM/SGLang推理框架的适配部署,开源全部推理代码与算子实现,形成跨硬件平台的支持能力,进一步扩大了模型的应用范围。

成本革命:API价格腰斩,开发者成本降低超50%

伴随技术优化带来的服务成本下降,DeepSeek同步推出重磅价格政策:在缓存命中场景下,输入价格从0.5元/百万token降至0.2元;缓存未命中场景输入价格从4元/百万token降至2元;输出价格则从12元/百万token大幅砍至3元。按此计算,开发者调用API的综合成本降低超50%,为中小企业与个人开发者开展AI应用提供了极具性价比的选择。
中信建投TMT行业首席分析师武超则评价,此次更新使DeepSeek-V3.2-Exp"易用性再次大幅提升",认为价格与效率的双重优化将加速模型在各行业的落地渗透。目前,官方App、网页端、小程序已全面更新至新模型版本,API服务同步上线。

行业竞逐:大模型领域进入"效率与能力"双轨竞赛

DeepSeek的技术突破正值国内大模型迭代热潮。在2025云栖大会上,阿里云发布旗舰模型Qwen3-Max,其预训练数据量达36T,参数规模超万亿,重点强化了Coding编程与Agent工具调用能力;智谱新模型GLM-4.6已开放API接口调用,预计近日正式发布;月之暗面Kimi则推出Agent模式"OK Computer",通过端到端训练Kimi K2模型提升智能体交互能力。
从行业趋势看,大模型竞争已从早期的参数规模比拼,转向"效率优化+垂直能力深化"的新阶段。DeepSeek通过稀疏注意力架构探索高效transformer路线,与阿里、智谱等企业形成差异化竞争格局。业内人士指出,随着技术迭代加速与成本下降,AI大模型将更快渗透至千行百业,推动产业智能化升级进入实质阶段。

作者:意昂体育




现在致电 xylmwohu OR 查看更多联系方式 →

COPYRIGHT 意昂体育 版权所有