DeepSeek最新V3.2模型亮相,重新定义AI发展边界

读懂AI3天前发布 wuaiai
19 00

背景与事件起点
12月初,围绕Scaling Law是否“撞墙”的讨论在全球人工智能领域愈演愈烈。就在诸多声音认为大模型扩展红利趋于见顶之时,DeepSeek以V3.2与V3.2-Speciale的发布,给行业抛出了一个截然不同的判断——规模并未失效,只是需要新的方法论、新的路径突破。

Scaling争议与DeepSeek的回应姿态
此前,OpenAI前首席科学家Ilya Sutskever指出,预训练时代的规模扩张已近尾声,单纯扩大参数与训练规模难以带来质变。然而,DeepSeek选择以产品与技术而非辩论作答。模型发布后,研究员Zhibin Gou明确表示,持续扩大模型规模、数据量、上下文长度及强化学习能力,是DeepSeek一年探索后得出的确定路径。这一发声,无疑将Scaling Law 的辩论重新拉回技术本身。

V3.2的关键性能突破
V3.2定位“日常主力模型”,对标GPT-5,并在多个推理类Benchmark中接近甚至逼近对手:AIME 2025数学竞赛达93.1%,HMMT二月赛达到92.5%。在模型架构上,DeepSeek Sparse Attention(DSA)的落地,大幅降低长上下文下的计算复杂度,让性能与成本重新获得平衡。此外,V3.2实现了“思考模式”与“工具调用”的联合,突破以往推理模型在工具链调度上的限制。

V3.2-Speciale的极限推理实验
Speciale版本则被设计为“长思考增强版”,对标Gemini 3.0 Pro,在多项国际竞赛中取得金牌。其最大特征是强化推理过程与验证链路,在相同任务条件下输出Token数量显著高于其他模型。例如AIME任务中,Speciale输出23k tokens,远高于GPT-5 High与Gemini 3.0 Pro。得益于DSA架构与优化后的计费策略,其整体成本反而远低于竞品,最高达62倍成本优势。

行业展望与未来猜想
DeepSeek在技术报告中坦言,目前世界知识广度仍弱于Gemini 3.0 Pro,但下一步将通过扩大预训练算力予以弥补。在多模态架构、强化学习机制及记忆系统逐步成型的背景下,行业普遍猜测DeepSeek下一代产品或将呈现出具备更长期记忆、更强环境感知及更高自主性的智能系统。

面向未来的判断
Scaling Law 是否“撞墙”也许难有定论,但DeepSeek以V3.2系列证明:规模仍然有效,只是要以新的训练范式、架构创新与推理监督重新激活红利。模型时代或许并未结束,只是刚刚重启。

© 版权声明

相关文章