
当 Gemini 和 Claude 接连炸场时顶级配资,不少网友都在追问:DeepSeek 去哪儿了?现在,这条熟悉的「鲸鱼」终于回来了。
就在刚刚,DeepSeek 在 HuggingFace 发布并开源了拥有 685B 参数的全新数学推理模型 DeepSeekMath-V2。
据介绍,过去一年里,大型语言模型在数学推理领域突飞猛进,通过强化学习训练,这些模型在 AIME、HMMT 等数学竞赛中的表现从原本差强人意迅速提升到接近饱和的水平。
然而顶级配资,这种进步背后隐藏着一个根本问题:现有方法只看答案对不对,不管推理过程是否严谨。正确答案不等于正确的推理过程,而数学证明恰恰需要严密的逻辑推导。
DeepSeek 团队的突破在于找到了一个新方向——让 AI 不仅会做题,还会检查自己的推理过程是否严谨。
具体做法是先训练一个「评判员」来找出证明过程中的问题,再让「答题者」根据这些反馈不断改进。模型会反复修改自己的证明,直到找不出毛病为止,而不是靠碰运气得出答案。
这种自我验证的能力意味着什么?顶级配资
尽管目前还处于早期阶段,但如果这条路走通了,未来 AI 可能真的具备独立验证数学猜想、甚至推进开放问题研究的能力。
论文显示,DeepSeekMath-V2 基于 DeepSeek-V3.2-Exp-Base 开发,在 IMO 2025 和 CMO 2024 等国际数学奥林匹克竞赛中达到了金牌水平,也是创造历史地成为首个 IMO 金奖级别的开源模型;在美国普特南数学竞赛中也取得了 118 分的高分,满分为 120 分,而人类参赛者的最高分仅为 90 分。
该模型已根据 Apache 2.0 协议开源发布。
研究团队表示,这些成果表明让 AI 学会「自己检查自己」是一条可行的路径,有望推动数学 AI 系统的进一步发展。哪怕是在 AI 数学推理的竞赛中,DeepSeek 也用一个超越人类的成绩证明了自己依然在牌桌上。
附上相关阅读地址:
新模型地址:https://huggingface.co/deepseek-ai/DeepSeek-Math-V2新模型技术论文:https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf





众合网配资提示:文章来自网络,不代表本站观点。