返回顶部
AiGoe.com 首页 AI快讯

国产“数学金牌”横空出世:DeepSeek-Math-V2 开源文件已上传,性能对标 GPT-4o ...

AI快讯 2025-11-28 18:43 22人浏览 0人回复
摘要

11月27日,DeepSeek 团队在 Hugging Face 扔出236B 参数巨兽——DeepSeek-Math-V2,采用 MoE 架构,活跃参数仅21B,上下文一口气拉到128K token。官方同步放出 Apache2.0权重,商业限制为零,当天就冲爆服务器带宽。 ...

 11月27日,DeepSeek 团队在 Hugging Face 扔出236B 参数巨兽——DeepSeek-Math-V2,采用 MoE 架构,活跃参数仅21B,上下文一口气拉到128K token。官方同步放出 Apache2.0权重,商业限制为零,当天就冲爆服务器带宽。

数学战绩一览(零样本 CoT):

- MATH 基准75.7%,与 GPT-4o(76.6%)几乎肩并肩;

- AIME20244/30题,多于 Gemini1.5Pro、Claude-3-Opus;

- Math Odyssey53.7%,同样跻身第一梯队 。

模型核心秘籍是“自验证”双引擎:Generator 先出草稿,Verifier 逐行检查,把错误打回重写,最多16轮迭代,用多数投票+元验证器压制幻觉。训练语料达 1000亿 token,囊括论文、竞赛题与合成数据,并引入 GRPO 强化学习对齐人类偏好 。

得益于代码-数学混合语料,DeepSeek-Math-V2在编程端同样凶狠:HumanEval90.2%、MBPP76.2%、SWEBench 首次让开源模型破10% 大关,直接对标 GPT-4-Turbo、Claude3Opus 。

目前模型已上线 Hugging Face,80GB 显存即可多卡推理;社区复现正火速进行。想给 AI 装一颗“数学金牌”大脑,现在只需一行 `transformers` 加载——国产开源,再次把闭源巨头的护城河切成显微镜下的裂缝。

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号