返回顶部
AiGoe.com 首页 AI快讯

MiniMax M2.1震撼开源100亿激活参数编码模型登顶SOTA多语言编程全面超越Gemini3Pro ...

AI快讯 2025-12-24 12:44 40人浏览 0人回复
摘要

国产大模型再攀高峰。MiniMax今日正式开源其最新编码与智能体专用大模型——M2.1,以100亿激活参数的稀疏架构,在多语言编程、真实代码生成与工具调用等核心场景实现全面突破。在权威基准SWE-Multilingual与VIBE-Ben ...

 国产大模型再攀高峰。MiniMax今日正式开源其最新编码与智能体专用大模型——M2.1,以100亿激活参数的稀疏架构,在多语言编程、真实代码生成与工具调用等核心场景实现全面突破。在权威基准SWE-Multilingual与VIBE-Bench上,M2.1不仅大幅领先同类开源模型,更超越谷歌Gemini3Pro、Anthropic Claude4.5Sonnet等闭源旗舰,标志着开源编码模型正式进入“性能碾压闭源”新阶段。

真实编程场景全面领先,多语言SOTA

M2.1专为开发者日常编码需求与原生AI智能体(Agent)打造,其核心优势体现在:  

- 多语言编程SOTA:在Python、JavaScript、Java、Go、Rust、C++等主流语言中均达到当前开源模型最高水平,尤其在跨语言迁移能力与复杂项目上下文理解上表现突出;  

- 真实工程任务更强:在SWE-Multilingual(软件工程多语言基准)中,M2.1的代码修复准确率与端到端任务完成率显著优于Gemini3Pro与Claude4.5Sonnet;  

- 智能体协作优化:针对工具调用、API集成、错误诊断等Agent核心能力,在VIBE-Bench(Visual-Agent & Interactive Behavior Evaluation)中表现优异,为构建高可靠AI开发者代理提供强大基座。

稀疏激活架构,高性能低推理成本

M2.1采用混合专家(MoE)稀疏激活机制,在推理时仅激活约100亿参数(总参数量更大),在保证性能的同时显著降低算力消耗,使开发者能在消费级GPU或云实例上高效运行,推动高性能编码模型“平民化”。

开源生态加速爆发,国产模型迎头赶上

值得注意的是,就在M2.1发布前一日,智谱AI开源GLM系列新模型,在SWE-Bench单语言测试中与M2.1表现接近,共同彰显中国开源大模型在专业领域的爆发力。MiniMax团队在发布中特别感谢早期测试合作伙伴的反馈,强调M2.1是“为真实开发者而生”的工程化产物,而非单纯刷榜模型。

AiGoe认为,M2.1的发布不仅是技术里程碑,更释放关键信号:在垂直专业领域,开源模型已具备全面挑战甚至超越闭源巨头的实力。当开发者无需依赖API、可自由部署、微调并审计代码模型,AI编程的真正民主化时代才真正开启——而这场由MiniMax引领的开源革命,正重塑全球开发者工具链的未来格局。

官方文档:https://www.minimax.io/news/minimax-m21

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号