返回顶部
AiGoe.com 首页 AI快讯

700万参数微型模型 TRM,推理能力竟胜过 Gemini2.5Pro 和 Claude3.7

AI快讯 2025-10-10 16:22 35人浏览 0人回复
摘要

三星 SAIL 蒙特利尔实验室的研究人员近日推出了一种名为**“微型递归模型”(TRM)的新型 AI 架构。这款模型参数仅有700万个,远小于动辄数十亿参数的最小型语言模型(LLM),却在数独和 ARC-AGI 测试**等复杂的结构 ...

 三星 SAIL 蒙特利尔实验室的研究人员近日推出了一种名为**“微型递归模型”(TRM)的新型 AI 架构。这款模型参数仅有 700万个,远小于动辄数十亿参数的最小型语言模型(LLM),却在数独和 ARC-AGI 测试**等复杂的结构化推理任务中,表现出惊人的效率和卓越的性能,成功超越了包括 Gemini2.5Pro 和 Claude3.7 在内的多个大型语言模型。

递归推理核心机制:紧密重复的校正循环

根据研究报告《少即是多:基于微型网络的递归推理》,TRM 在ARC-AGI-1上的准确率达到45%,在ARC-AGI-2上的准确率达到8% ,其表现优于规模更大的模型,包括 o3-mini-high(ARC-AGI-2上的准确率3.0%)、Gemini2.5Pro(4.9%)、DeepSeek R1(1.3%)和 Claude3.7(0.7%)。作者表示,TRM 仅使用不到大多数大型模型所用参数的0.01% 即可实现这一目标。Grok-4-thinking(16.0%)和 Grok-4-Heavy(29.4%)等更专业的系统仍然处于领先地位。

作者强调,TRM 仅使用了不到大多数大型模型所用参数的 0.01%,便在 ARC-AGI-1和 ARC-AGI-2上分别取得了 45% 和 8% 的准确率,优于多种更大规模的通用模型。在其他基准测试中,TRM 同样表现出色,将 Sudoku-Extreme 的准确率从55.0% 提升至 87.4%,Maze-Hard 的准确率从74.5% 提升至 85.3%

研究意义与局限性

TRM 的研究结果证明了小型、有针对性的模型在处理狭窄、结构化推理任务时的巨大潜力,它能够通过逐步改进和数据增强实现极高的效率。研究还表明,针对特定数据集进行架构选择(如在固定大小网格中使用简单的 

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号