返回顶部
AiGoe.com 首页 AI快讯

英伟达推出 Nemotron 3:混合架构提升 AI 代理处理效率

AI快讯 2025-12-18 17:01 57人浏览 0人回复
摘要

英伟达近日发布了其全新的 Nemotron 3 系列,这一系列产品结合了 Mamba 和 Transformer 两种架构,旨在高效处理长时间上下文窗口,同时减少资源消耗。Nemotron 3 系列专为基于代理的人工智能系统设计,这类系统能够 ...

 英伟达近日发布了其全新的 Nemotron 3 系列,这一系列产品结合了 Mamba 和 Transformer 两种架构,旨在高效处理长时间上下文窗口,同时减少资源消耗。Nemotron 3 系列专为基于代理的人工智能系统设计,这类系统能够自主执行复杂任务,持续进行长时间的交互。

新产品系列包括三个型号:Nano、Super 和 Ultra。当前 Nano 型号已正式上市,而 Super 和 Ultra 预计将在 2026 年上半年推出。英伟达在这次发布中打破了传统的纯 Transformer 架构,采用了一种混合架构,这种架构将高效的 Mamba 层与 Transformer 元素及混合专家(MoE)技术相结合。与传统的纯 Transformer 模型相比,Nemotron 3 能更好地处理长输入序列,同时保持内存使用稳定。

Nemotron 3 支持高达一百万个令牌的上下文窗口,这使其与 OpenAI 和 Google 等前沿模型相匹配,可以在不对硬件造成过大压力的情况下,存储大量的信息,比如整个代码库或长时间的对话历史。Nano 型号具有 316 亿个参数,但在每个处理步骤中,只有 30 亿个参数处于激活状态。根据人工智能分析指数(AII)的基准测试,Nemotron 3 在准确率上可与 gpt-oss-20B 和 Qwen3-30B 相媲美,并且在令牌吞吐量上表现更为出色。

英伟达还为更强大的 Super 和 Ultra 型号引入了两项重要架构改进。第一项是 LatentMoE,它旨在解决标准 MoE 模型中内存带宽的开销问题,允许系统在处理令牌之前将其投影到压缩的潜在表示中。第二项改进是多词元预测(MTP)技术,在训练过程中可以同时预测多个词元,从而提高文本生成速度和逻辑推理能力。

此外,英伟达发布了 Nano 型号的权重、训练方案和多个数据集,包括基于 Common Crawl 的 Nemotron-CC-v2.1 等,这为开发者提供了强大的支持。此次发布符合英伟达致力于开发更小型语言模型的战略,以优先考虑速度而非原始性能。

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号