返回顶部
AiGoe.com 首页 AI快讯

Liquid AI 发布 LFM2-2.6B-Exp:小参数模型展现“大能量”,边缘 AI 加速落地 ...

AI快讯 2025-12-26 17:16 133人浏览 0人回复
摘要

圣诞节当天,边缘 AI 初创公司 Liquid AI 正式发布其最新实验性模型 LFM2-2.6B-Exp。尽管参数量仅有 26 亿,这款小型开源模型在多项关键基准测试中表现出色,尤其在指令跟随能力上,甚至超越了参数量高达数百亿的 De ...

 圣诞节当天,边缘 AI 初创公司 Liquid AI 正式发布其最新实验性模型 LFM2-2.6B-Exp。尽管参数量仅有 26 亿,这款小型开源模型在多项关键基准测试中表现出色,尤其在指令跟随能力上,甚至超越了参数量高达数百亿的 DeepSeek R1-0528,被业内誉为“最强 3B 级模型”,引发广泛关注。

模型创新:纯强化学习驱动的边缘突破

LFM2-2.6B-Exp 基于 Liquid AI 第二代 Liquid Foundation Models(LFM2) 系列,通过 纯强化学习(RL) 方式进行后训练优化,无需监督微调或大型教师模型蒸馏。模型采用短程门控卷积结合分组查询注意力(GQA)的混合架构,支持 32K 上下文长度,专为边缘设备(手机、笔记本、物联网)设计,实现高效本地部署。

官方表示,该实验模型针对指令跟随、知识问答、数学推理等任务进行了专门优化,适用于代理工作流、RAG 检索、数据提取、创意写作及多轮对话场景。

性能亮点:小身材释放大威力

在最新基准测试中,LFM2-2.6B-Exp 展现出惊艳表现:

  • IFBench(指令跟随):得分领先同级模型,甚至超越参数量 263 倍的 DeepSeek R1-0528。

  • GPQA(研究生级知识问答):约 42%,显著高于传统 3B 模型。

  • IFEval(严格指令遵循):超过 88%,击败众多 10B+ 参数模型。

  • GSM8K(数学推理):得分超过 82%,优于 Llama3.23B 与 Gemma3 系列。

此外,模型在 CPU 上的预填充与解码速度达到竞品两倍,内存占用低,支持 bfloat16 量化,真正实现“手机级 PhD 推理”。

开源意义:推动边缘 AI 普及

LFM2-2.6B-Exp 已完全开源,权重上传至 Hugging Face 平台,开发者可免费下载并在本地应用中使用。这不仅验证了强化学习在小模型上的巨大潜力,也为边缘 AI 的广泛落地提供了可行路径,让高性能 AI 从云端走向人人可及的设备端。

AiGoe 评论指出,LFM2-2.6B-Exp 的发布标志着小型模型时代的到来:无需庞大参数,通过智能训练范式即可实现前沿性能。对于追求隐私保护、低延迟和低成本的开发者及企业,这款模型成为当下最佳选择之一。随着 RL 技术和混合架构的进一步迭代,3B 级开源模型有望接近 AGI 水平,并在任何设备上顺畅运行。

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号