圣诞节当天,边缘 AI 初创公司 Liquid AI 正式发布其最新实验性模型 LFM2-2.6B-Exp。尽管参数量仅有 26 亿,这款小型开源模型在多项关键基准测试中表现出色,尤其在指令跟随能力上,甚至超越了参数量高达数百亿的 De ...
圣诞节当天,边缘 AI 初创公司 Liquid AI 正式发布其最新实验性模型 LFM2-2.6B-Exp。尽管参数量仅有 26 亿,这款小型开源模型在多项关键基准测试中表现出色,尤其在指令跟随能力上,甚至超越了参数量高达数百亿的 DeepSeek R1-0528,被业内誉为“最强 3B 级模型”,引发广泛关注。模型创新:纯强化学习驱动的边缘突破LFM2-2.6B-Exp 基于 Liquid AI 第二代 Liquid Foundation Models(LFM2) 系列,通过 纯强化学习(RL) 方式进行后训练优化,无需监督微调或大型教师模型蒸馏。模型采用短程门控卷积结合分组查询注意力(GQA)的混合架构,支持 32K 上下文长度,专为边缘设备(手机、笔记本、物联网)设计,实现高效本地部署。 官方表示,该实验模型针对指令跟随、知识问答、数学推理等任务进行了专门优化,适用于代理工作流、RAG 检索、数据提取、创意写作及多轮对话场景。 性能亮点:小身材释放大威力在最新基准测试中,LFM2-2.6B-Exp 展现出惊艳表现:
此外,模型在 CPU 上的预填充与解码速度达到竞品两倍,内存占用低,支持 bfloat16 量化,真正实现“手机级 PhD 推理”。 开源意义:推动边缘 AI 普及LFM2-2.6B-Exp 已完全开源,权重上传至 Hugging Face 平台,开发者可免费下载并在本地应用中使用。这不仅验证了强化学习在小模型上的巨大潜力,也为边缘 AI 的广泛落地提供了可行路径,让高性能 AI 从云端走向人人可及的设备端。 AiGoe 评论指出,LFM2-2.6B-Exp 的发布标志着小型模型时代的到来:无需庞大参数,通过智能训练范式即可实现前沿性能。对于追求隐私保护、低延迟和低成本的开发者及企业,这款模型成为当下最佳选择之一。随着 RL 技术和混合架构的进一步迭代,3B 级开源模型有望接近 AGI 水平,并在任何设备上顺畅运行。 |
评论