返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

​微软全新 Phi-4-mini 版发布:推理效率提升 10 倍,轻松适配笔记本

[复制链接]
admin 显示全部楼层 发表于 7 天前 |阅读模式 打印 上一主题 下一主题
微软今天凌晨在官网上开源了最新版本的 Phi-4家族模型 ——Phi-4-mini-flash-reasoning。这一新版本在继承了 Phi-4系列参数小、性能强的优点基础上,专为受到计算能力、内存和延迟限制的场景设计,能够在单个 GPU 上运行,非常适合笔记本和平板电脑等边缘设备。



​微软全新 Phi-4-mini 版发布:推理效率提升 10 倍,轻松适配笔记本

​微软全新 Phi-4-mini 版发布:推理效率提升 10 倍,轻松适配笔记本

Phi-4-mini-flash-reasoning 的推出,标志着推理效率的显著提升,相较于前一版本,推理效率暴涨了10倍,同时平均延迟降低了2到3倍。这种大幅度的性能提升,使其在高级数学推理方面表现得尤为突出,非常适合教育和科研领域的应用。
这一版本的核心在于微软自研的 SambaY 架构。SambaY 是一种创新的解码器混合架构,由微软与斯坦福大学共同研发。通过引入门控存储单元,SambaY 能够实现跨层的高效记忆共享,从而在提升解码效率的同时,保持线性预填充时间复杂度,增强长上下文性能,并且无需显式位置编码。
在长文本生成任务中,SambaY 展现了显著的效率提升。在处理2K 长度的提示和32K 长度的生成任务时,解码吞吐量相较于传统的 Phi-4-mini-Reasoning 模型提高了10倍。此外,在数学推理能力的测试中,SambaY 的表现也有显著提高,特别是在复杂的数学问题上,能够生成清晰且逻辑连贯的解题步骤。



​微软全新 Phi-4-mini 版发布:推理效率提升 10 倍,轻松适配笔记本

​微软全新 Phi-4-mini 版发布:推理效率提升 10 倍,轻松适配笔记本


微软还通过 Phonebook 和 RULER 等基准测试评估了 SambaY 在长上下文检索方面的表现。在32K 长度的上下文中,SambaY 在 Phonebook 任务中达到了78.13% 的准确率,表现远超其他模型。这证明了 SambaY 在长上下文理解与生成能力上的优势。
为了验证 SambaY 的可扩展性,微软进行了大规模的预训练实验,使用了3.8B 参数的 Phi-4-mini-Flash 模型,并在5T tokens 的数据集上进行了训练。尽管训练过程中遇到了一些挑战,但通过引入标签平滑和注意力 dropout 等技术,模型最终成功收敛,并在知识密集型任务中取得了显著的性能提升。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

星点互联 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作