返回顶部
AiGoe.com 首页 AI快讯

vLLM-Omni开源:把扩散模型、ViT、LLM塞进一条流水线,多模态推理一次跑完 ...

AI快讯 2025-12-2 17:59 68人浏览 0人回复
摘要

vLLM团队发布首个“全模态”推理框架vLLM-Omni,将文本、图像、音频、视频的统一生成从概念验证变成可落地代码。新框架已上线GitHub与ReadTheDocs,开发者可立即pip安装并调用。解耦流水线架构- 模态编码器:ViT、Whi ...

 vLLM团队发布首个“全模态”推理框架vLLM-Omni,将文本、图像、音频、视频的统一生成从概念验证变成可落地代码。新框架已上线GitHub与ReadTheDocs,开发者可立即pip安装并调用。

解耦流水线架构

- 模态编码器:ViT、Whisper等负责把视觉、语音转为中间特征

- LLM核心:继续沿用vLLM自回归引擎,承担思考、规划与对话

- 模态生成器:DiT、Stable Diffusion等扩散模型解码输出,支持图像、音频、视频同步生成


框架把三段组件视为独立微服务,可在不同GPU或节点间调度,资源按需弹性伸缩——图像生成高峰时横向扩容DiT,文本推理低谷时收缩LLM,显存利用率提升最高40%。

性能与兼容性

vLLM-Omni提供Python装饰器@omni_pipeline,三行代码即可把原有单模态模型拼装成多模态应用。官方基准显示,在8×A100集群运行10亿参数“文本+图像”模型,吞吐比传统串行方案提高2.1倍,端到端延迟下降35%。

开源与路线图

GitHub仓库已放出完整示例与Docker Compose脚本,支持PyTorch2.4+和CUDA12.2。团队透露,2026Q1将加入视频DiT与语音Codec模型,并计划提供Kubernetes CRD,方便企业在私有云一键部署。

行业观点

业内人士认为,vLLM-Omni把异构模型纳入同一数据流,有望降低多模态应用落地门槛,但不同硬件间的负载均衡与缓存一致性仍是生产环境挑战。随着框架逐渐成熟,AI初创公司可更便宜地构建“文本-图像-视频”统一平台,而不必分别维护三条推理链路。

项目地址:https://github.com/vllm-project/vllm-omni

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号