阿里发布Qwen3.5-Omni,多模态能力超越Gemini-3.1 Pro
每百万Tokens输入不到0.8元,比Gemini-3.1 Pro的1/10还低。
3月30日,阿里发布千问新一代全模态大模型Qwen3.5-Omni,在音视频理解、识别、交互等215项任务中取得SOTA(性能最佳),超越Gemini-3.1 Pro,成为目前全球最强的全模态大模型之一。新模型拥有极强的音视频理解与实时交互能力,能够对音视频内容生成详细且可控的结构化描述,可识别语言和方言数量多达113种,还惊喜地涌现出了音视频Vibe Coding能力,用户对着镜头阐述需求,就能让模型自主生成APP、网页、游戏等复杂产品代码。目前,阿里云百炼已上新Qwen3.5-Omni的Plus、Flash、Light三种API,可广泛应用于短视频/直播平台、游戏、自媒体等行业。
Qwen3.5-Omni采用混合注意力MoE架构,在海量文本、视觉以及超过1亿小时的音视频数据上进行了原生多模态预训练,可实现图片、视频、语音、文字等全模态内容的输入与输出。新模型在音视频理解、跨模态推理、Agent方面实现了性能飞跃,在音视频理解、语音识别、多语种翻译、对话等215项第三方性能测试任务中取得SOTA。比如,在聚焦视听交互能力的DailyOmni、QualcommInteractive、Omni Cloze等测试中,Qwen3.5-Omni得分大幅领先Gemini-3.1 Pro;在检测嘈杂环境抗干扰能力的WenetSpeech测试中,Qwen3.5-Omni错误率远低于Gemini,识别准确率极高;在考察多语言语音生成质量的Multi-Lingual (30lang) 测试中,Qwen3.5-Omni同样显著优于Gemini-2.5-Pro-TTS。

图说:Qwen3.5-Omni跑分图
Qwen3.5-Omni拥有极强的语言能力,支持113种语言及方言的语音识别和36种语言及方言的语音生成,就连使用人数不足一百万的毛利语和国内的海南方言,也能精准识别。新模型还大幅增强了实时交互体验,能高情商听懂用户对话意图,准确区分有效回应和随口附和,就像和真人聊天一样。同时,模型还可以根据指令自由调节语音、语调,并基于创新的ARIA技术,使生成的语音更自然、更稳定。 在面对类似“今天的天气怎样”的实时提问时,模型还能自主判断并调用工具,确保回复内容准确且时效性强。
基于一系列技术创新,Qwen3.5-Omni将Vibe Coding推入下一阶段。与纯文本或图片驱动的Vibe Coding不同,千问可以实现音视频编程:打开摄像头,用户对着草图口述需求,哪怕是包括复杂产品逻辑的描述,模型也能直接生成带有复杂UI的产品原型界面,真正实现“动动嘴即可编程”。这一能力并非刻意设计,而是模型在原生多模态能力持续扩展过程中自然涌现出的结果。
Qwen3.5-Omni顶尖的全模态能力,还能为专业领域带来超级生产力。新模型可对画面主体、人物关系、对话逻辑、乃至人物情绪起伏进行极细的拆解,并自动完成视频章节切片与时间戳标注,支持超过10小时的音频输入,将繁琐的视频后期梳理工作缩短至秒级,大幅降低了企业的内容管理成本,在视频创作、内容审核等领域具有极高的落地价值。
目前,普通用户也可前往Qwen Chat免费体验,开发者和企业可通过阿里云百炼平台调用Qwen3.5-Omni模型,每百万Tokens输入不到0.8元,比Gemini-3.1 Pro的1/10还低。据了解,千问稳居中国企业级大模型调用市场第一,服务涵盖互联网、金融、消费电子及汽车等重点行业超100万家客户。
附:

图说:Qwen3.5-Omni跑分图
(完)
来源:阿里云
- Nature Index特刊聚焦天立国际:系统呈现中国教育AGI实践探索2026-03-30
- 国产世界模型登顶全球第一!断层领先谷歌英伟达,3D准确度近满分2026-03-30
- 打破代码大模型训练瓶颈:MicroCoder将算法数据框架训练经验升级2026-03-30
- 风云G会圆满落幕 共绘GEO行业可信协同发展新蓝图2026-03-29




