序:
- 2025年3月6日凌晨,阿里巴巴发布并开源全新的推理模型通义千问QwQ-32B。
- 通过大规模强化学习,千问
QwQ-32B
在数学、代码及通用能力上实现质的飞跃,整体性能比肩DeepSeek-R1。 - 在保持强劲性能的同时,千问
QwQ-32B
还大幅降低了部署使用成本,在消费级显卡上也能实现本地部署。 - 目前,阿里已采用宽松的
Apache2.0
协议,将千问QwQ-32B
模型向全球开源,所有人都可免费下载及商用。 - 同时,用户也将可通过通义APP免费体验最新的千问
QwQ-32B
模型。
概述:QwQ-32B
比肩
DeepSeek-R1
,阿里巴巴发布全新推理模型
综合表现与简介
- 千问
QwQ-32B
既能提供极强的推理能力,又能满足更低的资源消耗需求,非常适合快速响应或对数据安全要求高的应用场景,开发者和企业可以在消费级硬件上轻松将其部署到本地设备中,进一步打造高度定制化的 AI 解决方案。
此外,千问
QwQ-32B
模型中还集成了与智能体 Agent 相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。
阿里通义团队表示,未来将继续探索将智能体与强化学习的集成,以实现长时推理,探索更高智能进而最终实现AGI的目标。
- 从性能表现来看,千问
QwQ-32B
模型在一系列权威基准测试中表现异常出色,几乎完全超越了OpenAI-o1-mini
,比肩最强开源推理模型DeepSeek-R1
:
- 在测试数学能力的
AIME24
评测集上,以及评估代码能力的LiveCodeBench
中,千问QwQ-32B
表现与DeepSeek-R1
相当,远胜于o1-mini
及相同尺寸的R1
蒸馏模型;
-
在由
Meta
首席科学家杨立昆领衔的“最难LLMs评测榜
”LiveBench、谷歌等提出的指令遵循能力IFEval
评测集、 -
由加州大学伯克利分校等提出的评估准确调用函数或工具方面的
BFCL
测试中,千问QwQ-32B
的得分均超越了DeepSeek-R1
。 -
目前,千问
QwQ-32B
已在魔搭社区、HuggingFace
及GitHub
等平台基于宽松的Apache2.0
协议开源,所有人都可免费下载模型进行本地部署,或者通过阿里云百炼平台直接调用模型API服务。
对于云端部署需求,用户可通过阿里云PAI平台完成快速部署,并进行模型微调、评测和应用搭建;
或是选择容器服务ACK搭配阿里云GPU 算力(如GPU 云服务器、容器计算服务ACS 等 ),实现模型容器化部署和高效推理。
是不是有一股广告味儿?确实没有收钱。。。阿里确实提供了这些服务。
- 实际上,自2023年以来,阿里通义团队已开源200多款模型,包含:大语言模型千问
Qwen
及视觉生成模型万相Wan
等两大基模系列,开源囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等“全模态”,覆盖从0.5B
到110B
等参数“全尺寸”,屡次斩获Chatbot Arena
、司南OpenCompass
等权威榜单“全球开源冠军”、“国产模型冠军”。
截至目前,海内外AI开源社区中千问Qwen的衍生模型数量突破10万,超越美国Llama
系列模型,成为全球最大的【开源模型族群】。
X 参考文献
- 比肩DeepSeek-R1,阿里巴巴发布全新推理模型 - 中国电子报、电子信息产业网/宋婧