Qwen3-0.6B是阿里达摩院发布的轻量级因果语言模型,0.6B参数量,28层网络结构,GQA分组查询注意力机制,支持32k超长上下文。特点为双模式智能切换,资源消耗低,可在消费级设备部署。适用于端侧设备AI助手、轻量级智能客服、浏览器离线对话等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 2 / 2 页,共 59 条结果,本页区间为 31-59,当前标签为 阿里通义。
Qwen2.5-VL-32B-Instruct是阿里开源的32B参数多模态视觉语言模型,具备图像解析、细粒度分析及强数学推理能力,输出规范符合人类偏好,可本地部署,适用于多模态应用开发。
Wan2.1-T2V-1.3B是阿里团队开发的开源文本转视频模型,基于扩散变换器技术,支持消费级GPU部署(8.19GB VRAM),4分钟内可生成5秒480P视频,适用于短视频创作、内容生成等场景。
Qwen3-30B-A3B是阿里开源的混合专家(MoE)架构大语言模型,总参数305亿,激活参数33亿。特点:双模式推理(思考模式擅长复杂任务,非思考模式提升对话效率),显存占用仅为同类模型1/3,支持256K上下文,100+语言,Apache-2.0协议允许商用。适用于企业级复杂推理、实时对话、代码生成等场景。
Qwen3-14B是阿里巴巴开源的14B参数大型语言模型,属Qwen3系列轻量版本。支持思维/非思维双模式切换,复杂任务用思考模式提升推理能力,日常场景用非思维模式提速30%。适配消费级显卡部署,适合行业大模型微调与本地RAG系统搭建。
万相2.1-I2V-14B-480P是阿里通义万相推出的图像转视频模型,140亿参数,基于DiT架构,支持480P分辨率输出,平衡画质与传输速度,适用于手机端短视频创作。操作简便,可在基石智算平台部署,上传图片加提示词即可生成动态视频,降低视频创作门槛。
Qwen3-235B-A22B是阿里开源的混合专家(MoE)架构大语言模型,总参数量2350亿,动态激活22B参数,采用动态路由机制实现高性能与低资源消耗平衡。支持256K超长上下文,适用于长文档摘要、复杂问答、代码补全等场景,是企业部署的高性价比选择。
Qwen2.5-7B-Instruct是阿里云研发的开源指令调优大模型,基于18万亿token预训练,参数76.1亿。具备知识密集(MMLU 85+)、代码(HumanEval 85+)及数学(MATH 80+)能力,支持29种语言与128K上下文,适用于智能客服、教育辅导及自动化办公等场景。
Qwen3-4B是阿里达摩院开源的4B参数量级语言模型,支持256K超长上下文,可部署于手机、笔记本等端侧设备。具备动态双模切换能力,思考模式适用于数学推理、代码生成等复杂任务,非思考模式提升日常对话响应速度,性能接近30B模型,开源且支持二次开发。
Qwen-TTS是阿里云推出的高性能语音合成模型,可将文本转为自然语音。其特点为高自然度,能模拟真人情感语调;支持中英双语及北京、上海、四川方言;提供7种音色。适用于有声内容创作、智能客服等场景。
Qwen-Plus是阿里云通义千问Qwen3系列的大语言模型,定位为中等复杂度任务的均衡型模型,能力介于Qwen-Max与Qwen-Flash之间。其特点包括支持百万级上下文长度,优化了指令遵循能力与中文理解推理,提供思考/非思考双模式,且支持Batch调用半价。适用于文本生成、智能问答、多轮对话及API集成的产品线开发。
Qwen3-8B是阿里开源的82亿参数因果语言模型,具备双模式切换功能,思考模式适用于数学计算、代码生成等复杂推理任务,非思考模式优化日常对话与信息检索的响应速度。原生上下文长度32K,支持100+种语言,推理速度比LLaMA3-8B快25.8%,显存占用仅8-10GB,适用于企业级部署与开发者高效开发。
Qwen3-32B是阿里开源的320亿参数推理大模型,2025年4月发布,支持128K上下文,中英文均衡,逻辑推理、代码生成能力强。Apache 2.0协议免费商用,适合企业本地化部署,用于智能引擎、长文本处理等场景。
Qwen-Omni-Turbo-Realtime是通义千问推出的实时音视频聊天模型,能同时理解流式音频与图像输入(如视频流连续图像帧),并实时输出高质量文本与音频,适用于实时音视频交互场景。
Qwen2-72B-Instruct是阿里云通义千问团队开源的720亿参数指令微调大语言模型,支持128K上下文长度,采用GQA机制优化推理效率。具备跨29种语言能力,代码生成HumanEval评分85.1%,数学推理GSM8K达89.7%,适用于知识问答、复杂指令处理、多语言翻译等场景。
""qwen-omni-turbo""是阿里云通义千问推出的多模态大模型,支持文本、图像、语音、视频输入,流式输出文本与语音,提供4种对话音色。具备119种文本语言、19种语音输入及10种语音输出能力,适用于智能交互、内容生成等场景,可通过API调用,免费额度100万Tokens。
QwQ-32B是阿里千问团队2025年3月推出的325亿参数推理型大模型,基于Transformer架构,支持128K上下文长度与多语言,擅长数学推理和编程任务,性能比肩DeepSeek-R1与OpenAI o1-mini。采用Apache 2.0协议开源,支持本地部署与免费商用,适用于科研分析、企业智能引擎等场景。
qwq-plus是基于Qwen2.5训练的推理模型,通过强化学习提升推理能力,核心指标达DeepSeek-R1满血版水平,为阿里商业化版本,适用于数学推理、编程等任务。
Qwen_v2.5_14b_Instruct是阿里云开发的指令微调语言模型,基于通用模型优化,支持29种语言,长文本处理达128K tokens,擅长指令跟随与结构化输出,适用于文档生成、多语言问答、代码数学任务及智能客服。
Qwen_v2.5_7B_Base是基础版大语言模型,不建议直接用于对话任务,可作为进一步训练的基础。支持通过Hugging Face Transformers库或vLLM框架在CPU/GPU部署,适用于聊天机器人、智能助手、代码生成、内容创作等领域。
Qwen_v2.5_0.5b_base是阿里云Qwen2.5系列的0.5B参数基础预训练语言模型,采用Transformer架构,预训练数据达18万亿tokens。特点为轻量级、支持量化版本,需通过提示工程使用,适用于资源受限场景的基础NLP任务及专业模型训练底座。
Qwen_v2.5_3b_base是30亿参数量的轻量级语言模型,适配移动端/边缘设备,需单卡T4(16GB)部署。MMLU测试得分超65,优于同规模Gemma2-2.6B,主打资源受限场景的高效推理。
Qwen_v2.5_1.5b_base是阿里云Qwen团队开发的1.54B参数开源基础语言模型,支持32K上下文窗口,采用Transformer解码器架构与GQA、SwiGLU等技术。具备多语言能力(中英为主),需通过提示工程优化输出,适用于企业定制化开发、边缘计算及低资源场景的NLP任务预训练。
Qwen2.5-0.5B-Instruct是阿里通义千问推出的轻量级指令微调模型,属decoder-only架构,0.5B参数。特点:经SFT+RLHF/DPO优化,支持128K上下文、8K生成,开箱即用于中英问答、代码、翻译,适配系统提示与JSON输出。轻量高效,适合开发者本地测试、边缘设备部署及定制微调。
Qwen_v2_0.5b_Instruct(推测为Qwen2.5-0.5B-Instruct)是阿里开发的轻量级指令微调语言模型,参数规模0.5B,支持中英文对话交互,具备问答、代码生成、翻译、文本总结等基础能力。特点为运行轻量、开箱即用,适合资源受限场景或开发者测试环境,但知识覆盖面和效果弱于大模型。
Qwen_v2_1.5b_Instruct是阿里巴巴Qwen团队研发的轻量级指令微调大语言模型,参数量1.5B,属Qwen2系列。采用RoPE位置编码等架构,支持32K上下文,INT8/INT4量化适配边缘设备,适用于智能客服、文本摘要等实时场景。
Qwen_v2.5_1.5b_Instruct是Qwen2.5系列中的1.5B参数decoder-only指令微调模型,基于18T tokens预训练,知识增强(MMLU 85+),编程(HumanEval 85+)和数学(MATH 80+)能力提升,支持8K+长文本生成与JSON结构化输出,适配端侧部署(8G显存可LoRA微调),适用于轻量对话、二次开发及边缘计算场景。
Qwen_v2.5_3b_Instruct 是 Qwen2.5 系列中的轻量级指令微调模型,参数量 30 亿,基于 Transformer 架构,采用 GQA 注意力机制与 RoPE 位置编码。其特点包括:支持 128K 上下文长度,优化长文本生成与结构化数据分析;经多阶段强化学习(DPO/GRPO)提升指令遵循能力,适配量化部署(如 INT4/INT8)。适用场景为移动端端侧推理、轻量级客服机器人及低资源设备的智能交互任务,平衡性能与部署成本。
通义千问Max(Qwen-Max)是阿里云推出的旗舰级大语言模型,为通义千问系列性能最强版本,适用于复杂多步骤任务。具备超32K上下文长度,支持文本、图像、视频多模态处理,数学与编程能力突出,适用于深度研究、代码开发、多模态内容生成等场景。