Qwen3-Coder-Plus是阿里巴巴通义千问系列的增强型代码生成模型,属480B参数混合专家(MoE)架构,激活参数350亿,具备1M上下文窗口。特点为代码理解与生成能力强,支持多语言及复杂逻辑推理,性能媲美Claude Sonnet,适用于大型项目分析、代码库操作等智能体编程任务。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 1 页,共 22 条结果,本页区间为 1-22,当前标签为 Qwen3。
Qwen3-VL-plus是阿里通义千问推出的视觉语言模型增强版,属Qwen3-VL系列,提供Instruct和Thinking版本。特点是小参数量高性能,8B参数性能逼近上一代72B旗舰模型,支持超百万像素分辨率图像,强化细节识别、文字理解及复杂视觉推理。适用于智能客服、图像识别、内容创作、辅助决策等场景。
Qwen3-VL-235B-A22B-Thinking是阿里通义千问Qwen3系列旗舰视觉语言模型,采用MoE架构,2350亿参数。具备GUI级视觉Agent能力,支持32种语言OCR、256K上下文(可拓展至1M),视频理解与多模态推理突出,适用于复杂多模态工作流、长文档检索及智能交互场景。
Qwen3-Max是阿里Qwen3系列最高阶大模型,万亿参数,预训练36T tokens,支持26万+tokens上下文,多语言覆盖,显式推理模式。适用于企业级政策问答、代码审查、数据分析等复杂任务。
Qwen3-LiveTranslate-Flash是阿里通义千问推出的多语言实时音视频同传模型,基于Qwen3-Omni基座,融合多模态数据训练。支持18种语言及方言的离线/实时翻译,3秒低延迟,视觉增强技术提升复杂场景准确性,优于主流模型。适用于国际会议、远程教学、跨国协作等场景。
Qwen3-Next-80B-A3B-Instruct是阿里云通义团队2025年9月推出的指令微调大模型,基于高稀疏度MoE架构,800亿总参数仅激活30亿。采用混合注意力机制与多token预测,训练成本为Qwen3-32B的1/10,32k上下文推理吞吐提升10倍,原生支持262K tokens上下文,可外推至百万级文本处理。适用于长文档理解、法律分析等长上下文场景,已开源并支持主流框架部署。
qwen3-omni-flash-realtime是阿里通义千问推出的实时全模态AI模型,支持文本、图像、音视频等多模态处理,具备流式对话、中途打断等实时交互能力,可应用于语音助手、多媒体分析、智能剪辑等场景,支持119种文本语言和20种语音交互。
Qwen3-Omni-30B-A3B-Captioner是阿里开源的音频精细字幕模型,从Instruct微调而来,音频输入转文本输出,特点是详细且低幻觉的音频描述,适用于音视频内容分析、无障碍服务、智能剪辑等场景。
Qwen3-TTS-Flash-Realtime是阿里通义推出的实时文本转语音模型,首包延迟97ms,支持17种音色、10种语言及17种方言,语音自然流畅。适用于智能客服、有声读物、AI教师及影视配音等场景。
Qwen3-TTS-Flash是阿里通义推出的文本转语音模型,支持10种语言、17种音色及9种中文方言,可智能调语气,首包延迟97ms,适用于智能客服、有声创作、语音助手等场景。
Qwen3-ASR-Flash是阿里通义千问推出的语音识别模型,支持19种语音输入(含5种中文方言)和11种语言,具备低延迟流式处理能力,适用于语音助手、字幕生成、多模态对话等场景,中英文识别错误率低于GPT-4o-transcribe,提供10小时免费额度。
Qwen3-1.7B是阿里Qwen3系列开源Dense模型,参数1.7B,支持119种语言,具备混合思维模式(可手动控制是否开启推理过程)。硬件要求低,适合本地测试、科研快速实验等场景。
Qwen3-30B-A3B-Instruct-2507是阿里通义千问推出的大语言模型,采用混合专家(MoE)架构,总参数305亿,激活参数33亿。具备逻辑推理、数学计算、代码编程能力,支持256K上下文长度,100+语言,非思考模式运行,适合本地部署,可用于复杂文档处理、多语言交互等场景。
Qwen3-235B-A22B-Instruct-2507是阿里巴巴开源的超大规模因果语言模型,采用2350亿总参数+220亿激活参数的混合专家架构,具备数学推理、代码生成等能力,在核心基准超越GPT-4o,推理成本低至1/3,适用于企业级复杂任务部署。
Qwen3-Coder-Flash是阿里开源的轻量级编程模型(全称为Qwen3-Coder-30B-A3B-Instruct),采用混合专家架构,激活参数30亿,主打高性能与效率。支持256K原生上下文(可扩展至100万token),擅长代码生成、智能体编程及工具调用,性能接近Claude Sonnet,适配Qwen Code等开发工具,适合本地部署与大型项目开发。
Qwen3-0.6B是阿里达摩院发布的轻量级因果语言模型,0.6B参数量,28层网络结构,GQA分组查询注意力机制,支持32k超长上下文。特点为双模式智能切换,资源消耗低,可在消费级设备部署。适用于端侧设备AI助手、轻量级智能客服、浏览器离线对话等场景。
Qwen3-30B-A3B是阿里开源的混合专家(MoE)架构大语言模型,总参数305亿,激活参数33亿。特点:双模式推理(思考模式擅长复杂任务,非思考模式提升对话效率),显存占用仅为同类模型1/3,支持256K上下文,100+语言,Apache-2.0协议允许商用。适用于企业级复杂推理、实时对话、代码生成等场景。
Qwen3-14B是阿里巴巴开源的14B参数大型语言模型,属Qwen3系列轻量版本。支持思维/非思维双模式切换,复杂任务用思考模式提升推理能力,日常场景用非思维模式提速30%。适配消费级显卡部署,适合行业大模型微调与本地RAG系统搭建。
Qwen3-235B-A22B是阿里开源的混合专家(MoE)架构大语言模型,总参数量2350亿,动态激活22B参数,采用动态路由机制实现高性能与低资源消耗平衡。支持256K超长上下文,适用于长文档摘要、复杂问答、代码补全等场景,是企业部署的高性价比选择。
Qwen3-4B是阿里达摩院开源的4B参数量级语言模型,支持256K超长上下文,可部署于手机、笔记本等端侧设备。具备动态双模切换能力,思考模式适用于数学推理、代码生成等复杂任务,非思考模式提升日常对话响应速度,性能接近30B模型,开源且支持二次开发。
Qwen3-8B是阿里开源的82亿参数因果语言模型,具备双模式切换功能,思考模式适用于数学计算、代码生成等复杂推理任务,非思考模式优化日常对话与信息检索的响应速度。原生上下文长度32K,支持100+种语言,推理速度比LLaMA3-8B快25.8%,显存占用仅8-10GB,适用于企业级部署与开发者高效开发。
Qwen3-32B是阿里开源的320亿参数推理大模型,2025年4月发布,支持128K上下文,中英文均衡,逻辑推理、代码生成能力强。Apache 2.0协议免费商用,适合企业本地化部署,用于智能引擎、长文本处理等场景。