Qwen-image-plus是阿里云通义千问系列的文生图模型,属Qwen-Image专业版,擅长复杂文本渲染,支持中英双语及多行布局。适用于海报、对联等需精准文字生成场景,成本较基础版低,可通过API调用,兼顾质量与效率。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 2 页,共 59 条结果,本页区间为 1-30,当前标签为 阿里通义。
Qwen3-Coder-Plus是阿里巴巴通义千问系列的增强型代码生成模型,属480B参数混合专家(MoE)架构,激活参数350亿,具备1M上下文窗口。特点为代码理解与生成能力强,支持多语言及复杂逻辑推理,性能媲美Claude Sonnet,适用于大型项目分析、代码库操作等智能体编程任务。
Qwen3-VL-plus是阿里通义千问推出的视觉语言模型增强版,属Qwen3-VL系列,提供Instruct和Thinking版本。特点是小参数量高性能,8B参数性能逼近上一代72B旗舰模型,支持超百万像素分辨率图像,强化细节识别、文字理解及复杂视觉推理。适用于智能客服、图像识别、内容创作、辅助决策等场景。
Qwen3-VL-235B-A22B-Thinking是阿里通义千问Qwen3系列旗舰视觉语言模型,采用MoE架构,2350亿参数。具备GUI级视觉Agent能力,支持32种语言OCR、256K上下文(可拓展至1M),视频理解与多模态推理突出,适用于复杂多模态工作流、长文档检索及智能交互场景。
Wan2.5-i2i-preview 是一款图像生成模型,支持图像编辑功能,属于阿里云图像生成服务中的一员,适用于图像创作与编辑场景。
Qwen3-Max是阿里Qwen3系列最高阶大模型,万亿参数,预训练36T tokens,支持26万+tokens上下文,多语言覆盖,显式推理模式。适用于企业级政策问答、代码审查、数据分析等复杂任务。
Qwen-Image-Edit是阿里开源的Omni产品级扩散模型,基于200亿参数Qwen-Image构建,支持语义与外观双重编辑。特点包括精准中英文字编辑(保留字体样式)、SOTA基准性能,可用于图像内容生成、图文结合输出及多模态助手应用。
Qwen3-LiveTranslate-Flash是阿里通义千问推出的多语言实时音视频同传模型,基于Qwen3-Omni基座,融合多模态数据训练。支持18种语言及方言的离线/实时翻译,3秒低延迟,视觉增强技术提升复杂场景准确性,优于主流模型。适用于国际会议、远程教学、跨国协作等场景。
Qwen3-Next-80B-A3B-Instruct是阿里云通义团队2025年9月推出的指令微调大模型,基于高稀疏度MoE架构,800亿总参数仅激活30亿。采用混合注意力机制与多token预测,训练成本为Qwen3-32B的1/10,32k上下文推理吞吐提升10倍,原生支持262K tokens上下文,可外推至百万级文本处理。适用于长文档理解、法律分析等长上下文场景,已开源并支持主流框架部署。
wan2.5-t2i-preview是阿里通义万相系列的文生图模型,属多模态生成模型。特点为支持写实场景和摄影风格,注重图像质量与响应速度平衡。适用于通用写实场景及摄影风格图像生成,可在广告、电商等领域应用。
Wan2.5-t2v-preview是阿里通义推出的多模态生成模型,集成文生/图生视频、文生图及图像编辑功能,支持1080P/24fps输出,实现音画同步,可生成匹配人声、音效和配乐。具备运镜控制、元素一致性优化等特点,应用于广告、影视、教育等领域。
wan2.5-i2v-preview是阿里通义万相2.5系列的图生视频模型,属多模态生成模型。它采用统一框架,融合文本、图像、视频、音频生成能力,支持1080P高清视频输出,可实现音画同步,能理解运镜语言,保持元素ID一致性,支持音频驱动视频生成,适用于广告、电商、影视、教育等领域的内容创作。
qwen3-omni-flash-realtime是阿里通义千问推出的实时全模态AI模型,支持文本、图像、音视频等多模态处理,具备流式对话、中途打断等实时交互能力,可应用于语音助手、多媒体分析、智能剪辑等场景,支持119种文本语言和20种语音交互。
Qwen3-Omni-30B-A3B-Captioner是阿里开源的音频精细字幕模型,从Instruct微调而来,音频输入转文本输出,特点是详细且低幻觉的音频描述,适用于音视频内容分析、无障碍服务、智能剪辑等场景。
Qwen3-TTS-Flash-Realtime是阿里通义推出的实时文本转语音模型,首包延迟97ms,支持17种音色、10种语言及17种方言,语音自然流畅。适用于智能客服、有声读物、AI教师及影视配音等场景。
Qwen3-TTS-Flash是阿里通义推出的文本转语音模型,支持10种语言、17种音色及9种中文方言,可智能调语气,首包延迟97ms,适用于智能客服、有声创作、语音助手等场景。
Qwen3-ASR-Flash是阿里通义千问推出的语音识别模型,支持19种语音输入(含5种中文方言)和11种语言,具备低延迟流式处理能力,适用于语音助手、字幕生成、多模态对话等场景,中英文识别错误率低于GPT-4o-transcribe,提供10小时免费额度。
Qwen-VL-Plus 是阿里通义千问 Qwen2.5-VL 系列多模态模型,主打视觉语言理解,增强细节识别与文字处理,支持超百万像素图像及任意长宽比,适用于专业文档处理、高精度识别和视觉推理场景。
Qwen-MT-Image是通义千问系列图像翻译模型,可精准翻译图像中的文字并保留原始排版,支持领域提示、敏感词过滤、术语干预等自定义功能。适用于多语言图像内容本地化、跨语言图文信息处理等场景。
Qwen-Deep-Research 是通义千问的研究型智能体模型,可拆解复杂问题,结合互联网搜索进行推理分析并生成研究报告,适用于科研辅助、生活决策、内容创作等场景,能大幅缩短研究时间。
Qwen3-1.7B是阿里Qwen3系列开源Dense模型,参数1.7B,支持119种语言,具备混合思维模式(可手动控制是否开启推理过程)。硬件要求低,适合本地测试、科研快速实验等场景。
Qwen-VL-Max是阿里云通义千问系列的增强视觉语言模型,定位为性能最强的多模态模型,支持图文理解与生成。其特点是视觉推理能力优于Qwen-VL-Plus,适用于复杂图文交互场景,如图像内容分析、多模态Agent系统构建及高精度图文生成任务。
Qwen-Image 是阿里巴巴通义千问团队2025年8月开源的20B参数MMDiT图像生成基础模型,以中文文本渲染和精准图像编辑为核心优势,支持多风格生成与编辑闭环,适用于设计工具、电商图生成、多模态助手等场景,可嵌入产品线作为基础设施。
Qwen3-30B-A3B-Instruct-2507是阿里通义千问推出的大语言模型,采用混合专家(MoE)架构,总参数305亿,激活参数33亿。具备逻辑推理、数学计算、代码编程能力,支持256K上下文长度,100+语言,非思考模式运行,适合本地部署,可用于复杂文档处理、多语言交互等场景。
Qwen3-235B-A22B-Instruct-2507是阿里巴巴开源的超大规模因果语言模型,采用2350亿总参数+220亿激活参数的混合专家架构,具备数学推理、代码生成等能力,在核心基准超越GPT-4o,推理成本低至1/3,适用于企业级复杂任务部署。
Qwen3-Coder-Flash是阿里开源的轻量级编程模型(全称为Qwen3-Coder-30B-A3B-Instruct),采用混合专家架构,激活参数30亿,主打高性能与效率。支持256K原生上下文(可扩展至100万token),擅长代码生成、智能体编程及工具调用,性能接近Claude Sonnet,适配Qwen Code等开发工具,适合本地部署与大型项目开发。
Qwen-Flash是阿里巴巴通义实验室发布的Qwen3系列高性能轻量级模型,优化通用任务处理、逻辑推理及中英文理解,支持百万字符上下文,响应速度快、成本低,适用于智能客服、内容生成、文档分析及智能体应用,已上线阿里云百炼平台。
qwen-mt-turbo是阿里通义千问系列的轻量级机器翻译模型,基于Qwen3架构,支持92种语言互译,覆盖全球95%人口。采用轻量级MoE架构,响应速度快且成本低(输入0.7元/百万Token,输出1.95元/百万Token),具备术语干预、领域提示等自定义功能,适用于高并发实时翻译场景。
Qwen-MT-Plus是阿里云通义千问Qwen3系列的专业翻译大模型,支持92种语言互译,上下文长度提升至4K Token,翻译准确率全面优于同规格模型及GPT-4.1,适用于多语言文档翻译、跨境内容本地化等场景,2025年7月更新后价格直降80%。
qwen-tts-realtime 是阿里云推出的实时语音合成模型,支持流式文本输入与音频输出,低延迟,7种拟人音色,可合成中文、英文,适用于交互式语音应用。