Qwen-image-plus是阿里云通义千问系列的文生图模型,属Qwen-Image专业版,擅长复杂文本渲染,支持中英双语及多行布局。适用于海报、对联等需精准文字生成场景,成本较基础版低,可通过API调用,兼顾质量与效率。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 1 页,共 27 条结果,本页区间为 1-27,当前标签为 Qwen。
Qwen-Image-Edit是阿里开源的Omni产品级扩散模型,基于200亿参数Qwen-Image构建,支持语义与外观双重编辑。特点包括精准中英文字编辑(保留字体样式)、SOTA基准性能,可用于图像内容生成、图文结合输出及多模态助手应用。
Qwen-VL-Plus 是阿里通义千问 Qwen2.5-VL 系列多模态模型,主打视觉语言理解,增强细节识别与文字处理,支持超百万像素图像及任意长宽比,适用于专业文档处理、高精度识别和视觉推理场景。
Qwen-MT-Image是通义千问系列图像翻译模型,可精准翻译图像中的文字并保留原始排版,支持领域提示、敏感词过滤、术语干预等自定义功能。适用于多语言图像内容本地化、跨语言图文信息处理等场景。
Qwen-Deep-Research 是通义千问的研究型智能体模型,可拆解复杂问题,结合互联网搜索进行推理分析并生成研究报告,适用于科研辅助、生活决策、内容创作等场景,能大幅缩短研究时间。
Qwen-VL-Max是阿里云通义千问系列的增强视觉语言模型,定位为性能最强的多模态模型,支持图文理解与生成。其特点是视觉推理能力优于Qwen-VL-Plus,适用于复杂图文交互场景,如图像内容分析、多模态Agent系统构建及高精度图文生成任务。
Qwen-Image 是阿里巴巴通义千问团队2025年8月开源的20B参数MMDiT图像生成基础模型,以中文文本渲染和精准图像编辑为核心优势,支持多风格生成与编辑闭环,适用于设计工具、电商图生成、多模态助手等场景,可嵌入产品线作为基础设施。
Qwen-Flash是阿里巴巴通义实验室发布的Qwen3系列高性能轻量级模型,优化通用任务处理、逻辑推理及中英文理解,支持百万字符上下文,响应速度快、成本低,适用于智能客服、内容生成、文档分析及智能体应用,已上线阿里云百炼平台。
qwen-mt-turbo是阿里通义千问系列的轻量级机器翻译模型,基于Qwen3架构,支持92种语言互译,覆盖全球95%人口。采用轻量级MoE架构,响应速度快且成本低(输入0.7元/百万Token,输出1.95元/百万Token),具备术语干预、领域提示等自定义功能,适用于高并发实时翻译场景。
Qwen-MT-Plus是阿里云通义千问Qwen3系列的专业翻译大模型,支持92种语言互译,上下文长度提升至4K Token,翻译准确率全面优于同规格模型及GPT-4.1,适用于多语言文档翻译、跨境内容本地化等场景,2025年7月更新后价格直降80%。
qwen-tts-realtime 是阿里云推出的实时语音合成模型,支持流式文本输入与音频输出,低延迟,7种拟人音色,可合成中文、英文,适用于交互式语音应用。
Qwen2.5-7B-Instruct是阿里云研发的开源指令调优大模型,基于18万亿token预训练,参数76.1亿。具备知识密集(MMLU 85+)、代码(HumanEval 85+)及数学(MATH 80+)能力,支持29种语言与128K上下文,适用于智能客服、教育辅导及自动化办公等场景。
Qwen-TTS是阿里云推出的高性能语音合成模型,可将文本转为自然语音。其特点为高自然度,能模拟真人情感语调;支持中英双语及北京、上海、四川方言;提供7种音色。适用于有声内容创作、智能客服等场景。
Qwen-Plus是阿里云通义千问Qwen3系列的大语言模型,定位为中等复杂度任务的均衡型模型,能力介于Qwen-Max与Qwen-Flash之间。其特点包括支持百万级上下文长度,优化了指令遵循能力与中文理解推理,提供思考/非思考双模式,且支持Batch调用半价。适用于文本生成、智能问答、多轮对话及API集成的产品线开发。
Qwen-Omni-Turbo-Realtime是通义千问推出的实时音视频聊天模型,能同时理解流式音频与图像输入(如视频流连续图像帧),并实时输出高质量文本与音频,适用于实时音视频交互场景。
""qwen-omni-turbo""是阿里云通义千问推出的多模态大模型,支持文本、图像、语音、视频输入,流式输出文本与语音,提供4种对话音色。具备119种文本语言、19种语音输入及10种语音输出能力,适用于智能交互、内容生成等场景,可通过API调用,免费额度100万Tokens。
Qwen_v2.5_14b_Instruct是阿里云开发的指令微调语言模型,基于通用模型优化,支持29种语言,长文本处理达128K tokens,擅长指令跟随与结构化输出,适用于文档生成、多语言问答、代码数学任务及智能客服。
Qwen_v2.5_7B_Base是基础版大语言模型,不建议直接用于对话任务,可作为进一步训练的基础。支持通过Hugging Face Transformers库或vLLM框架在CPU/GPU部署,适用于聊天机器人、智能助手、代码生成、内容创作等领域。
Qwen_v2.5_0.5b_base是阿里云Qwen2.5系列的0.5B参数基础预训练语言模型,采用Transformer架构,预训练数据达18万亿tokens。特点为轻量级、支持量化版本,需通过提示工程使用,适用于资源受限场景的基础NLP任务及专业模型训练底座。
Qwen_v2.5_3b_base是30亿参数量的轻量级语言模型,适配移动端/边缘设备,需单卡T4(16GB)部署。MMLU测试得分超65,优于同规模Gemma2-2.6B,主打资源受限场景的高效推理。
Qwen_v2.5_1.5b_base是阿里云Qwen团队开发的1.54B参数开源基础语言模型,支持32K上下文窗口,采用Transformer解码器架构与GQA、SwiGLU等技术。具备多语言能力(中英为主),需通过提示工程优化输出,适用于企业定制化开发、边缘计算及低资源场景的NLP任务预训练。
Qwen2.5-0.5B-Instruct是阿里通义千问推出的轻量级指令微调模型,属decoder-only架构,0.5B参数。特点:经SFT+RLHF/DPO优化,支持128K上下文、8K生成,开箱即用于中英问答、代码、翻译,适配系统提示与JSON输出。轻量高效,适合开发者本地测试、边缘设备部署及定制微调。
Qwen_v2_0.5b_Instruct(推测为Qwen2.5-0.5B-Instruct)是阿里开发的轻量级指令微调语言模型,参数规模0.5B,支持中英文对话交互,具备问答、代码生成、翻译、文本总结等基础能力。特点为运行轻量、开箱即用,适合资源受限场景或开发者测试环境,但知识覆盖面和效果弱于大模型。
Qwen_v2_1.5b_Instruct是阿里巴巴Qwen团队研发的轻量级指令微调大语言模型,参数量1.5B,属Qwen2系列。采用RoPE位置编码等架构,支持32K上下文,INT8/INT4量化适配边缘设备,适用于智能客服、文本摘要等实时场景。
Qwen_v2.5_1.5b_Instruct是Qwen2.5系列中的1.5B参数decoder-only指令微调模型,基于18T tokens预训练,知识增强(MMLU 85+),编程(HumanEval 85+)和数学(MATH 80+)能力提升,支持8K+长文本生成与JSON结构化输出,适配端侧部署(8G显存可LoRA微调),适用于轻量对话、二次开发及边缘计算场景。
Qwen_v2.5_3b_Instruct 是 Qwen2.5 系列中的轻量级指令微调模型,参数量 30 亿,基于 Transformer 架构,采用 GQA 注意力机制与 RoPE 位置编码。其特点包括:支持 128K 上下文长度,优化长文本生成与结构化数据分析;经多阶段强化学习(DPO/GRPO)提升指令遵循能力,适配量化部署(如 INT4/INT8)。适用场景为移动端端侧推理、轻量级客服机器人及低资源设备的智能交互任务,平衡性能与部署成本。
通义千问Max(Qwen-Max)是阿里云推出的旗舰级大语言模型,为通义千问系列性能最强版本,适用于复杂多步骤任务。具备超32K上下文长度,支持文本、图像、视频多模态处理,数学与编程能力突出,适用于深度研究、代码开发、多模态内容生成等场景。