Qwen3-235B-A22B-Instruct-2507是阿里巴巴开源的超大规模因果语言模型,采用2350亿总参数+220亿激活参数的混合专家架构,具备数学推理、代码生成等能力,在核心基准超越GPT-4o,推理成本低至1/3,适用于企业级复杂任务部署。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 3 / 10 页,共 300 条结果,本页区间为 61-90。
GPT OSS 120B 是 OpenAI 2025 年开源的千亿参数大语言模型,采用混合专家架构,单卡 H100 GPU 即可部署。具备强推理、Agent 能力,支持推理成本调节与思维链追溯,Apache 2.0 许可,适用于生产级任务与智能代理开发。
Qwen3-Coder-Flash是阿里开源的轻量级编程模型(全称为Qwen3-Coder-30B-A3B-Instruct),采用混合专家架构,激活参数30亿,主打高性能与效率。支持256K原生上下文(可扩展至100万token),擅长代码生成、智能体编程及工具调用,性能接近Claude Sonnet,适配Qwen Code等开发工具,适合本地部署与大型项目开发。
Qwen-Flash是阿里巴巴通义实验室发布的Qwen3系列高性能轻量级模型,优化通用任务处理、逻辑推理及中英文理解,支持百万字符上下文,响应速度快、成本低,适用于智能客服、内容生成、文档分析及智能体应用,已上线阿里云百炼平台。
Claude Opus 4.1是Anthropic开发的顶级大型语言模型,属Claude家族核心引擎。特点是长文本处理(20万+字符上下文)、复杂推理能力强,SWE-bench编码得分74.5%,支持多模态输入,采用宪法AI技术保障安全。适用于企业级文档分析、代码重构、学术研究等专业场景。
Hunyuan-Large-Vision是腾讯研发的多模态视觉理解模型,采用MoE架构,激活参数52B,支持图像、视频及3D数据处理。在国际评测平台排名国内首位,具备强大多语言交互能力,应用于拍照解题、视频分析、智能文案生成等场景。
Pangu-NLP-N2-32K-5.0.1.1是华为盘古大模型5.0系列中的NLP基础模型,支持32K上下文长度推理,具备高效微调部署能力(LoRA微调8卡起训,4卡即可部署),适用于长文本处理、行业知识库构建等场景,支持INT8量化特性以优化性能。
盘古NLP-N2-128K-5.0.1.1是华为云2025年8月发布的NLP大模型,支持128K序列长度推理,4推理单元部署,128并发,适用于长文本处理场景。
Qianfan-ToyTalk(千帆-玩具对话模型)是百度智能云千帆大模型平台上的一款垂类专精文本生成模型。
Doubao-Seed-1.6-thinking 是豆包大模型1.6系列的深度思考强化版本,属代码与逻辑推理优化型大语言模型。特点为支持256K超长上下文,在数学推理、代码编写等基础能力上显著提升,复杂推理测试达全球前列水平,可独立规划并使用搜索工具完成深度研究任务。适用于复杂业务场景落地,如快速生成专业调研报告、高考级数学解题、高精度代码开发等需强逻辑分析的场景。
GLM-4.5-Flash是智谱AI发布的开源基础模型,采用混合专家(MoE)架构,提供思考/非思考双推理模式,支持工具调用与多框架兼容。适用于智能体开发、代码生成及复杂推理,MIT协议允许商用,性价比高。
GLM-4.5-X是基于GLM-4.5架构的开源混合专家(MoE)大语言模型,总参数量3550亿,激活参数量320亿,采用89层深层结构与160专家设计。支持思维/直接响应双模式切换,擅长智能体任务、复杂推理及代码生成,在TAU-Bench(70.1%)、AIME 24(91.0%)等基准测试中表现优异,适用于科研、工程开发及智能系统构建。
GLM-4.5-AirX是智谱AI推出的轻量级混合推理大模型,总参数1060亿(激活参数120亿),采用MoE架构,原生融合推理、编码和智能体能力,支持思考(复杂推理/工具使用)与非思考(即时响应)双模式,适用于智能体开发、本地部署及多语言处理,MIT协议开源可商用。
GLM-4.5是开源混合专家(MoE)大语言模型,总参3550亿(激活320亿),支持思维与直接响应混合推理。23万亿Token训练后,在智能体、推理和编码任务表现优异,如TAU-Bench得分70.1%、AIME 24达91.0%、SWE-bench Verified 64.2%。有3550亿参数版及轻量1060亿参数版,适用于复杂推理、工具调用及快速响应场景。
GLM-4.5-Air是清华智谱推出的轻量级千亿参数大语言模型,采用MoE架构(1060亿总参数/120亿激活参数),主打混合推理能力,支持复杂任务的思考模式与快速响应的非思考模式切换。其量化版本(如4-bit AWQ)模型文件仅64GB,适配本地部署与边缘设备,平衡性能与效率。适用于智能代理开发、工具调用及资源受限场景,已开源并开放API接口。
DeepSeek-R1是深度求索团队开发的专注推理能力的大语言模型,通过强化学习直接优化推理,在数学、编程和科学推理等复杂任务表现出色,适用于深度逻辑分析场景,采用MIT许可协议开源。
Spark X1是科大讯飞于2025年1月发布的深度推理大模型,基于全国产算力平台训练,核心特点包括:支持全学段数学推理(覆盖小初高至AIME竞赛)、多路径采样验证技术优化幻觉问题,以及多语言处理能力。其应用场景已落地教育(AI学习机、教师助手)、医疗(辅助诊断系统)等领域,并于2025年7月完成迭代升级,进一步强化推理准确性与行业适配性。
Doubao-1.5-thinking-pro 是字节跳动自研的 200B 参数 MoE 架构大语言模型,具备深度推理与低延迟特性。采用「先思后言」路径提升编程、数学等领域推理能力,20 毫秒延迟优化交互流畅度,适用于开发协作、复杂问题求解等场景。
qwen-mt-turbo是阿里通义千问系列的轻量级机器翻译模型,基于Qwen3架构,支持92种语言互译,覆盖全球95%人口。采用轻量级MoE架构,响应速度快且成本低(输入0.7元/百万Token,输出1.95元/百万Token),具备术语干预、领域提示等自定义功能,适用于高并发实时翻译场景。
Qwen-MT-Plus是阿里云通义千问Qwen3系列的专业翻译大模型,支持92种语言互译,上下文长度提升至4K Token,翻译准确率全面优于同规格模型及GPT-4.1,适用于多语言文档翻译、跨境内容本地化等场景,2025年7月更新后价格直降80%。
豆包1.5·UI-TARS是火山引擎发布的GUI Agent大模型,整合屏幕视觉理解、逻辑推理、界面元素定位与操作能力,突破传统自动化工具依赖预设规则的局限,可驱动图形用户界面交互完成复杂任务,已在火山方舟平台上线。
qwen-tts-realtime 是阿里云推出的实时语音合成模型,支持流式文本输入与音频输出,低延迟,7种拟人音色,可合成中文、英文,适用于交互式语音应用。
Hunyuan-TurboS-latest是腾讯混元推出的新一代快思考大模型,为超大型Hybrid-Transformer-Mamba MoE模型。其特点是响应速度快,吐字速度提升一倍,首字时延降低44%,在知识、数理、创作等方面表现突出,在业界通用的多个公开 Benchmark 上,于知识、数学、推理等多个领域展现出对标 DeepSeek V3、GPT 4o、Claude3.5 等业界领先模型的效果。适用于3D建模、视频特效制作、语音交互等实时AI应用场景。
腾讯混元Hunyuan-TurboS-20250716是腾讯推出的新一代快思考大语言模型,采用Hybrid-Mamba-Transformer混合架构,主打极速响应能力,首字时延降低44%,吐字速度提升一倍,实现“秒回”。其推理性能对标GPT-4o、Claude 3等主流模型,在数学、代码等短链任务中表现突出,且部署成本显著降低,API调用价格较前代下降数倍。目前已开放企业API接入,适用于即时交互、智能客服等高效响应场景。
Grok-4是xAI开发的大语言模型,采用模块化架构与多智能体协同设计,支持25.6万Token上下文,具备高效推理与多模态能力。适用于长文档分析、复杂任务处理及特斯拉车载交互等场景。
Grok-4 Heavy是xAI开发的多智能体大语言模型,采用多Agent协作架构,可并行处理复杂任务并整合结果。特点包括25.6万Token上下文窗口、HLE测试44.4%正确率,擅长数学推理(AIME25满分)与代码生成(SWE-Bench并列第一)。适用于科研协作、复杂数据分析及跨领域项目开发。
Qwen3-0.6B是阿里达摩院发布的轻量级因果语言模型,0.6B参数量,28层网络结构,GQA分组查询注意力机制,支持32k超长上下文。特点为双模式智能切换,资源消耗低,可在消费级设备部署。适用于端侧设备AI助手、轻量级智能客服、浏览器离线对话等场景。
Qwen2.5-VL-32B-Instruct是阿里开源的32B参数多模态视觉语言模型,具备图像解析、细粒度分析及强数学推理能力,输出规范符合人类偏好,可本地部署,适用于多模态应用开发。
Wan2.1-T2V-1.3B是阿里团队开发的开源文本转视频模型,基于扩散变换器技术,支持消费级GPU部署(8.19GB VRAM),4分钟内可生成5秒480P视频,适用于短视频创作、内容生成等场景。
DeepSeek-V3是2025年3月发布的AI模型,参数6850亿,属大语言模型。特点:推理与编程能力强,如AIME竞赛题解答、生成高效代码;成本低,支持消费级设备运行;MIT许可开源。适用于Web开发、数学推理等场景。