Qianfan-VL-8B是百度推出的多模态视觉理解大模型,属Qianfan-VL系列80亿参数版本。具备三大特点:支持思维链推理,可处理复杂图表理解与数学解题;OCR能力突出,精准识别手写体、公式及复杂版面并结构化提取信息;轻量级设计适配企业级部署。适用于教育作业批改、金融报表分析、文档智能处理等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 2 / 9 页,共 257 条结果,本页区间为 31-60,当前标签为 文本。
Qianfan-VL-70B是百度智能云推出的视觉语言大模型,属企业级多模态应用优化的700亿参数版本。具备三大特点:超长上下文窗口,支持复杂图表理解与数学推理;OCR与文档理解增强,精准识别手写体、复杂版面并结构化提取信息;基于昆仑芯P800训练,处理超10亿图像数据。适用于金融图表分析、教育数学解题、企业文档智能处理等场景。
Grok Code Fast 1 是 xAI 开发的低延迟编码模型,基于 MoE 架构,3140 亿参数,256K 上下文窗口。主打高速(92-190 令牌/秒)、低成本,支持工具调用与结构化输出,适用于 IDE 集成、CI 管道及智能体编码任务,可快速完成代码生成、调试与重构。
Hunyuan-T1-20250822是腾讯混元旗舰推理模型,属文本生成类。特点:最大输入32K、输出64K,提升高难度数学、逻辑和代码能力,优化长文处理与输出稳定性。适用于文本生成、创作、问答等场景。
Doubao-Seed-1.6-vision 是字节跳动发布的多模态视觉深度思考模型,支持 256K 上下文窗口与工具调用,可自动调用旋转、放大等图像处理工具。适用于视频理解、医疗影像分析、制造业质检等场景,已在豆包 APP 及火山引擎开放。
Hunyuan-T1-latest是腾讯2025年3月推出的深度推理大模型,采用Hybrid-Transformer-Mamba MoE架构,万亿级参数规模。具备超强长文本捕捉、数学/逻辑推理、代码生成能力,解码速度60-80token/s,支持API调用,适用于复杂问题解答、科学计算及AI搜索等场景。
Qwen-Deep-Research 是通义千问的研究型智能体模型,可拆解复杂问题,结合互联网搜索进行推理分析并生成研究报告,适用于科研辅助、生活决策、内容创作等场景,能大幅缩短研究时间。
DeepSeek-V3.1是中国AI公司DeepSeek于2025年8月发布的大型语言模型,采用混合推理架构与6710亿参数MoE设计,支持""思考""与""非思考""双模式切换,统一通用对话、复杂推理和代码能力。其代理能力强化,可用于工具使用、多步骤推理及编程辅助,已开放API并提供MIT开源许可,适用于智能体开发、金融风控等场景。
Qwen3-1.7B是阿里Qwen3系列开源Dense模型,参数1.7B,支持119种语言,具备混合思维模式(可手动控制是否开启推理过程)。硬件要求低,适合本地测试、科研快速实验等场景。
Qwen-VL-Max是阿里云通义千问系列的增强视觉语言模型,定位为性能最强的多模态模型,支持图文理解与生成。其特点是视觉推理能力优于Qwen-VL-Plus,适用于复杂图文交互场景,如图像内容分析、多模态Agent系统构建及高精度图文生成任务。
gpt-oss-20b是OpenAI 2025年推出的开源推理大模型,210亿总参数,激活36亿参数,采用MoE架构与MXFP4量化技术,性能比肩o3-mini,16GB内存即可本地部署,适用于开发者工作站、边缘设备及低延迟场景,Apache 2.0许可证支持商用与修改。
Qwen-Image 是阿里巴巴通义千问团队2025年8月开源的20B参数MMDiT图像生成基础模型,以中文文本渲染和精准图像编辑为核心优势,支持多风格生成与编辑闭环,适用于设计工具、电商图生成、多模态助手等场景,可嵌入产品线作为基础设施。
Qwen3-30B-A3B-Instruct-2507是阿里通义千问推出的大语言模型,采用混合专家(MoE)架构,总参数305亿,激活参数33亿。具备逻辑推理、数学计算、代码编程能力,支持256K上下文长度,100+语言,非思考模式运行,适合本地部署,可用于复杂文档处理、多语言交互等场景。
GPT-5是OpenAI推出的新一代旗舰大语言模型,采用统一架构与智能路由机制,可自动切换快速响应或深度推理模式。其核心特点包括行业领先的编码能力(SWE-bench Verified得分74.9%)、多模态处理、低幻觉率及优化的指令遵循能力,适用于编程开发、内容创作、医疗咨询、复杂问题推理等场景,提供Plus/Pro等分级服务。
GPT-5 Mini是OpenAI推出的轻量级语言模型,主打高效低成本,适用于结构化任务如表单填写、数据提取及标准化内容生成。其降低计算资源需求,让中小企业可负担高质量AI服务,平衡性能与成本,是预算有限团队的可靠选择。
GPT-5 nano是OpenAI推出的超低延迟版大模型,属轻量级API专用版本,主打速度与成本优化。输入token定价为GPT-4o的二分之一,支持token缓存与细粒度推理控制,适合高频低推理任务及对响应速度要求极高的开发场景,如实时交互、批量查询等。
Qwen3-235B-A22B-Instruct-2507是阿里巴巴开源的超大规模因果语言模型,采用2350亿总参数+220亿激活参数的混合专家架构,具备数学推理、代码生成等能力,在核心基准超越GPT-4o,推理成本低至1/3,适用于企业级复杂任务部署。
GPT OSS 120B 是 OpenAI 2025 年开源的千亿参数大语言模型,采用混合专家架构,单卡 H100 GPU 即可部署。具备强推理、Agent 能力,支持推理成本调节与思维链追溯,Apache 2.0 许可,适用于生产级任务与智能代理开发。
Qwen3-Coder-Flash是阿里开源的轻量级编程模型(全称为Qwen3-Coder-30B-A3B-Instruct),采用混合专家架构,激活参数30亿,主打高性能与效率。支持256K原生上下文(可扩展至100万token),擅长代码生成、智能体编程及工具调用,性能接近Claude Sonnet,适配Qwen Code等开发工具,适合本地部署与大型项目开发。
Qwen-Flash是阿里巴巴通义实验室发布的Qwen3系列高性能轻量级模型,优化通用任务处理、逻辑推理及中英文理解,支持百万字符上下文,响应速度快、成本低,适用于智能客服、内容生成、文档分析及智能体应用,已上线阿里云百炼平台。
Claude Opus 4.1是Anthropic开发的顶级大型语言模型,属Claude家族核心引擎。特点是长文本处理(20万+字符上下文)、复杂推理能力强,SWE-bench编码得分74.5%,支持多模态输入,采用宪法AI技术保障安全。适用于企业级文档分析、代码重构、学术研究等专业场景。
Hunyuan-Large-Vision是腾讯研发的多模态视觉理解模型,采用MoE架构,激活参数52B,支持图像、视频及3D数据处理。在国际评测平台排名国内首位,具备强大多语言交互能力,应用于拍照解题、视频分析、智能文案生成等场景。
Pangu-NLP-N2-32K-5.0.1.1是华为盘古大模型5.0系列中的NLP基础模型,支持32K上下文长度推理,具备高效微调部署能力(LoRA微调8卡起训,4卡即可部署),适用于长文本处理、行业知识库构建等场景,支持INT8量化特性以优化性能。
盘古NLP-N2-128K-5.0.1.1是华为云2025年8月发布的NLP大模型,支持128K序列长度推理,4推理单元部署,128并发,适用于长文本处理场景。
Qianfan-ToyTalk(千帆-玩具对话模型)是百度智能云千帆大模型平台上的一款垂类专精文本生成模型。
Doubao-Seed-1.6-thinking 是豆包大模型1.6系列的深度思考强化版本,属代码与逻辑推理优化型大语言模型。特点为支持256K超长上下文,在数学推理、代码编写等基础能力上显著提升,复杂推理测试达全球前列水平,可独立规划并使用搜索工具完成深度研究任务。适用于复杂业务场景落地,如快速生成专业调研报告、高考级数学解题、高精度代码开发等需强逻辑分析的场景。
GLM-4.5-Flash是智谱AI发布的开源基础模型,采用混合专家(MoE)架构,提供思考/非思考双推理模式,支持工具调用与多框架兼容。适用于智能体开发、代码生成及复杂推理,MIT协议允许商用,性价比高。
GLM-4.5-X是基于GLM-4.5架构的开源混合专家(MoE)大语言模型,总参数量3550亿,激活参数量320亿,采用89层深层结构与160专家设计。支持思维/直接响应双模式切换,擅长智能体任务、复杂推理及代码生成,在TAU-Bench(70.1%)、AIME 24(91.0%)等基准测试中表现优异,适用于科研、工程开发及智能系统构建。
GLM-4.5-AirX是智谱AI推出的轻量级混合推理大模型,总参数1060亿(激活参数120亿),采用MoE架构,原生融合推理、编码和智能体能力,支持思考(复杂推理/工具使用)与非思考(即时响应)双模式,适用于智能体开发、本地部署及多语言处理,MIT协议开源可商用。
GLM-4.5是开源混合专家(MoE)大语言模型,总参3550亿(激活320亿),支持思维与直接响应混合推理。23万亿Token训练后,在智能体、推理和编码任务表现优异,如TAU-Bench得分70.1%、AIME 24达91.0%、SWE-bench Verified 64.2%。有3550亿参数版及轻量1060亿参数版,适用于复杂推理、工具调用及快速响应场景。