Hunyuan-A13B是腾讯开源的大语言模型,采用细粒度MoE架构,800亿总参数仅激活130亿,高效平衡性能与资源消耗。支持256K超长上下文、混合推理模式及多量化格式,在数学推理、代码生成等多任务表现卓越,尤其适合资源受限环境的研究与开发,应用场景包括智能客服、法律/医疗文档分析、代码辅助开发等。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 4 / 9 页,共 257 条结果,本页区间为 91-120,当前标签为 文本。
Qwen-Plus是阿里云通义千问Qwen3系列的大语言模型,定位为中等复杂度任务的均衡型模型,能力介于Qwen-Max与Qwen-Flash之间。其特点包括支持百万级上下文长度,优化了指令遵循能力与中文理解推理,提供思考/非思考双模式,且支持Batch调用半价。适用于文本生成、智能问答、多轮对话及API集成的产品线开发。
Hunyuan-TurboS-Vision是腾讯推出的混合架构大模型,融合Transformer与Mamba优势,采用MoE结构提升效率。具备自适应思维链机制,支持图文理解,适用于智能客服、代码生成等场景,平衡响应速度与推理能力。
Hunyuan-T1-Vision是腾讯混元推出的多模态视觉理解模型,融合多模态原生思维链技术,实现“看图思考”能力,响应速度提升1.5倍。可深度解析图像,如识别芯片型号并生成研发成本表,还支持花卉、围棋棋局、存款利率表等多场景识别与分析,已上线元宝平台。
Gemini 2.5 Pro是谷歌推出的多模态大型基础模型,具备强化推理能力,支持文本、代码、音视频等处理,拥有百万令牌上下文窗口。在代码生成、数学及STEM任务表现卓越,适用于复杂问题推理、大数据分析及企业级开发。
QianfanHuijin-8B是百度Qianfan-VL系列多模态大模型的8B参数量版本,支持32k上下文长度与思考功能,基于Llama 3.1架构和InternViT视觉编码器,在昆仑芯P800芯片训练,适用于服务端通用场景及微调优化,具备图像理解、OCR全场景覆盖(含手写体、公式识别)和教育场景K12数学解题优化能力。
Qianfan-QI-VL是百度开源的企业级通用视觉语言模型系列,包含3B/8B/70B参数量版本,基于Llama 3.1架构与InternViT视觉编码器,支持32k上下文长度与4K分辨率图像理解。核心特点包括文档理解与OCR增强、思维链推理(8B/70B支持)及多尺寸部署优化,适用于边缘实时光学字符识别、服务器端通用场景微调及复杂推理任务,可应用于文档识别、数学解题、图表分析等企业级多模态场景。
QianfanHuijin-Reason-8B(千帆慧金推理增强大模型8B版)是百度智能云推出的金融行业专用大模型,基于数百亿tokens高质量金融语料训练,支持32K上下文输入。特点为响应快、易部署,适用于金融意图识别、指标抽取等对时效要求高的场景,在金融Benchmark评测中超越部分千亿参数通用模型。
Qianfan-PublicOpinion-Classification(千帆-舆情分类模型)是百度智能云千帆大模型平台上提供的一个垂直领域专精模型,专门用于对文本数据进行舆情相关的分类和分析。
Hunyuan-Translation-Lite是腾讯混元大模型推出的轻量级翻译模型,采用7B参数规模与混合专家模型(MoE)结构,支持INT4/INT8量化及边缘部署,适配移动端、车载系统等设备。覆盖33种语种,具备零样本小语种翻译能力,适用于跨境电商客服、智能硬件离线翻译、政务文件本地化等场景,平衡翻译效果与推理成本。
Doubao-1.5-vision-lite是火山引擎推出的性价比多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节理解和指令遵循能力,适用于图像分析、文档处理等场景。
Doubao-1.5-vision-pro-32k是字节跳动推出的多模态大模型,支持文本、图像输入与输出,具备任意分辨率及极端长宽比图像识别能力,增强视觉推理、文档识别、细节理解和指令遵循能力,最大思维链内容长度32k,适用于复杂视觉任务与长文本交互场景。
Doubao-1.5-lite-32k是字节跳动推出的轻量级通用大模型,属豆包1.5系列。采用MoE架构,以轻量版成本实现原专业版性能,响应快、推理准,适合对时延敏感的简单任务。
Doubao-embedding是字节跳动研发的语义向量化模型,支持中英双语,输出稠密向量维度2048(可降维至512/1024),适用于语义搜索、推荐系统等场景。其240715版本提升中英文检索效果,升级版Doubao-embedding-large在MTEB和BRIGHT榜单达SOTA,优化推理密集型检索任务。
Gemini 2.5 Pro Preview 06-05是谷歌Gemini 2.5系列的全能力旗舰大模型,支持文本、图像、音视频等多模态输入,具备百万级上下文处理能力(输入超100万tokens,输出64K tokens),采用动态推理预算机制优化复杂任务准确率。适用于学术研究、软件开发、创意工作及企业数据分析等场景。
""QianfanHuijin-Reason-70B""即百度千帆慧金金融推理增强大模型70B版本,是面向金融行业的大参数模型。基于数百亿tokens高质量金融语料训练,支持32K上下文输入,擅长复杂推理与多轮任务规划,适用于投研辅助、策略分析等场景,金融Benchmark得分超千亿参数通用模型。
QianfanHuijin-70B(千帆慧金-70B)是百度智能云推出的金融行业大模型,基于Llama 3.1架构,参数量700亿,支持32K上下文与思维链推理。特点为金融知识增强与推理优化,适用于投研分析、风险管控等复杂任务,实测辅助金融销售成单率提升25%,报告解读错误率下降60%。
盘古-NLP-N4-Reasoner-128K-3.0.1.2是华为盘古3.0系列NLP基础大模型,属L0层通用模型,支持128K上下文长度,具备逻辑推理能力,可处理文本问答、文案生成、代码创作等任务,适用于通用及行业场景下的长文本理解与生成。
盘古-NLP-N2-Reasoner-128K-5.0.0.1是华为盘古系列NLP大模型,属基于逻辑推理的AI模型,支持128K上下文长度,可接入预训练文本、多轮问答等文本数据集,适用于智能客服、文本解析、行业知识检索等场景,提供API接口支持多语言开发。
华为盘古NLP大模型Pangu-NLP-N1-Reasoner-128K-3.0.1.1,2025年6月发布,属自然语言处理模型。支持128K序列长度推理,4推理单元384并发。具备逻辑推理等能力,可用于智能文档搜索等场景。
Pangu-NLP-N2-Reasoner-32K-3.0.1.1是华为盘古系列NLP大模型,属专业推理型,支持32K上下文窗口,2025年6月发布。具备强逻辑推理与结构化输出能力,支持INT8量化,适配云API与本地部署,适用于智能客服、金融分析等复杂文本处理场景。
Pangu-NLP-N4-Reasoner-32K-3.0.1.2是华为云盘古系列NLP大模型,属N4大参数量(718B MOE)版本,支持32K序列长度推理,需8个推理单元部署,聚焦逻辑推理任务,适用于企业级知识处理与智能决策场景。
Pangu-AgentExpert-N2-0.0.2(盘古-AgentExpert-N2-0.0.2)是华为云盘古 NLP(自然语言处理)大模型系列下的一个垂直领域专精模型。
Pangu-AgentExpert-N1-0.0.2是基于华为盘古NLP大模型微调的Agent场景模型,2025年6月发布,支持32K序列长度,1推理单元部署,256并发。具备意图识别、提问器功能,算法优化后性能较传统模型提升显著,适用于智能交互、自动化任务处理等场景。
Claude Sonnet 4 是Anthropic于2025年5月推出的Claude 4系列通用型大语言模型,定位高性能均衡型,支持文本/图像输入与200K上下文窗口,以动态混合推理机制平衡效率与成本。其特点为编码效率突出(SWE-bench达72.7%)、响应速度快且支持多工具调用,适用于编程辅助、AI Agent开发、日常开发、内容生成及数据分析等场景,对免费用户开放基础功能。
Claude Opus 4是Anthropic公司2025年推出的大语言模型,属Claude 4系列高端版本,擅长编码与复杂问题解决,性能远超同系列Sonnet模型。支持网页端/APP使用(付费),适用于编程开发、科研分析及复杂任务处理。
Gemini Diffusion是Google DeepMind推出的实验性文本扩散语言模型,采用扩散技术通过逐步优化噪声生成输出,非传统自回归逐词预测。其特点为生成速度快(2000token/秒),支持迭代纠错与编辑,编程和数学任务表现出色。适用于快速文本生成、代码编写及数学问题解决等场景。
GPT-4o是OpenAI开发的多模态大语言模型,于2024年5月发布,“o”代表“全能”,支持文本、图像等多模态处理。性能高效,应用于对话、内容生成、图像理解等场景,2025年3月更新后图像生成能力媲美专业工具,优化指令解析与创造力。
Qwen3-8B是阿里开源的82亿参数因果语言模型,具备双模式切换功能,思考模式适用于数学计算、代码生成等复杂推理任务,非思考模式优化日常对话与信息检索的响应速度。原生上下文长度32K,支持100+种语言,推理速度比LLaMA3-8B快25.8%,显存占用仅8-10GB,适用于企业级部署与开发者高效开发。
Qwen3-32B是阿里开源的320亿参数推理大模型,2025年4月发布,支持128K上下文,中英文均衡,逻辑推理、代码生成能力强。Apache 2.0协议免费商用,适合企业本地化部署,用于智能引擎、长文本处理等场景。