DeepSeek-V3.1是中国AI公司DeepSeek于2025年8月发布的大型语言模型,采用混合推理架构与6710亿参数MoE设计,支持""思考""与""非思考""双模式切换,统一通用对话、复杂推理和代码能力。其代理能力强化,可用于工具使用、多步骤推理及编程辅助,已开放API并提供MIT开源许可,适用于智能体开发、金融风控等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 2 页,共 47 条结果,本页区间为 1-30,当前标签为 AI 模型。
Pangu-NLP-N2-32K-5.0.1.1是华为盘古大模型5.0系列中的NLP基础模型,支持32K上下文长度推理,具备高效微调部署能力(LoRA微调8卡起训,4卡即可部署),适用于长文本处理、行业知识库构建等场景,支持INT8量化特性以优化性能。
盘古NLP-N2-128K-5.0.1.1是华为云2025年8月发布的NLP大模型,支持128K序列长度推理,4推理单元部署,128并发,适用于长文本处理场景。
DeepSeek-R1是深度求索团队开发的专注推理能力的大语言模型,通过强化学习直接优化推理,在数学、编程和科学推理等复杂任务表现出色,适用于深度逻辑分析场景,采用MIT许可协议开源。
Spark X1是科大讯飞于2025年1月发布的深度推理大模型,基于全国产算力平台训练,核心特点包括:支持全学段数学推理(覆盖小初高至AIME竞赛)、多路径采样验证技术优化幻觉问题,以及多语言处理能力。其应用场景已落地教育(AI学习机、教师助手)、医疗(辅助诊断系统)等领域,并于2025年7月完成迭代升级,进一步强化推理准确性与行业适配性。
DeepSeek-V3是2025年3月发布的AI模型,参数6850亿,属大语言模型。特点:推理与编程能力强,如AIME竞赛题解答、生成高效代码;成本低,支持消费级设备运行;MIT许可开源。适用于Web开发、数学推理等场景。
讯飞星火医疗大模型 - Lite是轻量级医疗AI模型,具备医疗知识问答、专业文书生成、诊断推荐等能力,支持多轮交互,适用于辅助医生诊疗、优化医院流程及患者健康管理。
盘古-NLP-N4-Reasoner-128K-3.0.1.2是华为盘古3.0系列NLP基础大模型,属L0层通用模型,支持128K上下文长度,具备逻辑推理能力,可处理文本问答、文案生成、代码创作等任务,适用于通用及行业场景下的长文本理解与生成。
盘古-NLP-N2-Reasoner-128K-5.0.0.1是华为盘古系列NLP大模型,属基于逻辑推理的AI模型,支持128K上下文长度,可接入预训练文本、多轮问答等文本数据集,适用于智能客服、文本解析、行业知识检索等场景,提供API接口支持多语言开发。
华为盘古NLP大模型Pangu-NLP-N1-Reasoner-128K-3.0.1.1,2025年6月发布,属自然语言处理模型。支持128K序列长度推理,4推理单元384并发。具备逻辑推理等能力,可用于智能文档搜索等场景。
Pangu-NLP-N2-Reasoner-32K-3.0.1.1是华为盘古系列NLP大模型,属专业推理型,支持32K上下文窗口,2025年6月发布。具备强逻辑推理与结构化输出能力,支持INT8量化,适配云API与本地部署,适用于智能客服、金融分析等复杂文本处理场景。
Pangu-NLP-N4-Reasoner-32K-3.0.1.2是华为云盘古系列NLP大模型,属N4大参数量(718B MOE)版本,支持32K序列长度推理,需8个推理单元部署,聚焦逻辑推理任务,适用于企业级知识处理与智能决策场景。
Pangu-AgentExpert-N2-0.0.2(盘古-AgentExpert-N2-0.0.2)是华为云盘古 NLP(自然语言处理)大模型系列下的一个垂直领域专精模型。
Pangu-AgentExpert-N1-0.0.2是基于华为盘古NLP大模型微调的Agent场景模型,2025年6月发布,支持32K序列长度,1推理单元部署,256并发。具备意图识别、提问器功能,算法优化后性能较传统模型提升显著,适用于智能交互、自动化任务处理等场景。
华为盘古图生视频模型Pangu-MM-M2-AIGVideo-1.0.0,支持多比例5秒视频生成与96帧续写,8推理单元部署
Pangu-MM-M2-Text2Video-1.0.0是华为云2025年4月发布的文本转视频模型,支持16:9、9:16等5种长宽比,可生成5秒时长视频,需8个推理单元部署,适用于多场景短视频创作。
Pangu-MM-M1-Txt2Img-1.0.0是2025年4月发布的文本生成图像模型,支持1024*1024分辨率,涵盖写实、油画、动漫等数十种风格,需8个推理单元部署。
Pangu-RAG-N1-32K-4.3.2 是华为云盘古系列的检索增强生成(RAG)模型,支持32K上下文窗口,云上部署需1个推理单元。具备零代码开发能力,可配置知识库与插件实现智能问答,适用于电商客服、教育答疑等场景,通过工具调用提升复杂任务处理效率。
Step-Video-TI2V是阶跃星辰开源的300亿参数TI2V(Text/Image-to-Video)模型,支持生成102帧5秒视频,运动可控且平衡动态与稳定性,适配华为昇腾平台,应用于影视特效、广告创意、短视频生产等领域。
Pangu-NLP-N4-4K-3.2.36是华为云盘古大模型系列中的NLP基础模型,支持4K上下文窗口,具备增量预训练能力,可基于行业数据优化。特点包括逻辑推理强、支持工具调用与SQL生成,适配INT8/INT4量化部署。适用于工业设计、政务智能问答、金融风控等场景,助力行业复杂任务处理与效率提升。
Step-Video-T2V-Turbo是300亿参数文本到视频模型的提速版本,通过推理步骤蒸馏技术将生成速度提升3-5倍,204帧视频耗时从743秒缩至148秒,保持90%质量。适用于短视频创作、广告营销、在线教育、游戏开发及虚拟人直播等场景,开源特性降低技术门槛。
Step-Video-T2V是阶跃星辰开源的文本到视频生成模型,300亿参数,支持中英双语输入,可生成204帧540P视频。特点:高压缩比Video-VAE提升效率,Video-DPO优化质量,Turbo版生成提速3-5倍。应用于广告营销、在线教育、游戏开发、虚拟人直播等场景,降低创作门槛。
DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2 架构的 32B 参数蒸馏模型,由 DeepSeek 通过知识蒸馏技术将 6710 亿参数的 DeepSeek-R1 教师模型推理能力迁移而来。其核心特点包括:数学推理能力突出(AIME 2024 pass@1 达 72.6%、Math-500 达 94.3%),代码生成表现优异(LiveCodeBench pass@1 57.2%),性能接近 OpenAI-O1。适用于复杂数学问题求解、代码开发辅助及高精度文本推理场景,需 65.7GB VRAM 支持部署。
DeepSeek-R1-Distill-Qwen-7B是基于DeepSeek-R1大模型知识蒸馏的7B参数小型语言模型,继承强化学习优化的推理能力,在数学推理(AIME 2024达55.5%)、编程等任务表现突出,适配边缘设备及低成本推理场景。
DeepSeek-R1-Distill-Qwen-14B是基于Qwen架构的14B参数蒸馏语言模型,具备较强复杂任务处理能力与中等资源需求,适用于数据分析、智能推荐、自然语言处理及长文本生成等中等复杂度场景。
DeepSeek-R1-Distill-Llama-8B是基于Llama-3.1-8B基座模型的开源蒸馏模型,通过DeepSeek-R1推理数据微调,保留原版90.2%数学推理能力(MATH-500达89.1%),代码生成能力达72.3%,推理速度提升5.8倍,单GPU(24GB)即可部署,适用于本地部署、RAG系统构建及教育、编程辅助等场景。
DeepSeek-R1-Distill-Qwen-1.5B是基于Qwen架构的1.5B参数小型语言模型,通过知识蒸馏技术从DeepSeek-R1迁移推理能力。特点:轻量化设计,推理速度快,资源消耗低,在数学推理等任务表现优于同量级模型。适用于小型企业智能客服、个人开发者文本处理工具及边缘设备部署。
Spark Tiny(星火 Tiny)是科大讯飞 (iFLYTEK) 推出的 讯飞星火认知大模型 系列中的一个轻量级、低延迟的模型版本。
Pangu-NLP-N1-128K-3.2.36 是华为云于2025年1月发布的自然语言处理模型,支持128K序列长度推理,4个推理单元可实现8并发。该模型需通过全量微调或LoRA微调(8个训练单元起训)后部署,适用于长文本处理场景。
Pangu-NLP-N1-32K-3.2.36是华为云2025年1月发布的NLP大模型,支持32K序列长度训练及4K/32K推理,8单元起训、1单元即可部署,4K/32K均支持256并发。具备文章写作、文本分析、代码编写等能力,适用于智能文档处理、专业问答等场景。