DeepSeek-R1-Distill-Qwen-1.5B是基于Qwen架构的1.5B参数小型语言模型,通过知识蒸馏技术从DeepSeek-R1迁移推理能力。特点:轻量化设计,推理速度快,资源消耗低,在数学推理等任务表现优于同量级模型。适用于小型企业智能客服、个人开发者文本处理工具及边缘设备部署。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 6 / 9 页,共 257 条结果,本页区间为 151-180,当前标签为 文本。
Spark Tiny(星火 Tiny)是科大讯飞 (iFLYTEK) 推出的 讯飞星火认知大模型 系列中的一个轻量级、低延迟的模型版本。
GPT-3.5 Turbo是OpenAI推出的高效能自然语言处理模型,基于GPT架构优化,参数规模精简但性能强劲,支持自然语言理解与生成及代码任务,上下文窗口16,385 tokens,训练数据截至2021年9月。其特点为响应快、成本效益高,是GPT-3.5系列中功能最强且经济的模型,适用于聊天交互、客服、教育辅助、代码生成等场景,也是ChatGPT的基础模型。
Gemini 2.0 Flash Thinking是谷歌推出的多模态推理大模型,主打快速响应与复杂任务处理,支持文本、图片等多模态输入输出,具备工具调用和空间理解能力,适用于编程、数学及图像分析等场景,部分功能仍处实验阶段。
Qwen_v2.5_14b_Instruct是阿里云开发的指令微调语言模型,基于通用模型优化,支持29种语言,长文本处理达128K tokens,擅长指令跟随与结构化输出,适用于文档生成、多语言问答、代码数学任务及智能客服。
Qwen_v2.5_7B_Base是基础版大语言模型,不建议直接用于对话任务,可作为进一步训练的基础。支持通过Hugging Face Transformers库或vLLM框架在CPU/GPU部署,适用于聊天机器人、智能助手、代码生成、内容创作等领域。
MiniMax M1是上海MiniMax研发的全球首个开源大规模混合架构推理模型,于2025年6月发布。其核心特点为百万Token级长文本处理能力,上下文长度全球领先;RL训练成本仅53万美元,较同类模型下降一个量级,推理效率数倍于竞品。适用于长文档分析、企业级智能检索及低成本AI应用开发场景。
GLM-Z1-Air是智谱AI推出的32B参数开源大模型,主打高速推理与深度思考能力。其推理速度达200+Tokens/s,较主流模型提升8倍,成本仅为1/30,支持消费级硬件部署。具备强大数理逻辑推理与多步决策能力,适用于复杂问题求解、代码生成、AI智能体开发等场景,可通过Z.ai平台免费体验。
Baichuan-M2-32B是百川智能2025年8月发布的开源医疗增强大模型,基于Qwen2.5-32B架构,创新性引入大型验证器系统,通过真实医疗数据强化学习。在HealthBench评测中以60.1分超越GPT-OSS120B等模型,支持RTX4090单卡部署,成本降低57倍,适用于医疗影像分析、病历诊断等场景,兼顾通用能力与医疗垂直领域需求。
GLM-Z1-Flash是智谱AI发布的轻量级快速推理模型,为GLM-Z1系列成员,基于GLM-4-Flash基座优化,遵循MIT开源协议且完全免费调用。其通过算法优化实现高效资源调度,保持与更大规模模型相近的推理性能(如代码生成、数学推理),特点为更轻量、高速,适用于轻量级实时交互场景。
GLM-Z1-AirX是智谱AI推出的32B参数推理模型,定位“瞬时”极速版,推理速度达200 Tokens/s,比常规模型快8倍,具备更高性价比(速度优先)。适用于代码生成、数学推理、智能客服等实时交互场景。
Qwen_v2.5_0.5b_base是阿里云Qwen2.5系列的0.5B参数基础预训练语言模型,采用Transformer架构,预训练数据达18万亿tokens。特点为轻量级、支持量化版本,需通过提示工程使用,适用于资源受限场景的基础NLP任务及专业模型训练底座。
Qwen_v2.5_3b_base是30亿参数量的轻量级语言模型,适配移动端/边缘设备,需单卡T4(16GB)部署。MMLU测试得分超65,优于同规模Gemma2-2.6B,主打资源受限场景的高效推理。
Qwen_v2.5_1.5b_base是阿里云Qwen团队开发的1.54B参数开源基础语言模型,支持32K上下文窗口,采用Transformer解码器架构与GQA、SwiGLU等技术。具备多语言能力(中英为主),需通过提示工程优化输出,适用于企业定制化开发、边缘计算及低资源场景的NLP任务预训练。
Hunyuan-Vision是腾讯推出的多模态视觉大模型,其最新版本Hunyuan-Vision-1.5-Thinking在2025年10月LMArena全球榜单中位列第三、国内第一。该模型具备领先的多语言多模态理解与推理能力,可通过多轮反思深入解析视觉内容,支持图表解释、文档解析、几何问题求解等复杂任务,已开放API接口供开发者使用。
Pangu-NLP-N1-128K-3.2.36 是华为云于2025年1月发布的自然语言处理模型,支持128K序列长度推理,4个推理单元可实现8并发。该模型需通过全量微调或LoRA微调(8个训练单元起训)后部署,适用于长文本处理场景。
Pangu-NLP-N1-32K-3.2.36是华为云2025年1月发布的NLP大模型,支持32K序列长度训练及4K/32K推理,8单元起训、1单元即可部署,4K/32K均支持256并发。具备文章写作、文本分析、代码编写等能力,适用于智能文档处理、专业问答等场景。
Pangu-NLP-N2-32K-3.1.35是华为云于2024年12月发布的NLP大模型,支持8K训练、4K/32K推理序列长度,全量微调需32训练单元起训,LoRA微调8单元起训,4推理单元即可部署,4K/32K均支持64并发,具备预训练与INT8量化特性。
ERNIE X1.1 Preview是百度文心基于文心4.5开发的深度思考模型,采用迭代式混合强化学习框架,在智能体、工具调用、指令遵循及事实性上显著提升。支持通用任务与人机协作,官方评测显示其效果与GPT-5、Gemini 2.5 Pro持平,领先DeepSeekR1-0528,可通过文心一言官网等平台使用。
Pangu-NLP-N4-32K-2.5.35是华为云2025年3月发布的NLP大模型,支持32K序列长度的训练与推理,全量微调需96卡起训,LoRA微调64卡起训,8卡即可部署并支持64并发,具备预训练、DPO训练及INT8/INT4量化特性。
Hunyuan-Standard-Vision(混元-标准-视觉模型)是腾讯(Tencent)的混元大模型系列中,专为处理和理解视觉信息而设计的一个模型版本。
Hunyuan-Large-Longcontext是腾讯开源的大语言模型,属MoE架构,总参389B、激活参52B,支持256K超长文本序列,Instruct模型支持128K。采用CLA结构与FP8量化优化,节省显存并提升吞吐,适配vLLM推理框架与Hugging Face生态,可用于长文档处理、代码生成等场景。
Hunyuan-Lite-Vision(混元-精简-视觉模型)是腾讯(Tencent)混元大模型系列中,针对视觉任务推出的一个轻量级、高效率版本。
o1-pro 是 OpenAI 推出的 O1 系列升级版推理模型,基于 Transformer 架构,强化复杂逻辑推理能力。特点:采用蒙特卡洛树搜索与自注意力机制,支持多模态输入,提供结构化输出与函数调用,推理深度提升但速度较慢。适用场景:数学竞赛、编程开发、科学研究等高精度任务。
OpenAI o1是由OpenAI开发的专业化推理大模型,采用强化学习和思维链技术,专注于复杂逻辑推理。其核心特点是模拟人类思考过程,在数学、科学、编码等领域实现高精度推理,例如在AIME数学竞赛中解决率高达93%。该模型通过“模拟推理”技术支持自主调用外部工具,并在推理密集型任务上显著优于GPT-4o。目前处于Beta阶段,主要面向ChatGPT Plus和Team用户开放,适用于需要深度逻辑分析的科研、工程开发等场景。
商汤日日新SenseNova V6是多模态融合大模型,视频理解能力国内领先,支持10分钟中长视频解析及音视频混合模态分析,基础性能逼近Gemini 2.5 Turbo,64K思维链助力深度推理,可应用于教育、医疗、金融、内容创作等领域。
SenseNova V6 Pro是商汤科技2025年推出的原生多模态通用大模型,采用6200亿参数混合专家(MoE)架构,支持文本、图像、视频的原生融合。其特点为多模态融合能力突出,综合性能对标行业先进水平,适用于智能客服、内容分析、教育培训等需要跨模态交互与推理的场景。
Baichuan2-53B是百川智能2023年9月发布的闭源大模型,数学和逻辑推理能力显著提升,通过高质量数据体系和搜索增强极大降低模型幻觉,是国内“幻觉”问题最低的大模型,已开放API接口进军企业级市场。
SenseNova V6 Reasoner是商汤科技2025年4月发布的6000亿参数多模态MoE大模型,具备强推理、强交互、长记忆特点,可处理文本与多模态任务,适用于实时音视频交互、深度内容分析等场景。
Step-2是阶跃星辰自研的万亿参数MoE架构语言大模型,综合能力较Step-1提升近50%,在数理逻辑、编程等多维度逼近GPT-4,指令跟随能力国际榜单居首。有轻量级mini版(快、省、性价比高)和文学大师版(强创作、去AI味),适用于智能助手、开发API及创作类应用。