ERNIE 4.5 Turbo VL是百度推出的多模态视觉语言模型,具备高效图文理解与推理能力。其采用MoE架构,支持动态激活参数(如47B/424B),兼顾性能与效率,可部署于普通设备。适用于OCR、文档解析、跨模态问答等场景,能处理高分辨率视觉输入并支持多语言交互。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 7 / 9 页,共 257 条结果,本页区间为 181-210,当前标签为 文本。
Step-2-mini 是阶跃星辰推出的极速大模型,基于自研 MFA 注意力架构,以 3% 参数量实现 Step-2 模型 80% 性能,上下文长度 32k,代码能力突出。具备高吞吐、低时延(4000 tokens 输入首字时延 0.17 秒)及高性价比(输入 1 元/百万 token,输出 2 元/百万 token),适用于通用任务处理,API 接口已开放调用。
Baichuan2-Turbo-192k是百川智能发布的大模型,具备192K超长上下文窗口,可处理约35万字,支持搜索增强知识库,用户能上传资料创建专属知识库。适用于企业智能解决方案,已与财经媒体、律所等合作,助力长文档处理等场景。
Baichuan-M1-14B是百川智能开源的医疗增强大语言模型,针对医疗场景优化,医疗能力超越Qwen2.5-72B,与o1-mini相当,支持多语言,适配普通服务器,可用于医学问答、病历分析等。
ERNIE 4.5 Turbo是百度文心推出的多模态大模型,采用异构MoE架构,支持文本、图像等跨模态交互。具备4240亿参数规模,通过低比特量化优化实现高效推理,部署成本降低70%,适配边缘设备及企业级场景,兼顾高性能与轻量化需求。
Baichuan2-Turbo是百川智能推出的大语言模型,采用搜索增强技术链接领域及全网知识,支持多轮对话、内容生成、代码编写等场景。其特点为万亿级Tokens训练,多语言benchmark同尺寸最佳,具备192K超长上下文窗口及安全机制,适用于企业知识库构建与智能交互。
MiniMax Text 01是国产开源大语言模型,采用混合架构(Lightning Attention+Softmax Attention+MoE),4560亿总参数量,单次激活459亿参数,支持400万token超长上下文,长文本处理性能比肩GPT-4o、Claude-3.5,适用于长文档分析、智能体开发等场景。
Hunyuan-Code是腾讯混元系列的代码专属模型,支持Python、C++、JS、Java、Go等语言,代码对话生成效果优于市场同规模模型,最大输入输出均为4K,适用于代码开发场景。
Qwen2.5-0.5B-Instruct是阿里通义千问推出的轻量级指令微调模型,属decoder-only架构,0.5B参数。特点:经SFT+RLHF/DPO优化,支持128K上下文、8K生成,开箱即用于中英问答、代码、翻译,适配系统提示与JSON输出。轻量高效,适合开发者本地测试、边缘设备部署及定制微调。
Qwen_v2_0.5b_Instruct(推测为Qwen2.5-0.5B-Instruct)是阿里开发的轻量级指令微调语言模型,参数规模0.5B,支持中英文对话交互,具备问答、代码生成、翻译、文本总结等基础能力。特点为运行轻量、开箱即用,适合资源受限场景或开发者测试环境,但知识覆盖面和效果弱于大模型。
InternLM2.5_1.8B_Chat 是基于 InternLM2.5 基座模型优化的对话模型,经有监督微调和 online RLHF 训练,具备指令遵循、共情聊天及工具调用能力,适用于下游对话交互应用。
Qwen_v2_1.5b_Instruct是阿里巴巴Qwen团队研发的轻量级指令微调大语言模型,参数量1.5B,属Qwen2系列。采用RoPE位置编码等架构,支持32K上下文,INT8/INT4量化适配边缘设备,适用于智能客服、文本摘要等实时场景。
Qwen_v2.5_1.5b_Instruct是Qwen2.5系列中的1.5B参数decoder-only指令微调模型,基于18T tokens预训练,知识增强(MMLU 85+),编程(HumanEval 85+)和数学(MATH 80+)能力提升,支持8K+长文本生成与JSON结构化输出,适配端侧部署(8G显存可LoRA微调),适用于轻量对话、二次开发及边缘计算场景。
Qwen_v2.5_3b_Instruct 是 Qwen2.5 系列中的轻量级指令微调模型,参数量 30 亿,基于 Transformer 架构,采用 GQA 注意力机制与 RoPE 位置编码。其特点包括:支持 128K 上下文长度,优化长文本生成与结构化数据分析;经多阶段强化学习(DPO/GRPO)提升指令遵循能力,适配量化部署(如 INT4/INT8)。适用场景为移动端端侧推理、轻量级客服机器人及低资源设备的智能交互任务,平衡性能与部署成本。
internlm2.5_7b_chat是基于InternLM2.5基座模型优化的对话模型,经有监督微调和online RLHF训练。具备指令遵循、共情聊天、工具调用能力,适用于对话交互等下游应用。
Claude 3 Haiku 是 Anthropic 开发的轻量级语言模型,属 Claude 3 系列入门款,主打高速低成本。特点为低延迟、高性价比,支持长文本处理与多任务,适用于实时客服、代码补全、内容审核等场景。
Hunyuan-Lite 是腾讯混元大模型的轻量级版本,2024年10月30日推出,采用混合专家模型(MoE)结构,支持250K上下文窗口(输入250k Token/输出6k Token)。在中文NLP、英文NLP、代码、数学等评测中领先开源模型,适用于效果、推理性能与成本平衡的日常场景。
Hunyuan-Translation是腾讯混元推出的轻量级翻译大模型,支持33种语言及5种民汉语言/方言互译,在WMT2025赛事中斩获30项冠军。其特点为7亿参数实现高效性能,推理速度快且部署成本低,适用于多语种翻译、边缘设备部署等场景。
Spark Mini 是一款轻量级 AI 模型,属于自然语言处理领域,具备资源消耗少、训练速度快的特点,适用于日常内容创作和对话系统等场景。
Spark Lite Patch(星火精简补丁版)是科大讯飞 (iFLYTEK) 讯飞星火认知大模型系列中的一个特定版本或称呼
Claude 3.5 Haiku是Anthropic推出的轻量级AI模型,属Claude 3.5系列。保持低成本与高速响应,能力大幅提升,编码等任务超前代旗舰Opus,支持200K tokens上下文,低延迟高并发,适用于实时客服、编程辅助、数据处理与内容审核。
Spark Max是科大讯飞星火大模型的高阶版本,属于大语言模型。支持长文本处理(如Max-32K版本)、函数调用及多模态交互,适用于科研分析、企业智能客服等场景,新用户可获免费tokens。
Spark Mini Instruct是轻量级大语言模型,资源消耗少、训练速度快,适用于简单文本生成、对话等日常内容创作和对话系统任务。
Starcoder2_3b是ServiceNow训练的30亿参数开源代码生成模型,基于The Stack v2数据集的17种编程语言训练,处理超3万亿token。采用分组查询注意力,上下文窗口16384标记,滑动窗口注意力4096标记,支持填空目标训练。性能媲美StarCoder1-15B,适用于本地轻量编码辅助、代码补全及个人开发工具。
Yi-Lightning是零一万物发布的轻量化大模型,采用MoE混合专家架构与混合注意力机制,推理速度较前代提升40%,首包速度翻倍,性能跻身全球第六、中国第一。适用于翻译、分析等对速度与质量有高要求的场景。
通义千问Max(Qwen-Max)是阿里云推出的旗舰级大语言模型,为通义千问系列性能最强版本,适用于复杂多步骤任务。具备超32K上下文长度,支持文本、图像、视频多模态处理,数学与编程能力突出,适用于深度研究、代码开发、多模态内容生成等场景。
Gemini 1.5 Flash 是谷歌 Gemini 家族轻量级多模态语言模型,通过知识蒸馏自 Pro 版,保留 transformer 解码器架构与多模态能力,支持超长上下文处理,高效利用 TPUs 实现低延迟,适用于高负载任务,如文档分析、代码调试等,兼顾速度与成本。
Kimi-latest-32k即月之暗面发布的开源大模型Kimi K2,采用MoE架构,总参数1万亿、激活参数32B,具备高效推理能力。其在代码生成、Agent任务、数学推理等领域表现突出,支持工具调用与复杂任务规划,适用于智能开发、自动化处理等场景。
kimi-latest-128k是Kimi开放平台推出的多模态大模型,对标Kimi智能助手最新模型并同步升级。具备128k上下文长度,支持8k/32k/128k动态切换,可图片理解、自动缓存(缓存Tokens费用¥1/M),兼容ToolCalls、联网搜索等功能。适用于AI聊天应用、智能助手/客服开发,追求与Kimi智能助手相似体验的场景。
kimi-latest-8k是由北京月之暗面科技有限公司开发的大模型,属kimi-latest系列,上下文长度128k且自动选8k/32k/128k计费模型,支持图片理解、自动上下文缓存,具备ToolCalls等moonshot-v1系列功能,适用于AI聊天应用用户及构建AI智能助手或客服的开发者。