Qwen3-30B-A3B是阿里开源的混合专家(MoE)架构大语言模型,总参数305亿,激活参数33亿。特点:双模式推理(思考模式擅长复杂任务,非思考模式提升对话效率),显存占用仅为同类模型1/3,支持256K上下文,100+语言,Apache-2.0协议允许商用。适用于企业级复杂推理、实时对话、代码生成等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 4 / 10 页,共 300 条结果,本页区间为 91-120。
Qwen3-14B是阿里巴巴开源的14B参数大型语言模型,属Qwen3系列轻量版本。支持思维/非思维双模式切换,复杂任务用思考模式提升推理能力,日常场景用非思维模式提速30%。适配消费级显卡部署,适合行业大模型微调与本地RAG系统搭建。
万相2.1-I2V-14B-480P是阿里通义万相推出的图像转视频模型,140亿参数,基于DiT架构,支持480P分辨率输出,平衡画质与传输速度,适用于手机端短视频创作。操作简便,可在基石智算平台部署,上传图片加提示词即可生成动态视频,降低视频创作门槛。
Qwen3-235B-A22B是阿里开源的混合专家(MoE)架构大语言模型,总参数量2350亿,动态激活22B参数,采用动态路由机制实现高性能与低资源消耗平衡。支持256K超长上下文,适用于长文档摘要、复杂问答、代码补全等场景,是企业部署的高性价比选择。
Qwen2.5-7B-Instruct是阿里云研发的开源指令调优大模型,基于18万亿token预训练,参数76.1亿。具备知识密集(MMLU 85+)、代码(HumanEval 85+)及数学(MATH 80+)能力,支持29种语言与128K上下文,适用于智能客服、教育辅导及自动化办公等场景。
讯飞星火医疗大模型 - Lite是轻量级医疗AI模型,具备医疗知识问答、专业文书生成、诊断推荐等能力,支持多轮交互,适用于辅助医生诊疗、优化医院流程及患者健康管理。
Qwen3-4B是阿里达摩院开源的4B参数量级语言模型,支持256K超长上下文,可部署于手机、笔记本等端侧设备。具备动态双模切换能力,思考模式适用于数学推理、代码生成等复杂任务,非思考模式提升日常对话响应速度,性能接近30B模型,开源且支持二次开发。
ERNIE X1 Turbo是百度推出的深度思考推理模型,具备先进“思维链”流程,提升复杂逻辑推理能力,支持多模态处理与工具利用。适用于文学创作、代码生成等场景,成本较竞品更低。
Doubao-1.5-thinking-vision-pro是多模态AI模型,具备视觉理解与深度思考能力,支持图文、语音交互,适用于专业领域推理与创意任务。
Gemma 3n E2B Instructed是谷歌DeepMind开发的轻量级多模态模型,基于MatFormer架构,仅需2GB内存即可运行。支持文本、图像、音频、视频处理,适用于手机、树莓派等边缘设备本地部署,可用于聊天机器人、内容生成、多模态数据提取等场景。
Gemma 3n E2B是谷歌推出的多模态边缘AI模型,支持文本、图像、音频、视频本地处理,性能媲美5B参数模型,低内存功耗设计适配智能手机、可穿戴设备,实现隐私保护与实时交互。
Gemma 3n E4B是谷歌推出的轻量级多模态模型,属Gemma 3n系列,性能媲美8B参数模型,支持文本、图像、音频、视频处理,可在手机等边缘设备本地运行,低内存功耗。适用于无障碍技术、移动创作、教育研究及物联网设备。
Gemma 3n E2B Instructed LiteRT (Preview)是谷歌Gemma 3系列轻量级开放模型,基于MatFormer架构与PLE技术优化,有效参数2B(原始5B),2GB内存即可运行。支持文本/图像/音频多模态,140种语言,适用于手机、笔记本等设备端实时任务,如问答、内容分析。
Qwen-TTS是阿里云推出的高性能语音合成模型,可将文本转为自然语音。其特点为高自然度,能模拟真人情感语调;支持中英双语及北京、上海、四川方言;提供7种音色。适用于有声内容创作、智能客服等场景。
Gemma 3n E4B Instructed LiteRT Preview是谷歌2025年推出的轻量级开源多模态模型,属Gemma 3n系列E4B版本(有效参数4B)。支持文本、图像、音频输入,文本输出,32K上下文,英法/英西翻译准确率超92%。优化内存占用(约3GB),适配移动设备与边缘计算,响应速度快,适用于本地部署的实时交互场景。
Gemma 3n E4B Instructed是谷歌Gemma 3系列轻量级多模态开放模型,有效参数4B(原始8B),指令调优版本。特点:原生支持文本/图像/音频/视频输入,仅需3GB内存运行,响应速度快,LMArena得分超1300,支持140种语言,适用于设备端实时处理、多模态问答、本地部署等场景。
Hunyuan-A13B是腾讯开源的大语言模型,采用细粒度MoE架构,800亿总参数仅激活130亿,高效平衡性能与资源消耗。支持256K超长上下文、混合推理模式及多量化格式,在数学推理、代码生成等多任务表现卓越,尤其适合资源受限环境的研究与开发,应用场景包括智能客服、法律/医疗文档分析、代码辅助开发等。
Qwen-Plus是阿里云通义千问Qwen3系列的大语言模型,定位为中等复杂度任务的均衡型模型,能力介于Qwen-Max与Qwen-Flash之间。其特点包括支持百万级上下文长度,优化了指令遵循能力与中文理解推理,提供思考/非思考双模式,且支持Batch调用半价。适用于文本生成、智能问答、多轮对话及API集成的产品线开发。
Hunyuan-TurboS-Vision是腾讯推出的混合架构大模型,融合Transformer与Mamba优势,采用MoE结构提升效率。具备自适应思维链机制,支持图文理解,适用于智能客服、代码生成等场景,平衡响应速度与推理能力。
Hunyuan-T1-Vision是腾讯混元推出的多模态视觉理解模型,融合多模态原生思维链技术,实现“看图思考”能力,响应速度提升1.5倍。可深度解析图像,如识别芯片型号并生成研发成本表,还支持花卉、围棋棋局、存款利率表等多场景识别与分析,已上线元宝平台。
Gemini 2.5 Pro是谷歌推出的多模态大型基础模型,具备强化推理能力,支持文本、代码、音视频等处理,拥有百万令牌上下文窗口。在代码生成、数学及STEM任务表现卓越,适用于复杂问题推理、大数据分析及企业级开发。
QianfanHuijin-8B是百度Qianfan-VL系列多模态大模型的8B参数量版本,支持32k上下文长度与思考功能,基于Llama 3.1架构和InternViT视觉编码器,在昆仑芯P800芯片训练,适用于服务端通用场景及微调优化,具备图像理解、OCR全场景覆盖(含手写体、公式识别)和教育场景K12数学解题优化能力。
Qianfan-QI-VL是百度开源的企业级通用视觉语言模型系列,包含3B/8B/70B参数量版本,基于Llama 3.1架构与InternViT视觉编码器,支持32k上下文长度与4K分辨率图像理解。核心特点包括文档理解与OCR增强、思维链推理(8B/70B支持)及多尺寸部署优化,适用于边缘实时光学字符识别、服务器端通用场景微调及复杂推理任务,可应用于文档识别、数学解题、图表分析等企业级多模态场景。
QianfanHuijin-Reason-8B(千帆慧金推理增强大模型8B版)是百度智能云推出的金融行业专用大模型,基于数百亿tokens高质量金融语料训练,支持32K上下文输入。特点为响应快、易部署,适用于金融意图识别、指标抽取等对时效要求高的场景,在金融Benchmark评测中超越部分千亿参数通用模型。
Qianfan-PublicOpinion-Classification(千帆-舆情分类模型)是百度智能云千帆大模型平台上提供的一个垂直领域专精模型,专门用于对文本数据进行舆情相关的分类和分析。
Hunyuan-Translation-Lite是腾讯混元大模型推出的轻量级翻译模型,采用7B参数规模与混合专家模型(MoE)结构,支持INT4/INT8量化及边缘部署,适配移动端、车载系统等设备。覆盖33种语种,具备零样本小语种翻译能力,适用于跨境电商客服、智能硬件离线翻译、政务文件本地化等场景,平衡翻译效果与推理成本。
Doubao-1.5-vision-lite是火山引擎推出的性价比多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节理解和指令遵循能力,适用于图像分析、文档处理等场景。
Doubao-1.5-vision-pro-32k是字节跳动推出的多模态大模型,支持文本、图像输入与输出,具备任意分辨率及极端长宽比图像识别能力,增强视觉推理、文档识别、细节理解和指令遵循能力,最大思维链内容长度32k,适用于复杂视觉任务与长文本交互场景。
Doubao-1.5-lite-32k是字节跳动推出的轻量级通用大模型,属豆包1.5系列。采用MoE架构,以轻量版成本实现原专业版性能,响应快、推理准,适合对时延敏感的简单任务。
Doubao-embedding是字节跳动研发的语义向量化模型,支持中英双语,输出稠密向量维度2048(可降维至512/1024),适用于语义搜索、推荐系统等场景。其240715版本提升中英文检索效果,升级版Doubao-embedding-large在MTEB和BRIGHT榜单达SOTA,优化推理密集型检索任务。