Hunyuan-TurboS-Longtext-128k-20250325是腾讯混元团队发布的长文本专属大语言模型,采用混合Transformer-Mamba MoE架构,兼具Mamba高效长序列处理与Transformer强上下文理解能力。其支持128K上下文窗口(约40万字),最大输出6K tokens,擅长文档摘要、问答等长文本任务,同时具备通用文本生成能力。该模型在数学推理、知识能力等评测中表现优异,推理成本较前代Turbo模型降低7倍,适用于企业级文档处理、智能客服等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 6 / 10 页,共 300 条结果,本页区间为 151-180。
Step-Video-TI2V是阶跃星辰开源的300亿参数TI2V(Text/Image-to-Video)模型,支持生成102帧5秒视频,运动可控且平衡动态与稳定性,适配华为昇腾平台,应用于影视特效、广告创意、短视频生产等领域。
Gemma 3 4B是谷歌DeepMind推出的轻量级多模态开源模型,支持文本与图像输入,采用SigLIP视觉编码器,400M参数,896×896分辨率处理。具备128K上下文窗口、140+语言理解能力,优化长文本推理,单GPU可运行,适用于本地部署的智能问答、图像分析和多语言任务。
Gemma 3 1B是谷歌DeepMind开源的轻量级纯文本模型,参数规模10亿,基于2T token数据训练。特点为轻量高效,支持单块GPU/TPU运行,上下文窗口32k token,适配手机、笔记本等资源受限设备,适合快速部署和低功耗场景。
Gemma 3 12B是谷歌推出的开源多模态大语言模型,120亿参数,基于Transformer架构,支持文本、图像输入及140+语言,上下文窗口128K,适用于摘要、问答等任务,可在单GPU部署,平衡性能与硬件需求。
Gemma 3 27B是谷歌2025年推出的开源轻量级多模态大模型,基于Gemini 2.0技术构建,270亿参数规模。支持文本和图像处理,128K上下文窗口,140余种语言,单GPU即可运行。LMArena测试超Llama-405B等模型,适用于端侧部署、多模态分析、跨语言任务。
QwQ-32B是阿里千问团队2025年3月推出的325亿参数推理型大模型,基于Transformer架构,支持128K上下文长度与多语言,擅长数学推理和编程任务,性能比肩DeepSeek-R1与OpenAI o1-mini。采用Apache 2.0协议开源,支持本地部署与免费商用,适用于科研分析、企业智能引擎等场景。
qwq-plus是基于Qwen2.5训练的推理模型,通过强化学习提升推理能力,核心指标达DeepSeek-R1满血版水平,为阿里商业化版本,适用于数学推理、编程等任务。
CogView-4是智谱2025年发布的开源文生图模型,支持中英双语输入与任意分辨率图像生成,采用GLM-4 encoder提升中文语义理解,在DPG-Bench测试中综合评分第一,达开源SOTA水平,遵循Apache 2.0协议,适用于广告设计、教育插图等场景。
Pangu-NLP-N4-4K-3.2.36是华为云盘古大模型系列中的NLP基础模型,支持4K上下文窗口,具备增量预训练能力,可基于行业数据优化。特点包括逻辑推理强、支持工具调用与SQL生成,适配INT8/INT4量化部署。适用于工业设计、政务智能问答、金融风控等场景,助力行业复杂任务处理与效率提升。
GPT-4.5是OpenAI于2025年推出的大型语言模型,属GPT系列升级版。它通过扩大无监督学习规模,提升模式识别与关联能力,减少推理依赖,实现更自然交互。具备更广泛知识库、更强用户意图理解与“情商”,适用于写作优化、编程辅助及解决实际问题,且幻觉现象显著减少。
Claude 3.7 Sonnet是Anthropic推出的首个混合推理大语言模型,兼具快速响应与深度思考双模式,支持128k tokens上下文,适用于代码生成、复杂任务自动化及数学推理,提升开发者效率。
Grok-3 Mini是xAI推出的轻量级AI模型,属Grok-3系列,主打高效推理。特点:131K tokens上下文窗口,支持高推理模式(AIME竞赛得分超90),低推理模式平衡响应速度与准确性。适用于日常对话、邮件撰写、基础编程及中小学数学解题等场景。
Grok-3是Elon Musk旗下xAI公司推出的旗舰大模型,以强大推理能力为核心,采用""思想链""功能,在数学、科学等领域表现突出,超过GPT-4o等模型。其追求事实呈现,避免过度""政治正确"",适用于复杂问题分析与专业领域辅助。
Step-Video-T2V-Turbo是300亿参数文本到视频模型的提速版本,通过推理步骤蒸馏技术将生成速度提升3-5倍,204帧视频耗时从743秒缩至148秒,保持90%质量。适用于短视频创作、广告营销、在线教育、游戏开发及虚拟人直播等场景,开源特性降低技术门槛。
Step-Video-T2V是阶跃星辰开源的文本到视频生成模型,300亿参数,支持中英双语输入,可生成204帧540P视频。特点:高压缩比Video-VAE提升效率,Video-DPO优化质量,Turbo版生成提速3-5倍。应用于广告营销、在线教育、游戏开发、虚拟人直播等场景,降低创作门槛。
Hunyuan-Standard(原混元大模型标准版)是腾讯推出的MOE架构长文本大模型,最大输入30k、输出2k,采用优化路由策略平衡负载与专家趋同问题,性价比高。支持长文本处理,在SuperCLUE测评中应用能力居首,适用于会议记录、文档生成、广告创作等场景。
腾讯混元Hunyuan-Standard-256K是支持256K上下文的大语言模型,属腾讯混元系列标准尺寸型号,已通过腾讯云开放服务。具备长文档理解处理能力,支持多模态交互,适用于企业级长文本分析、智能客服及会议纪要等场景。
Hunyuan-Large是腾讯开源的基于Transformer架构的专家混合(MoE)大模型,总参数3890亿(激活参数520亿),具备256K上下文处理能力。采用MoE结构优化训练推理效率,性能超Meta Llama3.1-405B,在数学推理、文本生成等任务表现优异,适用于长文本处理、智能交互等场景。
DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2 架构的 32B 参数蒸馏模型,由 DeepSeek 通过知识蒸馏技术将 6710 亿参数的 DeepSeek-R1 教师模型推理能力迁移而来。其核心特点包括:数学推理能力突出(AIME 2024 pass@1 达 72.6%、Math-500 达 94.3%),代码生成表现优异(LiveCodeBench pass@1 57.2%),性能接近 OpenAI-O1。适用于复杂数学问题求解、代码开发辅助及高精度文本推理场景,需 65.7GB VRAM 支持部署。
DeepSeek-R1-Distill-Qwen-7B是基于DeepSeek-R1大模型知识蒸馏的7B参数小型语言模型,继承强化学习优化的推理能力,在数学推理(AIME 2024达55.5%)、编程等任务表现突出,适配边缘设备及低成本推理场景。
DeepSeek-R1-Distill-Qwen-14B是基于Qwen架构的14B参数蒸馏语言模型,具备较强复杂任务处理能力与中等资源需求,适用于数据分析、智能推荐、自然语言处理及长文本生成等中等复杂度场景。
DeepSeek-R1-Distill-Llama-8B是基于Llama-3.1-8B基座模型的开源蒸馏模型,通过DeepSeek-R1推理数据微调,保留原版90.2%数学推理能力(MATH-500达89.1%),代码生成能力达72.3%,推理速度提升5.8倍,单GPU(24GB)即可部署,适用于本地部署、RAG系统构建及教育、编程辅助等场景。
DeepSeek-R1-Distill-Qwen-1.5B是基于Qwen架构的1.5B参数小型语言模型,通过知识蒸馏技术从DeepSeek-R1迁移推理能力。特点:轻量化设计,推理速度快,资源消耗低,在数学推理等任务表现优于同量级模型。适用于小型企业智能客服、个人开发者文本处理工具及边缘设备部署。
Spark Tiny(星火 Tiny)是科大讯飞 (iFLYTEK) 推出的 讯飞星火认知大模型 系列中的一个轻量级、低延迟的模型版本。
GPT-3.5 Turbo是OpenAI推出的高效能自然语言处理模型,基于GPT架构优化,参数规模精简但性能强劲,支持自然语言理解与生成及代码任务,上下文窗口16,385 tokens,训练数据截至2021年9月。其特点为响应快、成本效益高,是GPT-3.5系列中功能最强且经济的模型,适用于聊天交互、客服、教育辅助、代码生成等场景,也是ChatGPT的基础模型。
Gemini 2.0 Flash Thinking是谷歌推出的多模态推理大模型,主打快速响应与复杂任务处理,支持文本、图片等多模态输入输出,具备工具调用和空间理解能力,适用于编程、数学及图像分析等场景,部分功能仍处实验阶段。
Qwen_v2.5_14b_Instruct是阿里云开发的指令微调语言模型,基于通用模型优化,支持29种语言,长文本处理达128K tokens,擅长指令跟随与结构化输出,适用于文档生成、多语言问答、代码数学任务及智能客服。
Qwen_v2.5_7B_Base是基础版大语言模型,不建议直接用于对话任务,可作为进一步训练的基础。支持通过Hugging Face Transformers库或vLLM框架在CPU/GPU部署,适用于聊天机器人、智能助手、代码生成、内容创作等领域。
MiniMax M1是上海MiniMax研发的全球首个开源大规模混合架构推理模型,于2025年6月发布。其核心特点为百万Token级长文本处理能力,上下文长度全球领先;RL训练成本仅53万美元,较同类模型下降一个量级,推理效率数倍于竞品。适用于长文档分析、企业级智能检索及低成本AI应用开发场景。