Hunyuan-T1-20250822是腾讯混元旗舰推理模型,属文本生成类。特点:最大输入32K、输出64K,提升高难度数学、逻辑和代码能力,优化长文处理与输出稳定性。适用于文本生成、创作、问答等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 1 页,共 27 条结果,本页区间为 1-27,当前标签为 腾讯混元。
Hunyuan-T1-latest是腾讯2025年3月推出的深度推理大模型,采用Hybrid-Transformer-Mamba MoE架构,万亿级参数规模。具备超强长文本捕捉、数学/逻辑推理、代码生成能力,解码速度60-80token/s,支持API调用,适用于复杂问题解答、科学计算及AI搜索等场景。
腾讯混元生视频-视频特效是基于腾讯视频生成大模型的API技术服务,具备高质量视频生成与处理能力,支持自然特效(如地震、闪电)和奇幻特效(如魔法护盾)生成,可10分钟快速出片并节省50%制作成本。广泛应用于短视频、影视制作、广告营销、游戏等领域,助力提升创作效率与内容趣味性。
腾讯混元生视频是腾讯推出的AI视频生成与处理技术服务,基于多模态融合技术,支持视频特效、风格化转换及图片动态化等功能。特点包括高连贯性运动生成、精准语义理解,适用于短视频创作、广告营销、教育内容制作等场景,可降低专业制作门槛,提升内容生产效率。
Hunyuan-Large-Vision是腾讯研发的多模态视觉理解模型,采用MoE架构,激活参数52B,支持图像、视频及3D数据处理。在国际评测平台排名国内首位,具备强大多语言交互能力,应用于拍照解题、视频分析、智能文案生成等场景。
Hunyuan-TurboS-latest是腾讯混元推出的新一代快思考大模型,为超大型Hybrid-Transformer-Mamba MoE模型。其特点是响应速度快,吐字速度提升一倍,首字时延降低44%,在知识、数理、创作等方面表现突出,在业界通用的多个公开 Benchmark 上,于知识、数学、推理等多个领域展现出对标 DeepSeek V3、GPT 4o、Claude3.5 等业界领先模型的效果。适用于3D建模、视频特效制作、语音交互等实时AI应用场景。
腾讯混元Hunyuan-TurboS-20250716是腾讯推出的新一代快思考大语言模型,采用Hybrid-Mamba-Transformer混合架构,主打极速响应能力,首字时延降低44%,吐字速度提升一倍,实现“秒回”。其推理性能对标GPT-4o、Claude 3等主流模型,在数学、代码等短链任务中表现突出,且部署成本显著降低,API调用价格较前代下降数倍。目前已开放企业API接入,适用于即时交互、智能客服等高效响应场景。
Hunyuan-A13B是腾讯开源的大语言模型,采用细粒度MoE架构,800亿总参数仅激活130亿,高效平衡性能与资源消耗。支持256K超长上下文、混合推理模式及多量化格式,在数学推理、代码生成等多任务表现卓越,尤其适合资源受限环境的研究与开发,应用场景包括智能客服、法律/医疗文档分析、代码辅助开发等。
Hunyuan-TurboS-Vision是腾讯推出的混合架构大模型,融合Transformer与Mamba优势,采用MoE结构提升效率。具备自适应思维链机制,支持图文理解,适用于智能客服、代码生成等场景,平衡响应速度与推理能力。
Hunyuan-T1-Vision是腾讯混元推出的多模态视觉理解模型,融合多模态原生思维链技术,实现“看图思考”能力,响应速度提升1.5倍。可深度解析图像,如识别芯片型号并生成研发成本表,还支持花卉、围棋棋局、存款利率表等多场景识别与分析,已上线元宝平台。
Hunyuan-Translation-Lite是腾讯混元大模型推出的轻量级翻译模型,采用7B参数规模与混合专家模型(MoE)结构,支持INT4/INT8量化及边缘部署,适配移动端、车载系统等设备。覆盖33种语种,具备零样本小语种翻译能力,适用于跨境电商客服、智能硬件离线翻译、政务文件本地化等场景,平衡翻译效果与推理成本。
hunyuan-functioncall 是 混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,增强了复杂指令和多轮理解能力,增强了开源 BenchMark 的效果,在多个维度的评测指标上处于领先。
腾讯混元Turbo是腾讯于2024年9月发布的新一代大语言模型,采用MoE(混合专家)架构,总参数达万亿级别。其特点包括推理效率提升100%、成本降低50%,在数学推理、文本创作等任务上对标GPT-4o,支持AI搜索联网插件及SearchGPT功能。主要应用于腾讯内部近700个业务场景,如腾讯云、QQ、微信读书等,并通过腾讯云API向企业开放。
Hunyuan-TurboS-Longtext-128k-20250325是腾讯混元团队发布的长文本专属大语言模型,采用混合Transformer-Mamba MoE架构,兼具Mamba高效长序列处理与Transformer强上下文理解能力。其支持128K上下文窗口(约40万字),最大输出6K tokens,擅长文档摘要、问答等长文本任务,同时具备通用文本生成能力。该模型在数学推理、知识能力等评测中表现优异,推理成本较前代Turbo模型降低7倍,适用于企业级文档处理、智能客服等场景。
Hunyuan-Standard(原混元大模型标准版)是腾讯推出的MOE架构长文本大模型,最大输入30k、输出2k,采用优化路由策略平衡负载与专家趋同问题,性价比高。支持长文本处理,在SuperCLUE测评中应用能力居首,适用于会议记录、文档生成、广告创作等场景。
腾讯混元Hunyuan-Standard-256K是支持256K上下文的大语言模型,属腾讯混元系列标准尺寸型号,已通过腾讯云开放服务。具备长文档理解处理能力,支持多模态交互,适用于企业级长文本分析、智能客服及会议纪要等场景。
Hunyuan-Large是腾讯开源的基于Transformer架构的专家混合(MoE)大模型,总参数3890亿(激活参数520亿),具备256K上下文处理能力。采用MoE结构优化训练推理效率,性能超Meta Llama3.1-405B,在数学推理、文本生成等任务表现优异,适用于长文本处理、智能交互等场景。
Hunyuan-Vision是腾讯推出的多模态视觉大模型,其最新版本Hunyuan-Vision-1.5-Thinking在2025年10月LMArena全球榜单中位列第三、国内第一。该模型具备领先的多语言多模态理解与推理能力,可通过多轮反思深入解析视觉内容,支持图表解释、文档解析、几何问题求解等复杂任务,已开放API接口供开发者使用。
Hunyuan-Standard-Vision(混元-标准-视觉模型)是腾讯(Tencent)的混元大模型系列中,专为处理和理解视觉信息而设计的一个模型版本。
Hunyuan-Large-Longcontext是腾讯开源的大语言模型,属MoE架构,总参389B、激活参52B,支持256K超长文本序列,Instruct模型支持128K。采用CLA结构与FP8量化优化,节省显存并提升吞吐,适配vLLM推理框架与Hugging Face生态,可用于长文档处理、代码生成等场景。
Hunyuan-Lite-Vision(混元-精简-视觉模型)是腾讯(Tencent)混元大模型系列中,针对视觉任务推出的一个轻量级、高效率版本。
Hunyuan-Code是腾讯混元系列的代码专属模型,支持Python、C++、JS、Java、Go等语言,代码对话生成效果优于市场同规模模型,最大输入输出均为4K,适用于代码开发场景。
Hunyuan-Lite 是腾讯混元大模型的轻量级版本,2024年10月30日推出,采用混合专家模型(MoE)结构,支持250K上下文窗口(输入250k Token/输出6k Token)。在中文NLP、英文NLP、代码、数学等评测中领先开源模型,适用于效果、推理性能与成本平衡的日常场景。
Hunyuan-Translation是腾讯混元推出的轻量级翻译大模型,支持33种语言及5种民汉语言/方言互译,在WMT2025赛事中斩获30项冠军。其特点为7亿参数实现高效性能,推理速度快且部署成本低,适用于多语种翻译、边缘设备部署等场景。
腾讯混元生图(多轮对话)是腾讯推出的AI图像生成模型,属多模态大模型。具备常识推理与精准语义理解能力,能生成高质感图像,支持中英文及长文本渲染。当前版本开放文生图,多轮交互等功能后续发布,适用于设计、教育、营销等场景。
文生图轻量版是腾讯云推出的文本生成图像API接口(TextToImageLite),基于深度学习模型实现文本到图像的智能转换。该接口默认支持3个并发任务处理,需通过腾讯云API平台调用,当前仅开放广州地域(ap-guangzhou)接入。其核心功能为根据输入文本描述生成相关图像,适用于轻量化图像生成场景的开发者集成,但公开资料未提及具体风格支持、分辨率等技术参数及实际应用案例。
Hunyuan-Role是腾讯混元系列大模型中专注于角色扮演场景的优化版本,属于对话式语言模型。其核心特点包括:基于丰富角色扮演数据训练,在互动语气、剧情推进、多轮对话等场景表现优于通用模型;支持长指令(最大输入28K)和角色设定遵循,可还原人设并主动引导话题;已应用于互动内容平台,作为“亲密朋友”类虚拟角色核心能力,满足情感陪伴与精神寄托需求。