Qianfan-Lightning(千帆-极速版/闪电版)是百度智能云千帆大模型平台上推出的一个高性能、超低延迟的模型系列或服务模式。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 1 页,共 26 条结果,本页区间为 1-26,当前标签为 百度。
Qianfan-VL-8B是百度推出的多模态视觉理解大模型,属Qianfan-VL系列80亿参数版本。具备三大特点:支持思维链推理,可处理复杂图表理解与数学解题;OCR能力突出,精准识别手写体、公式及复杂版面并结构化提取信息;轻量级设计适配企业级部署。适用于教育作业批改、金融报表分析、文档智能处理等场景。
Qianfan-VL-70B是百度智能云推出的视觉语言大模型,属企业级多模态应用优化的700亿参数版本。具备三大特点:超长上下文窗口,支持复杂图表理解与数学推理;OCR与文档理解增强,精准识别手写体、复杂版面并结构化提取信息;基于昆仑芯P800训练,处理超10亿图像数据。适用于金融图表分析、教育数学解题、企业文档智能处理等场景。
百度蒸汽机2.0是中文音视一体I2V生成模型,可多人有声视频一体化生成,具多角色协调、音画毫秒级同步、长视频生成及实时交互功能,已落地搜索、营销等场景。
Qianfan-ToyTalk(千帆-玩具对话模型)是百度智能云千帆大模型平台上的一款垂类专精文本生成模型。
ERNIE X1 Turbo是百度推出的深度思考推理模型,具备先进“思维链”流程,提升复杂逻辑推理能力,支持多模态处理与工具利用。适用于文学创作、代码生成等场景,成本较竞品更低。
QianfanHuijin-8B是百度Qianfan-VL系列多模态大模型的8B参数量版本,支持32k上下文长度与思考功能,基于Llama 3.1架构和InternViT视觉编码器,在昆仑芯P800芯片训练,适用于服务端通用场景及微调优化,具备图像理解、OCR全场景覆盖(含手写体、公式识别)和教育场景K12数学解题优化能力。
Qianfan-QI-VL是百度开源的企业级通用视觉语言模型系列,包含3B/8B/70B参数量版本,基于Llama 3.1架构与InternViT视觉编码器,支持32k上下文长度与4K分辨率图像理解。核心特点包括文档理解与OCR增强、思维链推理(8B/70B支持)及多尺寸部署优化,适用于边缘实时光学字符识别、服务器端通用场景微调及复杂推理任务,可应用于文档识别、数学解题、图表分析等企业级多模态场景。
QianfanHuijin-Reason-8B(千帆慧金推理增强大模型8B版)是百度智能云推出的金融行业专用大模型,基于数百亿tokens高质量金融语料训练,支持32K上下文输入。特点为响应快、易部署,适用于金融意图识别、指标抽取等对时效要求高的场景,在金融Benchmark评测中超越部分千亿参数通用模型。
Qianfan-PublicOpinion-Classification(千帆-舆情分类模型)是百度智能云千帆大模型平台上提供的一个垂直领域专精模型,专门用于对文本数据进行舆情相关的分类和分析。
""QianfanHuijin-Reason-70B""即百度千帆慧金金融推理增强大模型70B版本,是面向金融行业的大参数模型。基于数百亿tokens高质量金融语料训练,支持32K上下文输入,擅长复杂推理与多轮任务规划,适用于投研辅助、策略分析等场景,金融Benchmark得分超千亿参数通用模型。
QianfanHuijin-70B(千帆慧金-70B)是百度智能云推出的金融行业大模型,基于Llama 3.1架构,参数量700亿,支持32K上下文与思维链推理。特点为金融知识增强与推理优化,适用于投研分析、风险管控等复杂任务,实测辅助金融销售成单率提升25%,报告解读错误率下降60%。
Qianfan-Llama-VL-8B是百度千帆团队开发的80亿参数多模态大语言模型,基于Llama 3.1架构与InternViT视觉编码器,支持32k上下文窗口。具备三大核心特点:支持思维链推理,可处理复杂图表理解与数学解题;OCR与文档理解能力突出,能精准识别手写体及复杂版面;适配服务器端部署,兼顾性能与效率。主要应用于通用视觉语言任务及企业级微调场景。
ERNIE X1.1 Preview是百度文心基于文心4.5开发的深度思考模型,采用迭代式混合强化学习框架,在智能体、工具调用、指令遵循及事实性上显著提升。支持通用任务与人机协作,官方评测显示其效果与GPT-5、Gemini 2.5 Pro持平,领先DeepSeekR1-0528,可通过文心一言官网等平台使用。
ERNIE 4.5 Turbo VL是百度推出的多模态视觉语言模型,具备高效图文理解与推理能力。其采用MoE架构,支持动态激活参数(如47B/424B),兼顾性能与效率,可部署于普通设备。适用于OCR、文档解析、跨模态问答等场景,能处理高分辨率视觉输入并支持多语言交互。
ERNIE 4.5 Turbo是百度文心推出的多模态大模型,采用异构MoE架构,支持文本、图像等跨模态交互。具备4240亿参数规模,通过低比特量化优化实现高效推理,部署成本降低70%,适配边缘设备及企业级场景,兼顾高性能与轻量化需求。
百度蒸汽机2.0是全球首个中文音视频一体化生成I2V模型,支持多人有声音视频生成,语音与唇形动作精准对齐,中文场景适配度超98%,具备电影级画质与运镜控制。已落地搜索、营销等场景,用户可通过百度搜索或“绘想”平台体验。
ERNIE-4.5-21B-A3B-Thinking是百度开源的深度思考模型,采用混合专家(MoE)架构,总参数210亿,每token激活30亿参数。支持128K上下文窗口,适用于长文本推理、逻辑数学科学任务、代码生成及工具调用,实现高效复杂任务自动化处理。
ERNIE-4.5-300B-A47B-Paddle是百度文心大模型4.5系列中的300B参数多模态模型,采用异构MoE架构,单次推理激活470亿参数,支持128K超长上下文,通过2-bit压缩技术实现低资源部署。适用于医疗影像分析、长文档解析、工业质检等复杂场景,兼顾高性能与部署效率。
ERNIE-4.5-21B-A3B-Paddle是百度推出的文本混合专家(MoE)语言大模型,总参数量210亿,每个token激活30亿参数。采用异构MoE架构与模态隔离路由技术,依托飞桨框架优化,适配智能对话、内容创作等轻量化场景,提供ERNIEKit微调与FastDeploy部署工具链,基于Apache 2.0协议开源。
ERNIE-4.5-VL-424B-A47B-Paddle是百度文心4.5系列多模态大模型,采用异构MoE架构,支持""思考/非思考""双模式,在MathVista等多模态基准测试中表现比肩OpenAI-o1,已部署于工业质检等边缘设备场景。
ERNIE-4.5-VL-28B-A3B是百度开源的280亿参数多模态模型,具备文本与图像/视频理解能力。特点包括工程图纸理解准确率98.2%、降低40%误检率,支持从图表到报告全流程生成。应用于新闻出版(效率提升3倍)、制造业质检、法律文书分析等场景,已适配英特尔等硬件加速卡。
ERNIE-4.5-0.3B是百度推出的0.36B参数轻量级语言大模型,基于PaddlePaddle框架,支持SFT、DPO等基础微调,采用卷积编码量化技术实现4位/2位无损压缩,适配多芯片边缘部署,适用于对话、创作及轻量化文本处理场景,开源协议为Apache 2.0。
PP-UIE-7B是通用信息抽取大模型,具备零样本和小样本学习能力,通过输入格式与样例提升输出准确性和规范性,适用于多领域信息抽取任务。
PP-UIE-14B是PaddleNLP推出的14B参数通用信息抽取大模型,属UIE系列,支持实体识别、关系抽取等NLP任务,零样本和小样本性能突出,CMeEE数据集小样本F1值达0.588,适配本地化部署,适用于需要高效信息抽取的开发场景。
PP-DocBee是百度飞桨推出的文档图像理解多模态大模型,基于ViT+MLP+LLM架构,具备强大中文文档解析能力,可高效处理文字、表格、图表等内容,推理性能优化,响应快且输出质量高,适用于文档问答、复杂文档解析,支持多种部署方式。