Gemini 2.0 Flash Lite 是 Gemini 2.0 系列中速度最快的模型,经过优化以实现更高的成本效益和更低的延迟。它旨在处理高吞吐量的轻量级任务,并支持多模态输入(如图片、文档和音频),具有巨大的输入 token 上限

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 1 页,共 23 条结果,本页区间为 1-23,当前标签为 Google。
Gemini 2.0 Flash是谷歌推出的多模态AI模型,属Gemini 2.0套件子模型。具备文本理解、图像生成与编辑能力,支持100万token上下文窗口,响应速度比1.5 Pro快两倍。适用于广告设计、社交媒体内容创作、教育插图生成等场景,开发者可通过Google AI Studio和Gemini API接入。
Gemini 2.5 Flash是谷歌推出的多模态轻量级AI模型,支持文本、图像、音频、视频输入,具备自适应推理能力,令牌使用效率提升20-30%,适用于高吞吐量、低延迟任务,如翻译、分类及多模态交互,面向开发者与企业用户开放。
Gemini 2.5 Flash-Lite是谷歌推出的轻量级AI推理模型(预览版),主打极速响应与成本优化,为当前速度最快的Gemini模型。支持多模态输入、100万token上下文及谷歌原生工具(如搜索、代码执行),适用于高吞吐量、低延迟场景(如翻译、分类),面向开发者提供API服务。
Gemma 3n E2B Instructed是谷歌DeepMind开发的轻量级多模态模型,基于MatFormer架构,仅需2GB内存即可运行。支持文本、图像、音频、视频处理,适用于手机、树莓派等边缘设备本地部署,可用于聊天机器人、内容生成、多模态数据提取等场景。
Gemma 3n E2B是谷歌推出的多模态边缘AI模型,支持文本、图像、音频、视频本地处理,性能媲美5B参数模型,低内存功耗设计适配智能手机、可穿戴设备,实现隐私保护与实时交互。
Gemma 3n E4B是谷歌推出的轻量级多模态模型,属Gemma 3n系列,性能媲美8B参数模型,支持文本、图像、音频、视频处理,可在手机等边缘设备本地运行,低内存功耗。适用于无障碍技术、移动创作、教育研究及物联网设备。
Gemma 3n E2B Instructed LiteRT (Preview)是谷歌Gemma 3系列轻量级开放模型,基于MatFormer架构与PLE技术优化,有效参数2B(原始5B),2GB内存即可运行。支持文本/图像/音频多模态,140种语言,适用于手机、笔记本等设备端实时任务,如问答、内容分析。
Gemma 3n E4B Instructed LiteRT Preview是谷歌2025年推出的轻量级开源多模态模型,属Gemma 3n系列E4B版本(有效参数4B)。支持文本、图像、音频输入,文本输出,32K上下文,英法/英西翻译准确率超92%。优化内存占用(约3GB),适配移动设备与边缘计算,响应速度快,适用于本地部署的实时交互场景。
Gemma 3n E4B Instructed是谷歌Gemma 3系列轻量级多模态开放模型,有效参数4B(原始8B),指令调优版本。特点:原生支持文本/图像/音频/视频输入,仅需3GB内存运行,响应速度快,LMArena得分超1300,支持140种语言,适用于设备端实时处理、多模态问答、本地部署等场景。
Gemini 2.5 Pro是谷歌推出的多模态大型基础模型,具备强化推理能力,支持文本、代码、音视频等处理,拥有百万令牌上下文窗口。在代码生成、数学及STEM任务表现卓越,适用于复杂问题推理、大数据分析及企业级开发。
Gemini 2.5 Pro Preview 06-05是谷歌Gemini 2.5系列的全能力旗舰大模型,支持文本、图像、音视频等多模态输入,具备百万级上下文处理能力(输入超100万tokens,输出64K tokens),采用动态推理预算机制优化复杂任务准确率。适用于学术研究、软件开发、创意工作及企业数据分析等场景。
Gemini Diffusion是Google DeepMind推出的实验性文本扩散语言模型,采用扩散技术通过逐步优化噪声生成输出,非传统自回归逐词预测。其特点为生成速度快(2000token/秒),支持迭代纠错与编辑,编程和数学任务表现出色。适用于快速文本生成、代码编写及数学问题解决等场景。
Gemma 3 4B是谷歌DeepMind推出的轻量级多模态开源模型,支持文本与图像输入,采用SigLIP视觉编码器,400M参数,896×896分辨率处理。具备128K上下文窗口、140+语言理解能力,优化长文本推理,单GPU可运行,适用于本地部署的智能问答、图像分析和多语言任务。
Gemma 3 1B是谷歌DeepMind开源的轻量级纯文本模型,参数规模10亿,基于2T token数据训练。特点为轻量高效,支持单块GPU/TPU运行,上下文窗口32k token,适配手机、笔记本等资源受限设备,适合快速部署和低功耗场景。
Gemma 3 12B是谷歌推出的开源多模态大语言模型,120亿参数,基于Transformer架构,支持文本、图像输入及140+语言,上下文窗口128K,适用于摘要、问答等任务,可在单GPU部署,平衡性能与硬件需求。
Gemma 3 27B是谷歌2025年推出的开源轻量级多模态大模型,基于Gemini 2.0技术构建,270亿参数规模。支持文本和图像处理,128K上下文窗口,140余种语言,单GPU即可运行。LMArena测试超Llama-405B等模型,适用于端侧部署、多模态分析、跨语言任务。
Gemini 2.0 Flash Thinking是谷歌推出的多模态推理大模型,主打快速响应与复杂任务处理,支持文本、图片等多模态输入输出,具备工具调用和空间理解能力,适用于编程、数学及图像分析等场景,部分功能仍处实验阶段。
Gemini 1.5 Flash 是谷歌 Gemini 家族轻量级多模态语言模型,通过知识蒸馏自 Pro 版,保留 transformer 解码器架构与多模态能力,支持超长上下文处理,高效利用 TPUs 实现低延迟,适用于高负载任务,如文档分析、代码调试等,兼顾速度与成本。
Gemini 1.5 Flash 8B是谷歌推出的轻量级多模态语言模型,参数规模80亿,支持文本、图像、音频等多模态处理。特点为低成本(100万输入令牌0.0375美元)、高效率,适用于大容量低复杂度任务。使用场景包括初创企业AI开发测试、基础多模态应用等。
Gemma 2 9B是谷歌DeepMind开发的开源轻量级大语言模型,属Gemini技术体系,90亿参数规模。特点:采用滑动窗口注意力与知识蒸馏技术,8万亿token训练,性能超Llama 3 8B;支持多框架部署,适配边缘设备与云端。适用于边缘AI、文档问答、代码生成等场景。
Gemma 2 27B是谷歌开源的轻量级文本生成大模型,基于Transformer架构,性能媲美LLaMA3 70B。支持单GPU/TPU高效推理,适配家用电脑及云端部署,适用于低成本AI开发与本地部署场景。
Gemini 1.5 Pro是谷歌DeepMind开发的多模态大模型,采用稀疏混合专家架构,支持文本、图像、音频、视频及代码理解,上下文窗口达128万token,推理效率较前代提升40%。适用于电商客服、推荐系统等通用场景,可与Google Maps等生态集成,性价比均衡但中文术语处理需优化。