Gemma 3n E2B Instructed是谷歌DeepMind开发的轻量级多模态模型,基于MatFormer架构,仅需2GB内存即可运行。支持文本、图像、音频、视频处理,适用于手机、树莓派等边缘设备本地部署,可用于聊天机器人、内容生成、多模态数据提取等场景。

AI 模型
聚合主流模型能力入口,适合选型、对比和快速检索。
当前显示第 1 / 1 页,共 12 条结果,本页区间为 1-12,当前标签为 Gemma。
Gemma 3n E2B是谷歌推出的多模态边缘AI模型,支持文本、图像、音频、视频本地处理,性能媲美5B参数模型,低内存功耗设计适配智能手机、可穿戴设备,实现隐私保护与实时交互。
Gemma 3n E4B是谷歌推出的轻量级多模态模型,属Gemma 3n系列,性能媲美8B参数模型,支持文本、图像、音频、视频处理,可在手机等边缘设备本地运行,低内存功耗。适用于无障碍技术、移动创作、教育研究及物联网设备。
Gemma 3n E2B Instructed LiteRT (Preview)是谷歌Gemma 3系列轻量级开放模型,基于MatFormer架构与PLE技术优化,有效参数2B(原始5B),2GB内存即可运行。支持文本/图像/音频多模态,140种语言,适用于手机、笔记本等设备端实时任务,如问答、内容分析。
Gemma 3n E4B Instructed LiteRT Preview是谷歌2025年推出的轻量级开源多模态模型,属Gemma 3n系列E4B版本(有效参数4B)。支持文本、图像、音频输入,文本输出,32K上下文,英法/英西翻译准确率超92%。优化内存占用(约3GB),适配移动设备与边缘计算,响应速度快,适用于本地部署的实时交互场景。
Gemma 3n E4B Instructed是谷歌Gemma 3系列轻量级多模态开放模型,有效参数4B(原始8B),指令调优版本。特点:原生支持文本/图像/音频/视频输入,仅需3GB内存运行,响应速度快,LMArena得分超1300,支持140种语言,适用于设备端实时处理、多模态问答、本地部署等场景。
Gemma 3 4B是谷歌DeepMind推出的轻量级多模态开源模型,支持文本与图像输入,采用SigLIP视觉编码器,400M参数,896×896分辨率处理。具备128K上下文窗口、140+语言理解能力,优化长文本推理,单GPU可运行,适用于本地部署的智能问答、图像分析和多语言任务。
Gemma 3 1B是谷歌DeepMind开源的轻量级纯文本模型,参数规模10亿,基于2T token数据训练。特点为轻量高效,支持单块GPU/TPU运行,上下文窗口32k token,适配手机、笔记本等资源受限设备,适合快速部署和低功耗场景。
Gemma 3 12B是谷歌推出的开源多模态大语言模型,120亿参数,基于Transformer架构,支持文本、图像输入及140+语言,上下文窗口128K,适用于摘要、问答等任务,可在单GPU部署,平衡性能与硬件需求。
Gemma 3 27B是谷歌2025年推出的开源轻量级多模态大模型,基于Gemini 2.0技术构建,270亿参数规模。支持文本和图像处理,128K上下文窗口,140余种语言,单GPU即可运行。LMArena测试超Llama-405B等模型,适用于端侧部署、多模态分析、跨语言任务。
Gemma 2 9B是谷歌DeepMind开发的开源轻量级大语言模型,属Gemini技术体系,90亿参数规模。特点:采用滑动窗口注意力与知识蒸馏技术,8万亿token训练,性能超Llama 3 8B;支持多框架部署,适配边缘设备与云端。适用于边缘AI、文档问答、代码生成等场景。
Gemma 2 27B是谷歌开源的轻量级文本生成大模型,基于Transformer架构,性能媲美LLaMA3 70B。支持单GPU/TPU高效推理,适配家用电脑及云端部署,适用于低成本AI开发与本地部署场景。