2026年5月10日星期日

谷歌开源端侧AI神器App,手机离线运行大模型免费

谷歌开源的Google AI Edge Gallery是一个可在iOS和安卓手机离线运行大模型的App,支持Gemma 4等模型。无需云端,数据不离开设备,节省订阅成本。提供AI对话、图像识别、语音转写、Agent工具调用等功能。模型需下载2-4GB,建议iPhone 15 Pro或8GB内存安卓机使用,App尚处Beta阶段可能有小bug。

Tags:

最近这一年,关于端侧 AI 这个话题的讨论越发激烈,手机芯片的 NPU 算力也一路狂飙。

而上个月谷歌开源的 Gemma 4 模型,因为能直接塞进手机里跑,进一步把讨论推向高潮。

大家在手机上部署后,不仅能省下每月 订阅成本,在离线状态也能使用,重要的是敏感信息不再怕上传到云端。

所使用的工具,正是谷歌开源的一个 App:Google AI Edge Gallery,目前已拿下 22000+ GitHub Star。

image-20260508171046052

简单说,这是一个能让我们在手机上离线运行各种开源大模型的 App。

从定位上,它更像是端侧 AI 的「应用商店 + 模型操场」。

而且支持 iOS 和 Android 系统,模型权重可从 Hugging Face 直接拉取到 App。

所有推理都跑在本地芯片上,全程不联网,数据也不会离开设备。

image-20260508171209365

进到 App 里,第一眼能看到的是 AI Chat 模块,也就是基础对话。

最近开放的 Thinking Mode 比较有意思,能直接看到模型一步步推理的过程。

不过这个特性目前限定部分模型才能开,比如 Google 自家的 Gemma 4 系列就支持。

顺带一提,Gemma 4 里的 E2B、E4B 命名挺有意思,这里的 E 是 Effective 的缩写,意思是用了优化技术,让 4B 参数发挥出更大模型的水平。

image-20260508171342012

第二个常用功能是 Ask Image,也就是拍照问图。

调用相机或相册图片,让本地模型识别物体、解题、做 OCR 都行。

随时随地拍照翻译、未知事物拍照询问、甚至分析图片信息特征,这类场景都可以使用。

image-20260508171512418

接着是 Audio Scribe,专门处理语音转写和翻译。录一段会议或讲座,本地直接出文字稿,还能跨语言翻译。

在飞机上、地铁这类没网或弱网环境下,刚好可以派上用场。

第四个比较硬核的是 Agent Skills,给本地模型挂载外部工具。

借助这个特性,模型可以接维基百科查事实、调地图查位置、生成可视化卡片等等能力。

更妙的是支持从 URL 远程加载技能模块,社区里也有不少现成的可以直接用。

image-20260508171603599

剩下就是模型管理模块,可以从 Hugging Face 加载自定义模型。

查看每个模型基准测试跑分,自由选择安装到手机,还能够精细调温度、top-k 这些参数。

image-20260508171714487

安装也很简单

整个安装过程基本没什么门槛。iPhone 设备直接到 App Store 搜 「Google AI Edge Gallery」 安装即可。

而安卓设备在 Google Play 同样能找到,没 Google Play 的可以去 GitHub Releases 下载 APK 包。

image-20260508171909434

安装完成打开 App,选模型下载就完事,每个模型大约 2-4GB,下载时间稍长需要耐心等下,之后所有操作均在本地进行。

对于机型方面,iPhone 15 Pro 及以上可选 E4B,iPhone 14 Pro 则选择 E2B,安卓手机推荐 8GB 内存以上的旗舰机。

当然,这个项目也有几个点需要客观说一下。

端侧小模型再强也有上限,复杂 Agent 工作流目前还是云端大模型更稳。

老机型跑大一点的模型容易卡顿发热,建议先从 E2B 一些小模型试起。

再就是这个 App 还处在 Beta 阶段,偶尔遇到小 bug 不奇怪,遇到了可以到 issue 上反馈。

写在最后

看完这个项目之后,最直观的感受是:端侧 AI 这件事,真的开始能用了。

而 Edge Gallery 在这场变化里的位置,比它本身的功能更值得关注。

过去两年,本地跑大模型这件事,电脑端早就有 Ollama、LM Studio 这些工具铺路。

但到了手机端,一直停留在开发者圈层,普通用户基本进不来。

而谷歌官方下场做这么一个 App,把「挑模型 - 下载 - 跑起来」简单到只需点击几次。

这是手机端本地大模型第一次长出消费级的入口形态。

这件事的意义,不只是省钱或者保护隐私。

而是 AI 正在从云端的某个数据中心,搬进每一部口袋里的设备。

当全球十几亿台手机都能离线跑模型时,AI 变成跟相机、地图一样的基础能力。

实时翻译、随手解答、本地处理隐私文件,这些过去要联网才能做的事,未来都可以离线完成。

而 Edge Gallery 的出现,可能就是这件事的起点信号。

GitHub 项目地址:https://github.com/google-ai-edge/gallery

今天的分享到此结束,感谢大家抽空阅读,我们下期再见,Respect!

没有评论:

发表评论

DeepSeek V4终端编程Agent:百万token上下文+思维链,输入低至0。14/百万

DeepSeek−TUI是一个用Rust编写的终端原生AI编程Agent,专门对接DeepSeekV4模型。支持100万token上下文、实时思维链推理,可直接读写文件、执行Shell命令、管理Git。提供Plan/Agent/YOLO三种模式,费用极低:V4Flash输入0.1...