昨天,我在折腾一件极客圈很火的事情:用一台普通的Mac mini,在本地离线跑通了Google全新发布的Gemma 4大模型,并且把它接入了OpenClaw(小龙虾)。
跑通、并且顺畅执行完几个自动化任务之后,盯着屏幕,我的第一反应不是“现在的开源AI真强”,而是:
AI的使用成本,正在被暴力砸向,归零。
先说这套环境是怎么跑起来的。
我用的是Gemma 4的轻量版本,在Mac mini上两行命令直接拉取,完全离线运行。没有云端计算,不调用外部API,拔掉网线照样跑。
看着系统的资源占用图,你会有一种久违的掌控感——这是AI时代全面转向云端大厂收费以来,你第一次感觉到:这个强大的智能体,真正属于你自己的物理硬件了。
在这个测试里,有两个绝对的主角。第一个是Google刚刚放出来的Gemma 4。
我仔细翻了Gemma 4的技术架构,发现了一件很有意思的事:相比上一代,它的底层架构几乎没变(依然是Pre/Post-norm、5:1混合注意力机制等)。
它能在这个体量下打出超越前代甚至叫板千亿参数模型的效果,靠的不是架构升级,是极致的数据质量和训练工程。
最大的惊喜是它的MoE(混合专家)设计:总参数26B(260亿),但每次推理实际激活的参数只有4B(40亿)。
这就好比你请了一个拥有26个领域博士学位的全栈专家,但他每次帮你干活只吃一碗面条。
用小模型的极低显存成本,打出了大模型的高效表现。
更有商业价值的是,它是Apache 2.0开源协议。不仅免费,还能商用、能魔改、能零门槛私有化部署。
但这还不是它真正的杀手锏。Gemma 4最具商业价值的特性:它原生支持强大的Function Calling(函数调用)能力。
原生支持函数调用的模型,是可以自己拿起铲子干活的。它可以调用甚至编写代码、操作数据库、顺着网线爬取数据。它是一个独立的“外包干活工具人”。
这就是为什么我要把它接入OpenClaw的原因——这是在这个测试里的第二个主角。
光有Gemma 4,你只有一个聪明的大脑;加上OpenClaw,你就拥有了一套本地的Agent OS(智能体操作系统)。
龙虾负责分配任务、管理多平台接口、调用工具(MCP),而Gemma 4作为本地算力引擎,为这一切提供心智。
这里有个避坑指南:很多小白装了龙虾,以为自己用上了本地大模型,其实一看后台日志显示`gateway-injected`,说明你还在用龙虾内置的那个残血小模型。
真正的正确姿势是:
用Ollama拉取完整的`gemma4:26b`,把龙虾里的模型配置指向它,然后强制命令`/model ollama/gemma4:26b`。
当命令行跳出`agent main | ollama/gemma4:26b`那一刻,恭喜你,你已经拥有了一个完全独立、免费、不受任何大厂API限流和审查的本地私有全能数字员工。
这套“Mac mini + Gemma 4 + OpenClaw”的本地基建,到底带来了多大的变化?
以前,如果你要高强度利用AI来帮你写文章、做代码审查、处理表格数据、执行自动化任务,你每个月买各种API Token和包月会员的钱,轻松就是几百美金。
现在,我的工作流变成了这样:
- 90%的日常繁杂任务和数据处理:全部交给本地的Gemma 4 + 龙虾,纯离线,数据绝对隐私安全。
- 10%的超复杂逻辑推理和系统架构设计:这种高难度动作,我才会花钱去调用云端的Claude 4.6或更高阶模型。
一个最直接的商业范式发生了:对于重度用户来说,使用AI的成本,已经从暴利的“按Token计费”,变成了纯粹的“按电费计费”。
稳定,可用,没有任何调用焦虑。随便让龙虾去抓取几万页垃圾数据做清洗,它只要开着机就行,唯一的成本就是电费。
当硬件一次性买断,当智力成为了可以免费下载的压缩包,那些依靠倒卖基础模型Token来维持估值的云大厂们,真的要开始肉疼了。
<原文链接:https://mp.weixin.qq.com/s/hPS9GTudz9IRYrUAjIZkRg


















暂无评论内容