引言:从"养龙虾"说起
最近在研究 OpenClaw 这个项目,发现它的 GitHub 标题写着:
Your own personal AI assistant. Any OS. Any Platform. The lobster way. 🦞
项目从 Warelay → Clawdbot → Moltbot → OpenClaw,一路演变,名字里藏着"龙虾"(Claw)和"蜕壳"(Molt)的隐喻。这让我思考一个问题:
AI 工具,到底要"养"还是"用"?
表面上看,这是个使用习惯的问题。但深入思考后,我发现这触及了 AI 技术的本质。让我从表象到本质,逐层分析。
第一层:表象 — AI 工具的三种形态
根据运行位置和推理位置两个维度,AI 工具可以分为三类:
1. 本地运行 + 本地推理(完全自托管)
代表:OpenClaw、Ollama + Open WebUI、LocalGPT
特点:
- 工具在本地运行(终端、桌面应用)
- 模型推理也在本地(你的 GPU/CPU)
- 数据完全不离开本地
- 需要自己维护模型、硬件资源
- 高度可定制
维护成本:高
- 硬件资源(GPU、内存)
- 模型管理和更新
- 安全配置
- 与自己工作流的磨合
适合人群:
- 隐私要求极高(代码/数据不能离开本地)
- 有硬件资源(高性能 GPU)
- 需要深度定制
- 愿意投入时间精力
2. 本地运行 + 云端推理(混合模式)
代表:Claude Code、Cursor、GitHub Copilot
特点:
- 工具在本地运行(终端、IDE 插件)
- 模型推理在云端(Anthropic/OpenAI/Google 服务器)
- 代码/上下文会发送到云端
- 开箱即用,无需硬件资源
- 中等定制性
维护成本:中
- 提示词技巧
- 配置文件(如 CLAUDE.md)
- 与编码风格的磨合
适合人群:
- 大多数开发者
- 没有高性能 GPU
- 追求效率
- 可接受代码发送到云端
3. 云端运行 + 云端推理(完全云端)
代表:ChatGPT、Claude.ai、Gemini
特点:
- 一切都在浏览器/云端
- 即开即用
- 定制性最低
维护成本:低
- 提示词技巧
- 基本使用习惯
适合人群:
- 偶尔使用
- 不需要深度定制
- 追求极简
第二层:本质 — 为什么需要"养"?
开箱即用的技术本质
从技术角度看,“开箱即用"意味着:
用户输入 → 黑盒模型 → 通用输出
这个黑盒封装了:
- 模型(GPT-4、Claude 3.5 Sonnet)
- 基础提示词(System Prompt)
- 安全护栏(Safety Guardrails)
- 通用工具(Web Search、Code Execution)
开箱即用 = 通用性 × 易用性 - 定制性 - 上下文
这是一个技术权衡,不是缺陷。通用模型要服务 10 亿用户,不可能深度适配每一个人。
开箱即用的局限性
1. 上下文断层
通用模型没有你的上下文:
你的代码库 → ❌ 模型看不到
你的数据 → ❌ 模型访问不到
你的工作流 → ❌ 模型不理解
你的偏好 → ❌ 模型不知道
2. 工具孤岛
模型是"大脑”,但没有"手":
模型: "我帮你查一下数据库"
实际: 数据库在内网,模型访问不到
结果: 用户自己复制粘贴数据给模型
3. 记忆缺失
每次对话都是"第一次见面":
用户: 继续上次的工作
模型: 抱歉,我没有之前的对话记录
结果: 用户每次都要重新描述背景
从 Agent 架构看"养"的必要性
现代 AI Agent 的架构是:
┌─────────────────────────────────────────┐
│ Agent 系统 │
├─────────────────────────────────────────┤
│ ┌─────────┐ ┌─────────┐ ┌─────────┐ │
│ │ 模型 │ │ 工具 │ │ 记忆 │ │
│ │ (Brain) │ │ (Hands) │ │(Memory) │ │
│ └─────────┘ └─────────┘ └─────────┘ │
├─────────────────────────────────────────┤
│ 上下文层 (Context) │
│ - 代码库知识 │
│ - 业务数据 │
│ - 工作流程 │
│ - 用户偏好 │
└─────────────────────────────────────────┘
“养"的本质 = 构建适配你场景的上下文层
四个技术原因
1. 上下文鸿沟(Context Gap)
训练数据: 公开代码、公开文档、公开知识
你的场景: 私有代码、内部文档、业务逻辑
差距: 90% 的关键信息模型不知道
解决方法:“养” — 通过 RAG、Fine-tuning、Prompt Engineering 注入上下文。
2. 工具碎片化(Tool Fragmentation)
你的工具分布在各处:内部 Git 服务器、私有数据库、内部 API、本地文件系统、特定领域的命令行工具。
通用 AI 工具无法访问这些。“养” = 构建连接器(MCP Server、自定义 Tool)。
3. 工作流固化(Workflow Crystallization)
每个人的工作流是独特的:
开发者 A: 写代码 → 单元测试 → Code Review → 合并
开发者 B: 写代码 → 集成测试 → 部署到测试环境 → 手动测试
“养” = 将你的工作流编码成 Agent 可执行的步骤。
4. 反馈闭环(Feedback Loop)
模型不知道什么是"好”:
模型: 生成了代码
用户: 不满意,但没说为什么
模型: 下次还是生成类似的代码
“养” = 建立反馈机制,让模型学习你的偏好。
“养"的技术实现
Anthropic 在《Building Effective AI Agents》中提出了增强型 LLM 的核心构建块:
┌──────────────┐
│ 增强型 LLM │
└──────────────┘
↙ ↓ ↘
┌───────┐ ┌───────┐ ┌───────┐
│ 检索 │ │ 工具 │ │ 记忆 │
│(RAG) │ │(Tools)│ │(Memory)│
└───────┘ └───────┘ └───────┘
“养"就是构建这三个增强层:
- 检索层(RAG):构建你的知识库索引、优化检索策略
- 工具层(Tools):开发 MCP Server、自定义工具函数
- 记忆层(Memory):设计记忆存储、检索策略
第三层:趋势 — 未来的技术发展方向
趋势一:协议化(Protocol-based)
问题:每个 AI 工具都要重新集成每个数据源。
Claude Code → 需要 GitHub 集成
Cursor → 需要 GitHub 集成
Copilot → 需要 GitHub 集成
...重复造轮子
解决方案:MCP(Model Context Protocol)
GitHub MCP Server
↓
MCP 协议
↓
Claude Code / Cursor / Copilot / OpenClaw
一次开发,处处可用。未来"养"的成本会大幅降低。
趋势二:组件化(Composable)
当前:AI 工具是单体应用。
Claude Code = 模型 + 编辑器集成 + Git 工具 + ...
未来:AI 工具是组件组装。
你的 IDE = 模型(A) + 编辑器集成(B) + Git 工具(C) + 自定义工具(D)
像搭积木一样组装你的 AI 助手。“养"变得更模块化。
趋势三:边缘化(Edge-based)
当前:AI 计算在云端。
你的数据 → 云端 → 模型处理 → 返回结果
问题:延迟、隐私、成本
未来:AI 计算在边缘。
本地模型 + 本地数据 + 本地计算
Apple Intelligence、本地 LLM 是这个方向。“养"意味着你拥有自己的 AI 基础设施。
趋势四:个性化(Personalized)
当前:通用模型服务所有人。
同一个 GPT-4 → 10 亿用户
未来:个性化模型服务你。
基础模型 + 你的数据 → 微调 → 你的专属模型
“养"的终极形态 = 训练属于你自己的模型。
第四层:实践 — 如何做决策?
Anthropic 的启示:简单优于复杂
在 Anthropic 的《Building Effective AI Agents》文章中,有一个核心观点:
Find the simplest solution possible, and only increase complexity when needed.
他们观察到,最成功的 AI 系统不是用复杂框架构建的,而是用简单、可组合的模式。
决策矩阵
| 工具类型 | 维护成本 | 隐私控制 | 定制能力 | 硬件要求 |
|---|---|---|---|---|
| 本地运行+本地推理 | 高 | 高 | 高 | 高(GPU) |
| 本地运行+云端推理 | 中 | 中 | 中 | 低 |
| 云端运行+云端推理 | 低 | 低 | 低 | 无 |
什么时候选择什么?
选择本地运行+本地推理的信号:
- 公司有隐私合规要求(代码不能离开本地)
- 有高性能 GPU 等硬件资源
- 需要高度定制的工作流
- 愿意投入时间维护
选择本地运行+云端推理的信号:
- 大多数开发者的最佳选择
- 没有高性能 GPU
- 追求效率优先
- 可接受代码发送到云端
选择云端运行+云端推理的信号:
- 偶尔使用
- 不需要与本地代码库深度集成
- 追求极简
实践建议
阶段一:先用起来(1-3 个月)
- 安装 Claude Code(本地终端 + 云端推理)
- 写 CLAUDE.md 配置文件
- 养成"让 AI 写代码"的习惯
- 这是大多数开发者的最佳起点
阶段二:深入理解(3-6 个月)
- 学习 MCP 协议
- 尝试自建 MCP Server
- 理解 AI 工具的底层原理
- 如果需要隐私保护,尝试 Ollama + 本地模型
阶段三:按需选择(6 个月+)
- 评估隐私需求(代码能否上云)
- 评估硬件资源(是否有 GPU)
- 评估定制需求
- 决定是否需要完全自托管
第五层:思考 — 深度总结
“养"的本质
从技术底层看,“养"的本质是:
养 = 适配(Adaptation)
因为通用模型和你的场景之间存在信息不对称:
模型知道: 公开知识、通用技能
你需要: 私有知识、特定技能
适配 = 消除信息不对称
为什么不能完全开箱即用?
这是技术规律,不是产品设计缺陷。
类比:
操作系统: 开箱即用,但你需要安装软件、配置环境
开发框架: 开箱即用,但你需要写业务代码、设计数据库
AI 工具: 开箱即用,但你需要注入上下文、连接工具、定义工作流
越强大的工具,越需要适配。这是能力的代价。
未来的终局
我认为是分层架构:
┌────────────────────────────────────────┐
│ 应用层(开箱即用) │
│ Claude Code / Cursor / ChatGPT │
│ → 服务 90% 的通用需求 │
├────────────────────────────────────────┤
│ 协议层(标准化) │
│ MCP / OpenAI Functions / Custom API │
│ → 让适配成本最小化 │
├────────────────────────────────────────┤
│ 基础设施层(深度适配) │
│ OpenClaw / 本地模型 / 私有部署 │
│ → 服务 10% 的高价值定制需求 │
└────────────────────────────────────────┘
大部分人用开箱即用,少部分人深度适配自己的 AI。
但这"少部分"创造的价值可能远超"大部分”。
结语
“养龙虾"不是目的,更好地完成任务才是。
AI 工具的本质是能力放大器:
- 用得好,10 倍效率提升
- 用不好,就是折腾
最终答案:
不是"要不要养”,而是"你的场景值不值得深度适配”。
通用需求用开箱即用,高价值场景值得深度适配。
技术启示:
- 先用,再养 — 不要为了养而养
- 简单优先 — 从 Claude Code/Cursor 开始
- 按需升级 — 有明确需求再自托管
- 理解本质 — 知道自己在养什么、为什么养
- 关注协议趋势 — MCP 等协议会大幅降低"养"的成本
- 分层决策 — 开箱即用做 80%,深度适配做 20% 高价值部分
最后,借用 OpenClaw 的理念:
The goal: a personal assistant that is easy to use, supports a wide range of platforms, and respects privacy and security.
工具服务于人,不是人服务于工具。
参考资料: