Logo

OpenClaw 初体验

AI

前言

这个龙虾最近很火啊,刷抖音看到腾讯楼下竟然有人排队安装,不愧是大城市啊😄(一代人有一代人的领鸡蛋)

加载中...

刚开始看到这个,我还在想是不是另一个 Manus,看了下其原理其实还是很好理解,本质上和cursor是相似的,都是类似 Context --> LLM -> Action 的运行逻辑,只不过 openclaw 的权限大得多是系统级别的,几乎可以代理人控制电脑上所有的操作。

体验

我在 Windows 上的 Node 环境下安装了,听说在 Linux 或者 Mac 体验要更好些。

安装还是很简单的,教程很多我就不复述了。我用的 qwen 模型的 API,登录验证即可。

我给它取了个名字 “阿旺” ,有趣的是它的头像给我生成了一只狗的 Emoji。

正好我最近C盘占用很高的问题,我让它帮我搞定下。在此之前我已经尝试了用清理软件处理,不过还是占用很大。帮我分析了哪些占用然后给出了方案,其中有一个 pagefile.sys 占用比较大。这是内存不够就用硬盘的缓存文件,我最终选择了设置 pagefile.sys 移动到 D盘。

没成功…… 于是我采取了点 PUA 的方式,说你这点小事都办不好!

然后“阿旺”继续给出方案,结果还是不行。我只好让 GPT 上场,原来是本质问题是 C盘必须存在 pagefile.sys,只是说可以设置的小一些。

🦞加载中...🦞

因为:

Windows设计就是:

系统盘必须有 pagefile

所以最佳实践是:

C盘:小
其他盘:大

事实上这样更改意义似乎不大,实际使用还是在消耗了C盘。所以建议不要这样改,我还是还原了设置。

Ollama 接入

Ollama(本地模型不消耗token)我的电脑安装的模型是 qwen2.5-coder:7b

报错:

BASH
  1. 1
Ollama API error 500: {"error":"llama runner process has terminated: exit status 2"}

于是乎检查下 Ollama 的运行情况:

BASH
  1. 1
ollama ps

只显示标题,没结果。说明 Ollama 已经崩溃了,运行 ollama run qwen2.5:7b "你好" 测试下,Ollama 运行没问题。

尝试修改:

contextWindow 上下文窗口大小

模型一次最多能“记住多少字”。

maxTokens 单次回答允许生成的最大 token 数

AI 最多能说多少字。

JSON
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8. 8
  9. 9
  10. 10
  11. 11
  12. 12
  13. 13
  14. 14
  15. 15
  16. 16
  17. 17
  18. 18
  19. 19
  20. 20
  21. 21
  22. 22
  23. 23
  24. 24
  25. 25
  26. 26
  27. 27
  28. 28
  29. 29
  30. 30
  31. 31
  32. 32
  33. 33
  34. 34
{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434",
        "apiKey": "ollama-local",
        "api": "ollama",
        "models": [
          {
            "id": "qwen2.5:7b",
            "name": "Qwen 2.5 7B",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 4096,
            "maxTokens": 2048
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:7b"
      }
    }
  }
}

发现提示:

BASH
  1. 1
⚠️ Agent failed before reply: Model context window too small (4096 tokens). Minimum is 16000. Logs: openclaw logs --follow

破案了,OpenClaw 这个 agent 模式本身要求模型上下文窗口至少 16000 tokens,我的电脑配置是完全不够支撑的,导致我的 Ollama 崩溃了。

Gemini 接入

1️⃣ 先在系统里设置变量

BASH
  1. 1
$env:GEMINI_API_KEY="你的API_KEY"

然后 重开终端。

2️⃣ 在 OpenClaw 配置模型

models.providers 下添加:

JSON
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8. 8
  9. 9
  10. 10
  11. 11
  12. 12
  13. 13
  14. 14
  15. 15
  16. 16
  17. 17
  18. 18
  19. 19
  20. 20
  21. 21
      "google": {
        "baseUrl": "https://generativelanguage.googleapis.com/v1beta",
        "apiKey": "你的API key",
        "api": "google-generative-ai",
        "models": [
          {
            "id": "gemini-2.5-flash",
            "name": "Gemini 2.5 Flash",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 1048576,
            "maxTokens": 8192
          }
        ]
      }

要注意 gemini 版本为要对应当前的 2.0 以上,否则是不行滴

agents.default 下修改 model.primary 为 gemini 模型,代表目前使用的主模型。

defaults.models 也要添加一个 alias 关联

JSON
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8. 8
  9. 9
  10. 10
  11. 11
  12. 12
  13. 13
  14. 14
  15. 15
  16. 16
  17. 17
  18. 18
  19. 19
  20. 20
  21. 21
  22. 22
  23. 23
  24. 24
  "agents": {
    "defaults": {
      "model": {
        "primary": "google/gemini-2.5-flash"
      },
      "models": {
        "qwen-portal/coder-model": {
          "alias": "qwen"
        },
        "qwen-portal/vision-model": {},
        "google/gemini-2.5-flash": {
          "alias": "gemini"
        }
      },
      "workspace": "C:\\Users\\onmt1\\.openclaw\\workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },

遇到的坑,发现连接不上 gemini

查看下代理,是空的

BASH
  1. 1
  2. 2
echo $env:HTTP_PROXY
echo $env:HTTPS_PROXY

手动设置代理:

BASH
  1. 1
  2. 2
$env:HTTPS_PROXY="http://127.0.0.1:7890"
$env:HTTP_PROXY="http://127.0.0.1:7890"

并且需要管理员权限启动 clash,开启 tun mode 和 global mode。

再次测试

BASH
  1. 1
curl https://generativelanguage.googleapis.com/v1beta/models?key=你的API_KEY

成功了!🎉🎉🎉

可以看到“会话”里 tokens 数量是 1048576,注意用超了还是要收费

资源

1. 官方渠道(太多第三方网站)

  • 官方网站: https://openclaw.ai/
    • 包含项目介绍、演示视频和核心理念阐述。
  • 官方文档 (Docs): https://docs.openclaw.ai/ (支持中文: /zh-CN)
    • 开发者必读:包含架构原理、API 参考、Skills 开发规范、部署指南等。
  • GitHub 仓库: https://github.com/openclaw/openclaw
    • 核心源代码、Issue 追踪、Release 版本。
    • 注意:官方要求 Node.js 版本 ≥ 22。
  • Discord 社区: https://discord.gg/clawd
    • 最活跃的交流地,开发者经常在此发布最新技能和解答问题。

2. 关于 Skills (技能系统)

Skills 是 OpenClaw 的灵魂。如果说大模型是“大脑”,Skills 就是“手脚”。它允许 OpenClaw 调用外部工具、执行代码、操作文件系统、访问网络等。

1. Awesome OpenClaw Skills (必收藏) 这是社区维护的技能合集

  • 地址: https://github.com/VoltAgent/awesome-openclaw-skills
  • 内容分类:
    • DevOps & Cloud: Docker 管理、AWS/Aliyun CLI 集成、K8s 监控。
    • Coding Agents: 自动 Code Review、单元测试生成、Refactor 助手。
    • Git & GitHub: 自动 PR 描述生成、Issue 分类、Commit 规范化。
    • Web & Frontend: 自动化测试 (Playwright/Cypress)、SEO 分析、性能审计。
    • Data: SQL 查询优化、数据清洗 (Pandas)、可视化生成。

token

还是可以的,不同模型差距会比较大,这个也能理解。不过嘛简单用一下 就消耗了 24015 token,通过“会话” 可以看到 qwen 赠送了128000个 token。目前免费的 Gemini flash 应该是最划算的,毕竟每日会重新恢复额度。

note

不要用 Antigravity OAuth 接入,不然可能被 Google 封号

结语

最近各种国产 claw 都跑出来了,还有各种收费帮安装的,看来最终赚钱的还是卖铲子的。值得吐槽的点是,这个 UI 有点难用,聊天区域显示的很窄。

通过聊天工具来远程操作也是一样的意思。飞书是有额度的,苹果 IMessage 不大稳定,最好用好像是 Telegram。还有很多功能需要安装指定 skill,我后面再尝试。如果考虑隐私的话,还是装在没有个人信息的电脑最安全。

本质上它的原理并不难,大概流程就是:文字 -> 大模型 -> 命令。有的人吐槽它没用,我倒觉得这是一个开端吧,以后的操作系统应该会配备这种高度权限的 AI,许多人可以直接通过简单的语言操控电子设备。会越来越接近科幻电影里 Jarvis 这种通用级别的人工智能,这个答案是肯定的。

文章作者:eyu
原文链接:https://1piece.cc/posts/first-time-use-open-claw
版权声明:本文遵循 CC BY-NC-ND 4.0 协议,版权归 eyu 所有,转载请注明出处