返回专题 Tutorial F: Automation

浏览器自动化:让 OpenClaw 成为你的网络爬虫

Browser Automation MCP 阅读时长: 18min

当 OpenClaw 遇上浏览器自动化,你的 AI 代理不再只是"聊天机器人",而是真正能够自主浏览网页、采集信息、执行任务的智能助手。本教程将展示如何选择和集成三大主流方案,打造你的专属网络爬虫。

1. 为什么需要浏览器自动化?

传统的 AI 代理只能处理你提供的文本信息。但现实世界的数据大多藏在网页里:

💡 核心价值:

OpenClaw + 浏览器自动化 = 24/7 在线的智能信息采集员。你可以在 Telegram 发个指令,AI 就自动帮你完成网页操作,并把结果同步到 Obsidian。

2. 三大方案选型指南

我们有三个主流选择:

Agent Browser (Vercel)

适用场景: 日常浏览、快速操作、信息采集

优势: Token 消耗减少 93%,速度最快,轻量级
示例: "帮我看看竞品官网的定价" / "截图保存这个页面"

🔍 DevTools MCP (Google)

适用场景: 调试排错、性能分析、网络请求

优势: 最全能,支持 Console/Network/Performance
示例: "这个 API 返回了什么数据?" / "页面加载为什么这么慢?"

🧪 Playwright MCP (Microsoft)

适用场景: 功能测试、复杂流程、稳定性要求高

优势: 专业测试框架,跨浏览器支持
示例: "跑一遍完整的注册→登录→下单流程"

3. 快速上手: Agent Browser + OpenClaw

我们以最轻量的 Agent Browser 为例,展示如何与 OpenClaw 集成。

第一步: 安装 Agent Browser

# 使用 npm 全局安装
npm install -g @vercel/agent-browser

# 验证安装
agent-browser --version

第二步: 配置 OpenClaw 集成

在 OpenClaw 的配置中,添加浏览器自动化技能:

# ~/.openclaw/skills/browser-automation.yaml
name: browser-automation
description: 使用 Agent Browser 进行网页自动化操作
commands:
  - agent-browser open {url}
  - agent-browser screenshot {filename}
  - agent-browser extract {selector}

第三步: 实战案例 - 监控竞品定价

假设你想每天自动抓取竞品的定价信息,并保存到 Obsidian:

完整工作流:

  1. Telegram 指令: 你在 Telegram 发送 "/monitor-pricing"
  2. OpenClaw 接收: 触发浏览器自动化任务
  3. Agent Browser 执行: 打开竞品网站,提取定价数据
  4. 数据处理: AI 整理成 Markdown 格式
  5. 同步 Obsidian: 自动追加到 `竞品分析/定价监控.md`
  6. 通知反馈: Telegram 返回执行结果

4. 进阶: 安全隔离最佳实践

⚠️ Jerry's 安全建议:

浏览器自动化意味着 AI 可以"看到"和"操作"网页。为了安全,强烈建议在虚拟机中运行(参考教程 C)。

5. 实用场景集锦

场景 1: 生财有术风向标监控

每天自动登录生财有术,抓取最新 50 条风向标,提取亮点并总结到 Obsidian。

# Telegram 指令
/scys-monitor

# OpenClaw 自动执行
1. agent-browser open scys.com --load-cookies
2. 导航到风向标栏目
3. 提取最新 50 条标题和链接
4. AI 总结亮点
5. 追加到 Obsidian/生财有术/风向标.md

场景 2: GitHub Trending 日报

每天早上自动抓取 GitHub Trending,筛选你关注的技术栈,生成日报。

场景 3: 自动化测试你的 Web 应用

使用 Playwright MCP 跑完整的用户旅程测试,发现问题自动通知 Telegram。

6. 常见问题

Q: 三个工具可以同时用吗?

A: 可以!根据任务选择最合适的工具。日常采集用 Agent Browser,调试用 DevTools MCP,测试用 Playwright MCP。

Q: 会被网站封禁吗?

A: 合理使用不会。建议:1) 控制频率 2) 使用 User-Agent 3) 遵守 robots.txt 4) 只抓取公开数据。

Q: 需要编程基础吗?

A: 不需要!OpenClaw 可以通过自然语言指令完成大部分操作。但如果你会写简单的配置文件,可以实现更复杂的自动化。