本地部署OpenClaw(Clawdbot /Moltbot )使用本地AI

本文介绍本地设备部署OpenClaw(原名Clawdbot /Moltbot ),且使用本地AI模型,轻量化使用游玩用于简单日常任务及娱乐。若作为生产力使用还是推荐AI的api key。本文完成时间(2026年1月)所选用工具版本,OpenClaw(v2026.1.29)、ollama(v0.15.2)。

OpenClaw 简介

官方原文是这么说的

OpenClaw is a personal AI assistant you run on your own devices. It answers you on the channels you already use (WhatsApp, Telegram, Slack, Discord, Google Chat, Signal, iMessage, Microsoft Teams, WebChat), plus extension channels like BlueBubbles, Matrix, Zalo, and Zalo Personal. It can speak and listen on macOS/iOS/Android, and can render a live Canvas you control. The Gateway is just the control plane — the product is the assistant.
If you want a personal, single-user assistant that feels local, fast, and always-on, this is it.

中文翻译:
OpenClaw 是一款运行在您自己的设备上的个人 AI 助手 。它可以通过您常用的渠道(WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams、WebChat)以及 BlueBubbles、Matrix、Zalo 和 Zalo Personal 等扩展渠道为您提供帮助。它支持 macOS/iOS/Android 系统,并可渲染由您控制的实时 Canvas 界面。网关只是控制平台,产品本身才是真正的助手。
如果你想要一个感觉像本地助手、速度快、始终在线的单人个人助理,那就是它了。

简单说就是一个AI 智能体(Agent),拥有当前部署设备的最高管理员权限(root/administrator),还有拥有Skills注册中心,可以使用skill控制设备的各个工具软件甚至操作系统本身。是Jarvis助理,可以帮你干一切在计算机能做事情。

OpenClaw 部署

可以运行在 macOS、Linux 和 Windows(通过 WSL2

检查 nodejs 版本

OpenClaw 运行需要 Node ≥22,先查看是否安装Node.js或版本是否低于此版本

#查看node版本
node -v

#查看npm版本
npm -v

#卸载旧版本nodejs
#Debian / Ubuntu(apt 安装)
sudo apt purge -y nodejs npm
sudo apt autoremove -y
#CentOS / RHEL / Fedora(dnf/yum 安装)
sudo dnf remove -y nodejs npm
sudo yum remove -y nodejs npm
#MacOS
rm -rf ~/.nvm
# 然后去 ~/.zshrc 或 ~/.bashrc 删除 nvm 初始化那几行

安装nodejs可以通过官方方式安装,https://nodejs.org/en/download,选择好操作系统和安装版本,输入官方给的命令即可。

安装 OpenClaw

直接使用命令安装

npm install -g openclaw@latest
#配置openclaw
openclaw onboard --install-daemon

然后更具上面的提示进行,把每一步都跳过

I understand this is powerful and inherently risky. Continue?
│  Yes
│
◇  Onboarding mode
│  QuickStart
│
│
◇  Model/auth provider
│  Skip for now
│
◇  Filter models by provider
│  All providers
│
◇  Default model
│  Keep current (default: anthropic/claude-opus-4-5)
│
◇  Select channel (QuickStart)
│  Skip for now
│
◇  Configure skills now? (recommended)
│  No
│
◇  Enable hooks?
│  Skip for now

这样就算已经安装好了 OpenClaw ,接下来就是接入本地模型

接入本地AI模型

这里使用是 ollama 方式接入,安装ollama方式和部署大模型这里就不说了,可以参考此文https://www.zhazong710.xyz/1943.html ,虽然这篇文章的日期和现在已经过去十个月,但安装方式和命令没有变化任然适用,只是版本成了最新的v0.15.2。

下面是ollama接入OpenClaw方式

#先启动大模型,这里使用glm-4.7-flash。ollama推荐的模型是glm-4.7、gpt-oss:20b、gpt-oss:120b
ollama run glm-4.7-flash:q4_K_M
#其实也可以用ollama的云模型
# ollama run kimi-k2.5:cloud

#接入命令
ollama launch openclaw

这样就好了

接入本地聊天软件

使用

闸总710

感谢观看闸总博客,本博客为个人学习交流使用
订阅
提醒
guest

0 评论
内联反馈
查看所有评论