本地端 ollama 設定 openclaw 的流程
1. 下載 ollama 模型
ollama 官方建議使用模型
https://docs.ollama.com/integrations/openclaw
2. 使用 ollama 指令,ollama 設定給 openclaw 的使用模型
1 | ollama launch openclaw |
還沒決定使用 ollama 模型,先將 openclaw 加入模型設定
1 | ollama launch openclaw --config |
ollama 指定或切換模型
1 2 | ollama launch openclaw --model qwen3:14b ollama launch openclaw --model qwen2.5-coder:14b |
3. openclaw 的模型使用模式,指定為本地端
openclaw 設定 webUI 使用本地端,裡面選項選 local
1 | openclaw configure --section web |
4. openclaw 其他運行指令
openclaw 終端機 ui 對談介面
1 | openclaw tui |
openclaw 重啟
1 | openclaw gateway restart |
openclaw 停止運行
1 | openclaw gateway stop |
運行狀態
1 | openclaw status |
啟用 Line 擴充
1 | openclaw plugins enable line |
openclaw.json 編輯 OpenClaw 設定檔
1 2 3 4 5 6 7 8 9 10 | { channels: { line: { enabled: true, channelAccessToken: "LINE_CHANNEL_ACCESS_TOKEN", channelSecret: "LINE_CHANNEL_SECRET", dmPolicy: "pairing", }, }, } |
用設定並重啟
1 | openclaw gateway config.apply |
ngrok dns 指向主機
1 | ngrok http 18789 |
1 | ps aux | grep ngrok |
Line messege api 接用與驗証
查看 Line 用戶與 OpenClaw 系統之間的「綁定狀態」
1 | openclaw pairing list line |
人工授權
1 2 | openclaw pairing approve line <CODE> // <CODE> = Pairing code |
清上下文 Token 0
1 | openclaw session reset main |
ollama 運行指令
ollama 在終端機下運行後直接開啟 chat
1 | ollama run maryasov/qwen2.5-coder-cline:32b |
查當前運行
1 | ollama ps |
VSCode CONTINUE 在本地端可運行的模型:
– qwen2.5:14b
順,專案資料夾路徑會判斷錯誤
其他
繁中快速手冊
https://open-claw.bot/zh-TW
https://open-claw.bot/
簡中官方說明文件
https://docs.openclaw.ai/zh-CN/start/getting-started
