本地端 ollama 設定 openclaw 的流程

1. 下載 ollama 模型

ollama 官方建議使用模型
https://docs.ollama.com/integrations/openclaw

2. 使用 ollama 指令,ollama 設定給 openclaw 的使用模型

還沒決定使用 ollama 模型,先將 openclaw 加入模型設定

ollama 指定或切換模型

3. openclaw 的模型使用模式,指定為本地端

openclaw 設定 webUI 使用本地端,裡面選項選 local

4. openclaw 其他運行指令

openclaw 終端機 ui 對談介面

openclaw 重啟

openclaw 停止運行

運行狀態

啟用 Line 擴充

openclaw.json 編輯 OpenClaw 設定檔

用設定並重啟

ngrok dns 指向主機

Line messege api 接用與驗証

查看 Line 用戶與 OpenClaw 系統之間的「綁定狀態」

人工授權

清上下文 Token 0


ollama 運行指令

ollama 在終端機下運行後直接開啟 chat

查當前運行

VSCode CONTINUE 在本地端可運行的模型:
– qwen2.5:14b
順,專案資料夾路徑會判斷錯誤


其他

繁中快速手冊
https://open-claw.bot/zh-TW
https://open-claw.bot/

簡中官方說明文件
https://docs.openclaw.ai/zh-CN/start/getting-started