当前位置:首页 > AI技术 > 正文内容

OpenClaw支持模型微调结果加载吗 OpenClaw自定义权重使|Duuu笔记

admin5天前AI技术26

AI开发疑难问题解析与解决方案

微调权重需存于~/.openclaw/skills/子目录并符合HF格式,通过SOUL.md的model字段或config.yaml的model_path指定路径,支持本地加载或OpenRouter/Cloudflare网关接入,最后用debug日志和推理测试验证生效。

如果您已对OpenClawAI所依赖的大语言模型完成微调(如通过LoRA、QLoRA等方式生成适配权重),但启动后未生效或提示模型加载失败,则可能是由于权重路径未正确注册、格式不兼容或配置未指向自定义参数。以下是将微调结果成功加载至OpenClawAI的具体操作步骤:

一、确认微调权重格式与存放位置

OpenClawAI仅支持加载符合Hugging Face Transformers标准结构的微调权重,包括完整模型(full fine-tune)和LoRA/QLoRA适配器两种类型。权重必须存放在

~/.openclaw/skills/

目录下独立子文件夹中,并包含

config.json

pytorch_model.bin

(或

adapter_model.bin

)及

tokenizer_config.json

等必要文件。

1、创建专属权重目录:

mkdir -p ~/.

openclaw

/skills/my_lora_v1

2、将微调输出的全部文件复制进该目录,确保无遗漏;

3、检查目录内是否存在

adapter_config.json

(LoRA专用)或

config.json

(全量微调),缺失则无法识别;

4、验证tokenizer文件完整性:

ls ~/.openclaw/skills/my_lora_v1/tokenizer*

应返回至少

tokenizer.json

tokenizer_config.json

二、修改SOUL.md注入模型路径声明

SOUL.md是OpenClawAI人格配置核心文件,其中

model

字段可显式指定加载路径。系统启动时优先读取该路径,覆盖默认模型设置。路径支持绝对路径与相对路径,但必须以

file://

前缀标识本地权重。

1、打开

~/.openclaw/workspace/SOUL.md

2、在任意空白行插入新字段:

model: file:///home/username/.openclaw/skills/my_lora_v1

(请将

username

替换为实际用户名);

3、保存文件,确保无语法错误(禁止中文冒号、多余空格或缩进不一致);

4、确认SOUL.md顶部未被注释符

#

整段屏蔽,否则字段不生效。

三、通过config.yaml全局覆盖模型加载行为

当需对所有智能体实例统一启用同一套微调权重时,应优先修改全局配置文件config.yaml。该方式绕过SOUL.md单体限制,适用于多AGENTS场景或批量部署环境。

1、编辑

~/.openclaw/config.yaml

2、定位到

llm:

节点下,添加或修改

model_path:

字段:

model_path: "/home/username/.openclaw/skills/my_lora_v1"

白瓜AI

白瓜AI,一个免费图文AI创作工具,支持 AI 仿写,图文生成,敏感词检测,图片去水印等等。

下载

3、确保

llm:

缩进层级与同级字段(如

provider:

)一致,YAML对空格敏感;

4、若原配置含

model_id:

(如

claude-sonnet-4-5

),需将其注释或删除,避免冲突。

四、使用OpenRouter或Cloudflare AI Gateway间接加载微调模型

OpenClawAI原生支持OpenRouter与Cloudflare AI Gateway作为模型路由层。若微调权重已托管至兼容平台(如Hugging Face Spaces + Inference Endpoints),可通过网关URL方式接入,无需本地存储模型文件。

1、部署微调模型至HF Space,启用Inference API并获取可用Endpoint URL;

2、在config.yaml中设置:

provider: openrouter

provider: cloudflare-

ai

-gateway

3、对应添加

api_base:

字段,值为HF Endpoint地址(如

https://xxxx.hf.space/v1

);

4、设置

model_id:

为该Endpoint上注册的模型别名(如

my-lora-finetuned

),OpenClaw将按此标识发起请求。

五、验证权重是否实际加载

仅靠配置写入无法确认微调效果,必须通过运行时日志与推理响应双重验证。OpenClawAI在初始化LLM时会打印模型加载路径与参数量摘要,是判断权重是否载入的关键依据。

1、启动OpenClaw时添加调试标志:

openclaw run --log-level debug

2、在启动日志中搜索关键词

loading model from

,确认输出路径与您的微调目录一致;

3、发送测试指令:“请用法律文书风格重写以下句子”,观察输出是否呈现微调目标领域特征;

4、若日志显示

using default model

或路径指向

~/.cache/huggingface

,说明配置未生效,需回溯前四步检查。

相关文章

LLM介绍

。LLM 被证明在使用指令形式化描述的未见过的任务上表现良好。这意味着 LLM 能够根据任务指令执行任务,而无需事先见过具体示例,展示了其强大的泛化能力。 :小型语言模型通常难以解决涉...

Unity 机器学习 基础

ML-Agents 资产导入 Unity 场景创建 Unity 代码部分 Anaconda 执行 rollerball_config.yaml 机器学习逻辑处理...

神经网络分类总结

从网络性能角度可分为连续型与离散型网络、确定性与随机性网络。 从网络结构角度可为前向网络与反馈网络。 从学习方式角度可分为有导师学习网络和无导师学习网络。 按连续突触性...

一文讲清神经网络、BP神经网络、深度学习的关系

人工神经网络中的顶级代表。往往说《神经网络》就是指《BP神经网络》。 大家研究着各种神经网络,研究得不亦乐乎, 来了两个家伙Romelhart 和Mcclelland,...

前端开发高级应用:MuleRun如何连接Slack通知 MuleRun消息推送集成配置步骤实战案例|Duuu笔记

若MuleRun无法向Slack推送通知,需依次配置Incoming Webhook或Bot Token、在MuleRun中设置对应通知目标参数,并通过最小化任务测试验证;常见失败原因包括凭据错误、权...

几种主要的神经网络

卷积神经网络的输入为二维的像素整阵列,输出为这个图片的属性,当网络训练学习后,所输入的图片或许经过稍微的变换,但卷积神经网络还是可以通过识别图片局部的特征而将整个图片识别出来。 :该层...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。