当前位置:首页 > AI技术 > 正文内容

WorkBuddy 怎么DeepSeek WorkBuddy 接DeepSeek模型教程最佳践|Duuu笔记

admin2周前 (04-04)AI技术18

在生产环境中优化AI,本文分析

需完成模型适配、API桥接与配置验证三类操作:一、部署DeepSeek模型并暴露HTTP接口;二、在WorkBuddy AI中配置OpenAI兼容的自定义模型参数;三、调整提示词模板与消息分隔符;四、启用流式传输以保障多轮对话上下文;五、通过Nginx反向代理清洗非标准响应。

如果您希望在WorkBuddy AI中接入DeepSeek模型以实现本地化或私有化的大语言模型调用,则需完成模型适配、API桥接与配置验证三类核心操作。以下是具体实施步骤:

一、确认DeepSeek模型部署环境

WorkBuddy AI本身不内置DeepSeek模型,需先在本地或服务器端完成DeepSeek-R1或DeepSeek-Coder等对应版本的模型加载与服务暴露。该步骤确保后续WorkBuddy AI能通过标准HTTP接口访问推理能力。

1、从DeepSeek官方GitHub仓库下载指定版本的模型权重文件(如

deepseek

-

ai

/

deepseek

-coder-1.3b-base)。

2、使用vLLM、llama.cpp或Transformers+FastAPI搭建推理服务,启动后监听端口如http://127.0.0.1:8000/v1/chat/completions。

3、使用curl命令验证服务可用性:

curl -X POST http://127.0.0.1:8000/v1/chat/completions -H "Content-Type: application/json" -d '{"model":"

deepseek

-coder-1.3b","messages":[{"role":"user","content":"Hello"}]}'

二、配置WorkBuddy AI的自定义LLM接入参数

WorkBuddy AI支持通过“设置→AI模型→添加自定义模型”路径注入外部大模型API,需严格匹配OpenAI兼容接口规范,否则将触发404或500错误。

1、打开WorkBuddy AI客户端,进入【设置】菜单,点击【AI模型】选项卡。

2、点击右下角【+ 添加模型】按钮,在弹出表单中填写:模型名称填

DeepSeek-Coder-1.3b

,API基础地址填

http://127.0.0.1:8000/v1

,API密钥留空(若服务未启用鉴权)。

3、在“模型ID”字段中输入与推理服务返回header中一致的模型标识,例如

deepseek

-coder-1.3b-base

,该值必须与vLLM启动时--model参数完全相同。

三、替换系统默认提示词模板

DeepSeek模型对system角色指令敏感度高于Llama系列,若沿用默认模板可能导致响应格式错乱或拒绝生成。需手动调整prompt schema以匹配DeepSeek训练时的对话结构。

1、在模型配置页点击【高级设置】展开区域。

Zeemo

提供视频字幕、字幕制作和字幕翻译服务

下载

2、将“系统提示词模板”字段内容替换为:

You are a helpful programming assistant based on DeepSeek-Coder. Respond only in English unless explicitly asked for another language.

3、将“用户/助手消息分隔符”设为

\n\n

,禁用“添加system角色到请求体”选项(因部分DeepSeek部署不支持system字段)。

四、测试多轮对话上下文保持能力

DeepSeek-R1具备较强长上下文理解能力,但WorkBuddy AI默认会截断超过4096 token的历史记录。需手动启用流式传输与增量缓存机制保障对话连贯性。

1、新建一个代码分析任务窗口,输入问题:“请分析以下Python函数是否存在内存泄漏风险”,随后粘贴一段含闭包与全局变量的代码。

2、发送后观察响应延迟与token计数器,若显示

streaming: true

且响应分块返回,则说明WebSocket连接已生效。

3、紧接着追加提问:“基于刚才的分析,给出修复建议并重写函数”,验证历史上下文是否被正确注入至新请求的messages数组中。

五、处理常见响应解析异常

当WorkBuddy AI收到DeepSeek服务返回的非标准JSON(如含ANSI颜色码、多余换行或字段名大小写不一致)时,前端会抛出parse error。此时需在反向代理层做标准化清洗。

1、在Nginx配置中添加location /v1/段落,启用proxy_pass转发至本地vLLM服务,并插入header过滤规则。

2、添加sub_filter指令移除响应体中的控制字符:

sub_filter '\x1b\[.*?m' '';

3、启用json_filter模块,强制将response body中所有key转为小写,确保WorkBuddy AI解析器可识别choices、message、content等字段。

相关文章

LLM介绍

。LLM 被证明在使用指令形式化描述的未见过的任务上表现良好。这意味着 LLM 能够根据任务指令执行任务,而无需事先见过具体示例,展示了其强大的泛化能力。 :小型语言模型通常难以解决涉...

神经网络中的单层神经网络

神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。 看一个经典的神经网络。这是一个包...

一文讲清神经网络、BP神经网络、深度学习的关系

人工神经网络中的顶级代表。往往说《神经网络》就是指《BP神经网络》。 大家研究着各种神经网络,研究得不亦乐乎, 来了两个家伙Romelhart 和Mcclelland,...

什么是人工智能 ?

您可以使用 ML 训练 AI,使其精确、快速地执行任务。这可以通过自动化员工感到吃力或厌烦的业务部分来提高运营效率。同样,您可以使用 AI 自动化来腾出员工资源,用于更复杂和更具创造性的工作。...

深入理解优化:如何利用 Gemini 3.1 的阶梯计费策略?企业级大规模调用实务完全指南|Duuu笔记

需深入理解Gemini 3.1阶梯计费与调用联动关系,通过识别阶梯区间、请求级Token预估截断、多模型路由调度、响应缓存去重、项目拆分配额绑定五种路径优化成本。 ☞☞☞AI 智能聊天, 问答助手,...

bp神经网络是什么网络,神经网络和bp神经网络

1、前馈神经网络:一种最简单的神经网络,各神经元分层排列。每个神经元只与前一层的神经元相连。接收前一层的输出,并输出给下一层.各层间没有反馈。 2、BP神经网络:是一种按照误差逆向传播...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。