差别
这里会显示出您选择的修订版和当前版本之间的差别。
| 两侧同时换到之前的修订记录 前一修订版 后一修订版 | 前一修订版 | ||
| vpet:mod:chatvpetprocess [2026/04/27 16:48] – 有米 | vpet:mod:chatvpetprocess [2026/05/10 16:34] (当前版本) – 有米 | ||
|---|---|---|---|
| 行 10: | 行 10: | ||
| 2. [基本设置 — API 配置](# | 2. [基本设置 — API 配置](# | ||
| - [使用 OpenAI API](#2-1 使用 OpenAI API) | - [使用 OpenAI API](#2-1 使用 OpenAI API) | ||
| - | - [使用 DeepSeek API](#22-使用-deepseek-api) | + | - [使用 DeepSeek API](# |
| - | 3. [基本设置 — Embedding 配置](#3-基本设置--embedding-配置) | + | 3. [基本设置 — Embedding 配置](# |
| - | - [什么是 Embedding](# | + | - [什么是 Embedding](# |
| - | - [使用 OpenAI Embedding](# | + | - [使用 OpenAI Embedding](# |
| - | - [使用 | + | - [使用 |
| - | 4. [基本设置 — 其他参数](# | + | 4. [基本设置 — 其他参数](# |
| - | 5. [其他设置 — 语音输入与高级参数](# | + | 5. [其他设置 — 语音输入与高级参数](# |
| 6. [知识库设置](# | 6. [知识库设置](# | ||
| 7. [数据库预览](# | 7. [数据库预览](# | ||
| 行 36: | 行 36: | ||
| | 字段 | 说明 | | | 字段 | 说明 | | ||
| - | |------|------| | ||
| | **API URL** | 聊天接口地址,建议以 `/v1` 结尾 | | | **API URL** | 聊天接口地址,建议以 `/v1` 结尾 | | ||
| | **API Key** | 用于鉴权的密钥 | | | **API Key** | 用于鉴权的密钥 | | ||
| - | | **Web 代理** | 可选。HTTP/ | + | | **Web 代理** | 可选。填入 |
| | **Model** | 使用的语言模型名称,可下拉选择或手动输入 | | | **Model** | 使用的语言模型名称,可下拉选择或手动输入 | | ||
| | **初始化文本** | 系统提示词(System Prompt),不会被遗忘,字越多越贵 | | | **初始化文本** | 系统提示词(System Prompt),不会被遗忘,字越多越贵 | | ||
| 行 45: | 行 44: | ||
| | **单次最大花费** | 单次请求允许消耗的最大 Token 数(在" | | **单次最大花费** | 单次请求允许消耗的最大 Token 数(在" | ||
| - | > **提示**:初始化文本中`{Name}` 占位符会被替换为桌宠的实际名称,可在初始化文本中使用,例如: | + | <wrap info> |
| - | > `你是一只桌宠,你的名字叫{Name}。` | + | |
| **注意: 模型需要支持 ToolCall (工具调用) 功能** | **注意: 模型需要支持 ToolCall (工具调用) 功能** | ||
| 行 61: | 行 60: | ||
| 1. 前往 [OpenAI 平台](https:// | 1. 前往 [OpenAI 平台](https:// | ||
| 2. 进入 **API Keys** 页面,点击 **Create new secret key** 生成密钥(以 `sk-` 开头)。 | 2. 进入 **API Keys** 页面,点击 **Create new secret key** 生成密钥(以 `sk-` 开头)。 | ||
| - | 3. 在设置窗口中填写: | + | 3. 在设置窗口中填写:\\ |
| - | - **API URL**:`https:// | + | - **API URL**:`https:// |
| - | - **API Key**:粘贴你的 `sk-xxxxxxxx` 密钥 | + | - **API Key**:粘贴你的 `sk-xxxxxxxx` 密钥\\ |
| - **Model**:推荐 `gpt-4o-mini`(性价比高)或 `gpt-4o` | - **Model**:推荐 `gpt-4o-mini`(性价比高)或 `gpt-4o` | ||
| - | > 若在中国大陆访问,需在 **Web 代理** 中填写代理地址,或使用中转 | + | <wrap info> |
| **常用模型参考** | **常用模型参考** | ||
| | 模型 | 特点 | | | 模型 | 特点 | | ||
| - | |------|------| | ||
| | `gpt-5.4-nano` | 便宜 | | | `gpt-5.4-nano` | 便宜 | | ||
| | `gpt-5.4-mini` | 贵 | | | `gpt-5.4-mini` | 贵 | | ||
| 行 84: | 行 82: | ||
| 1. 前往 [DeepSeek 开放平台](https:// | 1. 前往 [DeepSeek 开放平台](https:// | ||
| 2. 进入 **API Keys** 页面,创建并复制你的 API Key(以 `sk-` 开头)。 | 2. 进入 **API Keys** 页面,创建并复制你的 API Key(以 `sk-` 开头)。 | ||
| - | 3. 在设置窗口中填写: | + | 3. 在设置窗口中填写:\\ |
| - | - **API URL**:`https:// | + | - **API URL**:`https:// |
| - | - **API Key**:粘贴你的 DeepSeek API Key | + | - **API Key**:粘贴你的 DeepSeek API Key\\ |
| - **Model**:`deepseek-chat`(通用对话)或 `deepseek-reasoner`(推理增强) | - **Model**:`deepseek-chat`(通用对话)或 `deepseek-reasoner`(推理增强) | ||
| 行 94: | 行 92: | ||
| | 模型 | 特点 | | | 模型 | 特点 | | ||
| - | |------|------| | ||
| | `deepseek-chat` | 通用对话,速度快,中文能力强 | | | `deepseek-chat` | 通用对话,速度快,中文能力强 | | ||
| | `deepseek-reasoner` | 链式推理,适合逻辑密集型任务 | | | `deepseek-reasoner` | 链式推理,适合逻辑密集型任务 | | ||
| --- | --- | ||
| - | |||
| ### 2.3 使用本地部署模型 | ### 2.3 使用本地部署模型 | ||
| 行 118: | 行 114: | ||
| | | ||
| - | 3. **启动本地服务器** | + | 3. **启动本地服务器** |
| - | - 在左侧边栏点击 **Developer** 标签页。 | + | - 在左侧边栏点击 **Developer** 标签页。\\ |
| - | - 选择 **Load Model** , | + | - 选择 **Load Model** , |
| - 默认 API 地址为 `http:// | - 默认 API 地址为 `http:// | ||
| 4. **在 ChatVPet 中填写配置** | 4. **在 ChatVPet 中填写配置** | ||
| - | 参考以下信息填写设置窗口: | + | 参考以下信息填写设置窗口:\\ |
| - | | + | - **API URL**:`http:// |
| - | | + | - **API Key**:任意非空字符串即可(如 `local`),LM Studio 本地服务不对 Key 做校验\\ |
| - | | + | - **Model**:填写 LM Studio 中实际加载的模型名称(可在 Server 界面查看,如 `glm-4.7-flash`)\\ |
| - | | + | - 其余字段(如温度、代理等)根据实际需求填写 |
| - | > ⚠️ | + | <wrap info> **注意**:LM Studio 的 `/ |
| --- | --- | ||
| 行 149: | 行 145: | ||
| | | ||
| - | ```bash | + | |
| - | ./ | + | |
| - | | + | - `-m`:模型文件路径\\ |
| - | | + | - `--host` / `--port`:监听地址和端口\\ |
| - | | + | - `-c`:上下文长度(需与模型匹配)\\ |
| - | | + | |
| - | ``` | + | |
| - | - `-m`:模型文件路径 | + | |
| - | - `--host` / `--port`:监听地址和端口 | + | |
| - | - `-c`:上下文长度(需与模型匹配) | + | |
| - `--jinja`:**启用 Jinja 模板解析,这是 Tool Call 正常工作的关键参数** | - `--jinja`:**启用 Jinja 模板解析,这是 Tool Call 正常工作的关键参数** | ||
| - | 4. **在 ChatVPet 中填写配置** | + | 4. **在 ChatVPet 中填写配置**\\ |
| - | + | - **API URL**:`http:// | |
| - | - **API URL**:`http:// | + | - **API Key**:任意非空字符串\\ |
| - | - **API Key**:任意非空字符串 | + | - **Model**:填写模型名称(可先访问 `http:// |
| - | - **Model**:填写模型名称(可先访问 `http:// | + | |
| - | > 💡 **提示**:llama.cpp 的 API 服务完全兼容 OpenAI 格式,原生支持 Tool Call。若需要 GPU 加速,请根据您的硬件在编译时启用相应的后端(NVIDIA 使用 CUDA,Apple Silicon 使用 Metal)。 | + | <wrap tip> **提示**:llama.cpp 的 API 服务完全兼容 OpenAI 格式,原生支持 Tool Call。若需要 GPU 加速,请根据您的硬件在编译时启用相应的后端(NVIDIA 使用 CUDA,Apple Silicon 使用 Metal)。</ |
| --- | --- | ||
| 行 194: | 行 184: | ||
| | 字段 | 说明 | | | 字段 | 说明 | | ||
| - | |------|------| | ||
| | **Embedding URL** | Embedding 接口地址,留空则使用主 API URL | | | **Embedding URL** | Embedding 接口地址,留空则使用主 API URL | | ||
| | **Embedding Key** | Embedding 接口密钥,留空则自动使用主 API Key | | | **Embedding Key** | Embedding 接口密钥,留空则自动使用主 API Key | | ||
| | **Embedding Model** | 使用的 Embedding 模型,默认 `text-embedding-3-small` | | | **Embedding Model** | 使用的 Embedding 模型,默认 `text-embedding-3-small` | | ||
| - | > **注意**:更换 Embedding 模型或 API 后,请前往 **数据库预览** 标签页点击 **清除向量缓存**,以确保旧缓存失效,重新生成向量。 | + | <wrap info> **注意**:更换 Embedding 模型或 API 后,请前往 **数据库预览** 标签页点击 **清除向量缓存**,以确保旧缓存失效,重新生成向量。</ |
| --- | --- | ||
| 行 209: | 行 199: | ||
| 如需单独指定: | 如需单独指定: | ||
| - | - **Embedding URL**:`https:// | + | - **Embedding URL**:`https:// |
| - | - **Embedding Key**:与主 API Key 相同 | + | - **Embedding Key**:与主 API Key 相同\\ |
| - **Embedding Model**:`text-embedding-3-small`或 `text-embedding-3-large` | - **Embedding Model**:`text-embedding-3-small`或 `text-embedding-3-large` | ||
| 行 224: | 行 214: | ||
| > 注: 服务器不收集用户信息, | > 注: 服务器不收集用户信息, | ||
| + | |||
| --- | --- | ||
| 行 236: | 行 227: | ||
| | 字段 | 说明 | | | 字段 | 说明 | | ||
| - | |------|------| | ||
| | **累计花费** | 显示迄今为止消耗的 Token 总数,只读 | | | **累计花费** | 显示迄今为止消耗的 Token 总数,只读 | | ||
| | **Token 显示** | 是否在聊天记录中显示每次消耗的 Token 数量 | | | **Token 显示** | 是否在聊天记录中显示每次消耗的 Token 数量 | | ||
| 行 252: | 行 242: | ||
| | 字段 | 说明 | | | 字段 | 说明 | | ||
| - | |------|------| | ||
| | **启用语音输入** | 开关,启用后聊天界面会显示麦克风按钮 | | | **启用语音输入** | 开关,启用后聊天界面会显示麦克风按钮 | | ||
| | **语音密钥** | Azure Speech 资源的订阅密钥 | | | **语音密钥** | Azure Speech 资源的订阅密钥 | | ||
| 行 261: | 行 250: | ||
| | 字段 | 默认值 | 说明 | | | 字段 | 默认值 | 说明 | | ||
| - | |------|--------|------| | ||
| | **最大聊天记录** | 20 | 单次对话注入上下文的最大历史条数 | | | **最大聊天记录** | 20 | 单次对话注入上下文的最大历史条数 | | ||
| | **最大工具库** | 10 | 每次对话最多召回的工具条数,越多越消耗 Token | | | **最大工具库** | 10 | 每次对话最多召回的工具条数,越多越消耗 Token | | ||
| 行 273: | 行 261: | ||
| | 字段 | 默认值 | 说明 | | | 字段 | 默认值 | 说明 | | ||
| - | |------|--------|------| | ||
| | **压缩触发条数** | 24 | 聊天记录超过此数时自动触发压缩,设为 0 禁用 | | | **压缩触发条数** | 24 | 聊天记录超过此数时自动触发压缩,设为 0 禁用 | | ||
| | **压缩保留最近数** | 10 | 压缩时保留最近几条对话不参与摘要 | | | **压缩保留最近数** | 10 | 压缩时保留最近几条对话不参与摘要 | | ||
| 行 280: | 行 267: | ||
| --- | --- | ||
| - | |||
| ## 6. 知识库设置 | ## 6. 知识库设置 | ||
| 行 292: | 行 278: | ||
| **规则**: | **规则**: | ||
| + | |||
| - 每行一条知识 | - 每行一条知识 | ||
| - 知识不会直接全部塞入提示词,而是由 Embedding 算法按相关度动态召回。 | - 知识不会直接全部塞入提示词,而是由 Embedding 算法按相关度动态召回。 | ||