差别

这里会显示出您选择的修订版和当前版本之间的差别。

到此差别页面的链接

两侧同时换到之前的修订记录 前一修订版
后一修订版
前一修订版
vpet:mod:chatvpetprocess [2026/04/27 17:03] 有米vpet:mod:chatvpetprocess [2026/05/10 16:34] (当前版本) 有米
行 38: 行 38:
 | **API URL** | 聊天接口地址,建议以 `/v1` 结尾 | | **API URL** | 聊天接口地址,建议以 `/v1` 结尾 |
 | **API Key** | 用于鉴权的密钥 | | **API Key** | 用于鉴权的密钥 |
-| **Web 代理** | 可选。HTTP/SOCKS 代理地址国内访问 OpenAI 等限制模型商时使用. 无需可不填 |+| **Web 代理** | 可选。填入 HTTP/SOCKS 代理地址。若在国内直接访问 OpenAI 等服务,请务必填写或使用 API 中转。 |
 | **Model** | 使用的语言模型名称,可下拉选择或手动输入 | | **Model** | 使用的语言模型名称,可下拉选择或手动输入 |
 | **初始化文本** | 系统提示词(System Prompt),不会被遗忘,字越多越贵 | | **初始化文本** | 系统提示词(System Prompt),不会被遗忘,字越多越贵 |
行 44: 行 44:
 | **单次最大花费** | 单次请求允许消耗的最大 Token 数(在"其他设置"中设置,参见第 5 节) | | **单次最大花费** | 单次请求允许消耗的最大 Token 数(在"其他设置"中设置,参见第 5 节) |
  
-> **提示**:初始化文本中`{Name}` 占位符会被替换为桌宠的实际名称,可在初始化文本中使用,例如:   +<wrap info>**提示**:初始化文本中`{Name}` 占位符会被替换为桌宠的实际名称,可在初始化文本中使用,例如:   
-> `你是一只桌宠,你的名字叫{Name}`+ 你是一只桌宠,你的名字叫`{Name}`。</wrap>
  
 **注意: 模型需要支持 ToolCall (工具调用) 功能** **注意: 模型需要支持 ToolCall (工具调用) 功能**
行 60: 行 60:
 1. 前往 [OpenAI 平台](https://platform.openai.com/) 注册账号并充值。 1. 前往 [OpenAI 平台](https://platform.openai.com/) 注册账号并充值。
 2. 进入 **API Keys** 页面,点击 **Create new secret key** 生成密钥(以 `sk-` 开头)。 2. 进入 **API Keys** 页面,点击 **Create new secret key** 生成密钥(以 `sk-` 开头)。
-3. 在设置窗口中填写: +3. 在设置窗口中填写:\\ 
-   - **API URL**:`https://api.openai.com/v1/+   - **API URL**:`https://api.openai.com/v1/`\\ 
-   - **API Key**:粘贴你的 `sk-xxxxxxxx` 密钥+   - **API Key**:粘贴你的 `sk-xxxxxxxx` 密钥\\
    - **Model**:推荐 `gpt-4o-mini`(性价比高)或 `gpt-4o`    - **Model**:推荐 `gpt-4o-mini`(性价比高)或 `gpt-4o`
  
-> 若在中国大陆访问,需在 **Web 代理** 中填写代理地址,或使用中转+<wrap info>若在中国大陆访问,需在 **Web 代理** 中填写代理地址,或使用中转</wrap>
  
 **常用模型参考** **常用模型参考**
行 82: 行 82:
 1. 前往 [DeepSeek 开放平台](https://platform.deepseek.com/) 注册账号并充值。 1. 前往 [DeepSeek 开放平台](https://platform.deepseek.com/) 注册账号并充值。
 2. 进入 **API Keys** 页面,创建并复制你的 API Key(以 `sk-` 开头)。 2. 进入 **API Keys** 页面,创建并复制你的 API Key(以 `sk-` 开头)。
-3. 在设置窗口中填写: +3. 在设置窗口中填写:\\ 
-   - **API URL**:`https://api.deepseek.com/v1` +   - **API URL**:`https://api.deepseek.com/v1`\\ 
-   - **API Key**:粘贴你的 DeepSeek API Key+   - **API Key**:粘贴你的 DeepSeek API Key\\
    - **Model**:`deepseek-chat`(通用对话)或 `deepseek-reasoner`(推理增强)    - **Model**:`deepseek-chat`(通用对话)或 `deepseek-reasoner`(推理增强)
  
行 96: 行 96:
  
 --- ---
- 
 ### 2.3 使用本地部署模型 ### 2.3 使用本地部署模型
  
行 115: 行 114:
    打开 LM Studio,进入 **Model Search** 标签页,搜索并下载一个支持 Tool Call 的模型。**建议选择 8B 或以上参数量的模型**(例如 `qwen3.5-35b-a3b`、`gemma-4-26b-a4b`、`glm-4.7-flash`)。更小的模型容易出现格式错误。    打开 LM Studio,进入 **Model Search** 标签页,搜索并下载一个支持 Tool Call 的模型。**建议选择 8B 或以上参数量的模型**(例如 `qwen3.5-35b-a3b`、`gemma-4-26b-a4b`、`glm-4.7-flash`)。更小的模型容易出现格式错误。
  
-3. **启动本地服务器**   +3. **启动本地服务器**  \\ 
-   - 在左侧边栏点击 **Developer** 标签页。 +   - 在左侧边栏点击 **Developer** 标签页。\\ 
-   - 选择 **Load Model** ,选择已下载的模型,点击 **Start Server** 启动服务。+   - 选择 **Load Model** ,选择已下载的模型,点击 **Start Server** 启动服务。\\
    - 默认 API 地址为 `http://localhost:1234/v1`。    - 默认 API 地址为 `http://localhost:1234/v1`。
  
 4. **在 ChatVPet 中填写配置**   4. **在 ChatVPet 中填写配置**  
-   参考以下信息填写设置窗口: +参考以下信息填写设置窗口:\\ 
-   - **API URL**:`http://localhost:1234/v1` +- **API URL**:`http://localhost:1234/v1`\\ 
-   - **API Key**:任意非空字符串即可(如 `local`),LM Studio 本地服务不对 Key 做校验 +- **API Key**:任意非空字符串即可(如 `local`),LM Studio 本地服务不对 Key 做校验\\ 
-   - **Model**:填写 LM Studio 中实际加载的模型名称(可在 Server 界面查看,如 `glm-4.7-flash`) +- **Model**:填写 LM Studio 中实际加载的模型名称(可在 Server 界面查看,如 `glm-4.7-flash`)\\ 
-   - 其余字段(如温度、代理等)根据实际需求填写+- 其余字段(如温度、代理等)根据实际需求填写
  
-⚠️ **注意**:LM Studio 的 `/v1/chat/completions` 端点完全兼容 OpenAI API 格式,原生支持 **Tool Call(函数调用)** 功能。只要模型本身具备 Tool Call 能力,ChatVPet 即可正常调用。+<wrap info> **注意**:LM Studio 的 `/v1/chat/completions` 端点完全兼容 OpenAI API 格式,原生支持 **Tool Call(函数调用)** 功能。只要模型本身具备 Tool Call 能力,ChatVPet 即可正常调用。</wrap>
  
 --- ---
行 146: 行 145:
    使用内置的 `llama-server` 启动 OpenAI 兼容的 API 服务:    使用内置的 `llama-server` 启动 OpenAI 兼容的 API 服务:
        
-   ```bash +   `./llama-server -m /path/to/model.gguf --host 0.0.0.0 --port 8080 -c 4096 --jinja` 
-   ./llama-server -m /path/to/model.gguf +    
-                  --host 0.0.0.0 +   - `-m`:模型文件路径\\ 
-                  --port 8080 +   - `--host` / `--port`:监听地址和端口\\ 
-                  -c 4096 +   - `-c`:上下文长度(需与模型匹配)\\
-                  --jinja +
-   ``` +
-   - `-m`:模型文件路径 +
-   - `--host` / `--port`:监听地址和端口 +
-   - `-c`:上下文长度(需与模型匹配)+
    - `--jinja`:**启用 Jinja 模板解析,这是 Tool Call 正常工作的关键参数**    - `--jinja`:**启用 Jinja 模板解析,这是 Tool Call 正常工作的关键参数**
        
-4. **在 ChatVPet 中填写配置**   +4. **在 ChatVPet 中填写配置**\\  
-    +    - **API URL**:`http://localhost:8080/v1`\\ 
-   - **API URL**:`http://localhost:8080/v1` +   - **API Key**:任意非空字符串\\ 
-   - **API Key**:任意非空字符串 +   - **Model**:填写模型名称(可先访问 `http://localhost:8080/v1/models` 查看)\\
-   - **Model**:填写模型名称(可先访问 `http://localhost:8080/v1/models` 查看)+
  
-💡 **提示**:llama.cpp 的 API 服务完全兼容 OpenAI 格式,原生支持 Tool Call。若需要 GPU 加速,请根据您的硬件在编译时启用相应的后端(NVIDIA 使用 CUDA,Apple Silicon 使用 Metal)。+<wrap tip **提示**:llama.cpp 的 API 服务完全兼容 OpenAI 格式,原生支持 Tool Call。若需要 GPU 加速,请根据您的硬件在编译时启用相应的后端(NVIDIA 使用 CUDA,Apple Silicon 使用 Metal)。</wrap>
  
 --- ---
行 195: 行 188:
 | **Embedding Model** | 使用的 Embedding 模型,默认 `text-embedding-3-small` | | **Embedding Model** | 使用的 Embedding 模型,默认 `text-embedding-3-small` |
  
-> **注意**:更换 Embedding 模型或 API 后,请前往 **数据库预览** 标签页点击 **清除向量缓存**,以确保旧缓存失效,重新生成向量。+<wrap info> **注意**:更换 Embedding 模型或 API 后,请前往 **数据库预览** 标签页点击 **清除向量缓存**,以确保旧缓存失效,重新生成向量。</wrap> 
  
 --- ---
行 205: 行 199:
 如需单独指定: 如需单独指定:
  
-- **Embedding URL**:`https://api.openai.com/v1` +- **Embedding URL**:`https://api.openai.com/v1`  \\ 
-- **Embedding Key**:与主 API Key 相同+- **Embedding Key**:与主 API Key 相同\\
 - **Embedding Model**:`text-embedding-3-small`或 `text-embedding-3-large` - **Embedding Model**:`text-embedding-3-small`或 `text-embedding-3-large`
  
行 220: 行 214:
  
 >  注: 服务器不收集用户信息, 但是为了节约性能开销, 会缓存 文本->向量 以避免重复计算 >  注: 服务器不收集用户信息, 但是为了节约性能开销, 会缓存 文本->向量 以避免重复计算
 +
  
 --- ---
行 272: 行 267:
  
 --- ---
- 
 ## 6. 知识库设置 ## 6. 知识库设置
  
行 284: 行 278:
  
 **规则**: **规则**:
 +
 - 每行一条知识 - 每行一条知识
 - 知识不会直接全部塞入提示词,而是由 Embedding 算法按相关度动态召回。 - 知识不会直接全部塞入提示词,而是由 Embedding 算法按相关度动态召回。
  • vpet/mod/chatvpetprocess.1777280620.txt.gz
  • 最后更改: 14天前
  • 有米