zhangjinyang
2025-05-13 c4dca000c1752342b19553e01fdfa8df011bba60
docs: 添加大模型文档,工作流大模型节点文档。
1个文件已修改
5个文件已添加
133 ■■■■■ 已修改文件
docs/.vitepress/config.mts 8 ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/zh/product/llm/llmList.md 22 ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/zh/product/llm/resource/llmConfig.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/zh/product/workflow/nodes/llm.md 103 ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史
docs/zh/product/workflow/resource/llmList.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/zh/product/workflow/resource/llmNode.png 补丁 | 查看 | 原始文档 | blame | 历史
docs/.vitepress/config.mts
@@ -199,6 +199,7 @@
                {text: '什么是工作流', link: '/workflow/what_is_workflow'},
                {text: '快速开始', link: '/workflow/quick_start'},
                {text: '节点配置', collapsed: false, items: [
                        {text: '大模型', link: '/workflow/nodes/llm'},
                        {text: '搜索引擎', link: '/workflow/nodes/search-engine'},
                        {text: '内容模板', link: '/workflow/nodes/template-node'},
                        {text: '文件内容提取', link: '/workflow/nodes/doc-content'},
@@ -207,6 +208,13 @@
            ]
        },
        {
            text: '大模型',
            collapsed: false,
            items: [
                {text: '大模型管理', link: '/llm/llmList'},
            ]
        },
        {
            text: '模型管理',
            collapsed: false,
            items: [
docs/zh/product/llm/llmList.md
New file
@@ -0,0 +1,22 @@
# 大模型列表
## 添加大模型
我们添加一个模型作为示例。
比如,我们要添加一个`火山引擎`的 deepseek v3 模型,那么参数如下:
![llmConfig.png](resource/llmConfig.png)
因为品牌里并没有火山引擎,所以我们使用了兼容 `openai` 的接口。
但是因为各家厂商的 `chatPath` 不一样,所以需要配置一下。
如果品牌列表支持的厂商,那么只需配置该厂商所需的参数即可。
比如星火大模型,除了 `apiKey`,还需要配置  `appId` 和 `apiSecret`,那么这些额外的参数也是要以 `property` 的形式来配置:
```
appId=xxx
apiSecret=xxx
```
> 需要注意的是,只有 `openai` 方式才支持配置chatPath,其他厂商 `path` 都是固定的。
docs/zh/product/llm/resource/llmConfig.png
docs/zh/product/workflow/nodes/llm.md
New file
@@ -0,0 +1,103 @@
# 大模型
![llmNode.png](../resource/llmNode.png)
## 模型列表
模型列表的数据来自大模型管理页面,具体请参考[大模型管理](../../../product/llm/llmList.md)
![llmList.png](../resource/llmList.png)
## 采样参数
### Temperature
> 作用:调整模型对概率分布中低概率词的敏感度,控制生成的随机性。
- 低温度(如 0.1~0.5):
模型更倾向于选择概率最高的词,输出更确定、保守,适合需要严谨性的任务(如问答、代码生成)。
概率分布会变得更“尖锐”,高概率词被进一步放大。
- 高温度(如 0.7~1.2):
模型会更多考虑低概率词,输出更随机、有创意,适合开放生成(如诗歌、故事)。
概率分布更“平滑”,低概率词有机会被选中。
### Top P
> 作用:动态地从累积概率超过 P 的最小词集合中采样,避免固定 K 的缺陷。
- P 值小(如 0.3~0.7):词集合窄,生成更保守。
- P 值大(如 0.8~0.95):词集合宽,生成更多样。
- 优势:自适应上下文。
    - 若概率分布集中(如某词概率 0.9),可能仅选 1 个词。
    - 若概率分布平坦(如 10 个词各 0.05),可能选更多词。
### Top K
> 作用:限制模型每一步只从概率最高的 K 个词中采样,排除低概率词。
- K 值小(如 10~50):生成更保守,避免生僻词,但可能重复。
- K 值大(如 100~500):多样性更高,但可能包含不合理词。
### 三者的关系与典型用法
**通常联合使用:**
  - 先通过 Top-K 或 Top-P 缩小候选词范围,再用 Temperature 调整概率分布。
  - 例如:Top-P=0.9, Temperature=0.7 是常见组合。
**区别:**
  - Temperature 直接调整概率分布形状。
  - Top-K/Top-P 是采样策略,限制候选词范围。
**推荐配置:**
  - 确定性任务:低 Temperature + 低 Top-P(如 T=0.3,P=0.5)。
  - 创造性任务:高 Temperature + 高 Top-P(如 T=1.0,P=0.9)。
## 系统提示词
> 作用:定义模型的身份、行为准则和回复风格,是对话的“幕后指令”。
> 在节点中可使用 <span v-pre>{{propertyName}}</span> 语法引用变量数据。
**特点:**
- 隐藏性:用户通常看不到(如API中的system角色或后台配置)。
- 全局性:影响整个对话的基调,而非单次回复。
- 功能性:用于约束模型输出(如安全性、专业性、语气等)。
**常见用途:**
- 设定角色:
```
"你是一位严谨的医学专家,用专业术语回答健康问题,避免非科学建议。"
```
- 安全限制:
```
"拒绝回答涉及暴力、隐私或违法内容。"
```
- 输出格式:
```
"所有回答用Markdown格式,包含标题和列表。"
```
## 用户提示词
> 作用:提供具体的输入问题或指令,是模型生成回复的直接依据。
> 在节点中可使用 <span v-pre>{{propertyName}}</span> 语法引用变量数据。
**特点:**
- 可见性:用户主动输入的内容(如聊天框中的提问)。
- 局部性:仅影响当前轮次的回复。
- 灵活性:可随时改变话题或风格。
**常见类型:**
- 直接提问:
```
"Java如何实现快速排序?"
 ```
- 复杂指令:
```
"用莎士比亚的风格写一首关于咖啡的诗。"
```
docs/zh/product/workflow/resource/llmList.png
docs/zh/product/workflow/resource/llmNode.png