| docs/.vitepress/config.mts | ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/product/llm/llmList.md | ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/product/llm/resource/llmConfig.png | 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/product/workflow/nodes/llm.md | ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/product/workflow/resource/llmList.png | 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/product/workflow/resource/llmNode.png | 补丁 | 查看 | 原始文档 | blame | 历史 |
docs/.vitepress/config.mts
@@ -199,6 +199,7 @@ {text: '什么是工作流', link: '/workflow/what_is_workflow'}, {text: '快速开始', link: '/workflow/quick_start'}, {text: '节点配置', collapsed: false, items: [ {text: '大模型', link: '/workflow/nodes/llm'}, {text: '搜索引擎', link: '/workflow/nodes/search-engine'}, {text: '内容模板', link: '/workflow/nodes/template-node'}, {text: '文件内容提取', link: '/workflow/nodes/doc-content'}, @@ -207,6 +208,13 @@ ] }, { text: '大模型', collapsed: false, items: [ {text: '大模型管理', link: '/llm/llmList'}, ] }, { text: '模型管理', collapsed: false, items: [ docs/zh/product/llm/llmList.md
New file @@ -0,0 +1,22 @@ # 大模型列表 ## 添加大模型 我们添加一个模型作为示例。 比如,我们要添加一个`火山引擎`的 deepseek v3 模型,那么参数如下:  因为品牌里并没有火山引擎,所以我们使用了兼容 `openai` 的接口。 但是因为各家厂商的 `chatPath` 不一样,所以需要配置一下。 如果品牌列表支持的厂商,那么只需配置该厂商所需的参数即可。 比如星火大模型,除了 `apiKey`,还需要配置 `appId` 和 `apiSecret`,那么这些额外的参数也是要以 `property` 的形式来配置: ``` appId=xxx apiSecret=xxx ``` > 需要注意的是,只有 `openai` 方式才支持配置chatPath,其他厂商 `path` 都是固定的。 docs/zh/product/llm/resource/llmConfig.png
docs/zh/product/workflow/nodes/llm.md
New file @@ -0,0 +1,103 @@ # 大模型  ## 模型列表 模型列表的数据来自大模型管理页面,具体请参考[大模型管理](../../../product/llm/llmList.md)  ## 采样参数 ### Temperature > 作用:调整模型对概率分布中低概率词的敏感度,控制生成的随机性。 - 低温度(如 0.1~0.5): 模型更倾向于选择概率最高的词,输出更确定、保守,适合需要严谨性的任务(如问答、代码生成)。 概率分布会变得更“尖锐”,高概率词被进一步放大。 - 高温度(如 0.7~1.2): 模型会更多考虑低概率词,输出更随机、有创意,适合开放生成(如诗歌、故事)。 概率分布更“平滑”,低概率词有机会被选中。 ### Top P > 作用:动态地从累积概率超过 P 的最小词集合中采样,避免固定 K 的缺陷。 - P 值小(如 0.3~0.7):词集合窄,生成更保守。 - P 值大(如 0.8~0.95):词集合宽,生成更多样。 - 优势:自适应上下文。 - 若概率分布集中(如某词概率 0.9),可能仅选 1 个词。 - 若概率分布平坦(如 10 个词各 0.05),可能选更多词。 ### Top K > 作用:限制模型每一步只从概率最高的 K 个词中采样,排除低概率词。 - K 值小(如 10~50):生成更保守,避免生僻词,但可能重复。 - K 值大(如 100~500):多样性更高,但可能包含不合理词。 ### 三者的关系与典型用法 **通常联合使用:** - 先通过 Top-K 或 Top-P 缩小候选词范围,再用 Temperature 调整概率分布。 - 例如:Top-P=0.9, Temperature=0.7 是常见组合。 **区别:** - Temperature 直接调整概率分布形状。 - Top-K/Top-P 是采样策略,限制候选词范围。 **推荐配置:** - 确定性任务:低 Temperature + 低 Top-P(如 T=0.3,P=0.5)。 - 创造性任务:高 Temperature + 高 Top-P(如 T=1.0,P=0.9)。 ## 系统提示词 > 作用:定义模型的身份、行为准则和回复风格,是对话的“幕后指令”。 > 在节点中可使用 <span v-pre>{{propertyName}}</span> 语法引用变量数据。 **特点:** - 隐藏性:用户通常看不到(如API中的system角色或后台配置)。 - 全局性:影响整个对话的基调,而非单次回复。 - 功能性:用于约束模型输出(如安全性、专业性、语气等)。 **常见用途:** - 设定角色: ``` "你是一位严谨的医学专家,用专业术语回答健康问题,避免非科学建议。" ``` - 安全限制: ``` "拒绝回答涉及暴力、隐私或违法内容。" ``` - 输出格式: ``` "所有回答用Markdown格式,包含标题和列表。" ``` ## 用户提示词 > 作用:提供具体的输入问题或指令,是模型生成回复的直接依据。 > 在节点中可使用 <span v-pre>{{propertyName}}</span> 语法引用变量数据。 **特点:** - 可见性:用户主动输入的内容(如聊天框中的提问)。 - 局部性:仅影响当前轮次的回复。 - 灵活性:可随时改变话题或风格。 **常见类型:** - 直接提问: ``` "Java如何实现快速排序?" ``` - 复杂指令: ``` "用莎士比亚的风格写一首关于咖啡的诗。" ``` docs/zh/product/workflow/resource/llmList.png
docs/zh/product/workflow/resource/llmNode.png