| docs/zh/development/ai/ollama.md | ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/development/ai/plugin.md | ●●●●● 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/development/ai/resource/add_knowledge.png | 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/development/ai/resource/img.png | 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/development/ai/resource/ollama_config.png | 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/development/ai/resource/ollama_install.png | 补丁 | 查看 | 原始文档 | blame | 历史 | |
| docs/zh/development/ai/resource/ollama_service.png | 补丁 | 查看 | 原始文档 | blame | 历史 |
docs/zh/development/ai/ollama.md
@@ -1 +1,50 @@ # ollama # ollama ## 一、什么是ollama Ollama(通常写作 Ollama)是一个开源项目,专注于在本地计算机上运行、部署和管理大型语言模型(LLMs)。它旨在简化本地大模型的下载、配置和交互过程,特别适合开发者、研究人员和AI爱好者进行本地实验和开发。 ## 二、下载安装及基本使用示例 1、安装 Ollama 官网(https://ollama.com)提供一键安装包,支持多平台。 2、下载模型 ```cmd ollama pull qwen2.5:1.5b # 下载 Meta 的 LLaMA 2 模型 ``` 3、运行模型 ```cmd ollama run qwen2.5:1.5b # 启动交互式对话 ``` 4、适用场景 本地开发与测试:快速验证模型效果,无需申请API或支付云服务费用。 隐私敏感场景:数据完全本地处理,避免上传到第三方。 教育/研究:学习大模型的工作原理,进行二次开发。 ## 三、AIFlowy 中 ollama 的使用 1、配置 ollama, 参考如下图, aiflowy.ollama.host 配置您的 ollama 的地址 ```yml aiflowy: ollama: host: http://127.0.0.1:11434 ```  2、在 **AiOllamaServiceImpl** 类中注入 ollama 的地址  3、打开大模型商店,这里下载的模型都是基于您在 application.yml 文件中配置的 ollama 地址下载模型的  docs/zh/development/ai/plugin.md
@@ -1 +1,7 @@ # 插件 # 插件 ## 什么是插件? 在聊天机器人 **Bot** 中,插件(Plugin) 是一种扩展功能模块,允许Bot通过集成第三方工具或服务来增强其能力。插件本质上是为Bot添加新技能的“附加组件”,使其能够完成原本无法独立完成的任务(如实时信息查询、数据库操作、调用外部API等)。 ## Bot 怎么调用插件的? docs/zh/development/ai/resource/add_knowledge.pngdocs/zh/development/ai/resource/img.pngdocs/zh/development/ai/resource/ollama_config.png
docs/zh/development/ai/resource/ollama_install.png
docs/zh/development/ai/resource/ollama_service.png