Ollama(通常写作 Ollama)是一个开源项目,专注于在本地计算机上运行、部署和管理大型语言模型(LLMs)。它旨在简化本地大模型的下载、配置和交互过程,特别适合开发者、研究人员和AI爱好者进行本地实验和开发。
1、安装 Ollama
官网(https://ollama.com)提供一键安装包,支持多平台。
2、下载模型
ollama pull qwen2.5:1.5b # 下载 Meta 的 LLaMA 2 模型
3、运行模型
ollama run qwen2.5:1.5b # 启动交互式对话
4、适用场景
本地开发与测试:快速验证模型效果,无需申请API或支付云服务费用。
隐私敏感场景:数据完全本地处理,避免上传到第三方。
教育/研究:学习大模型的工作原理,进行二次开发。
1、配置 ollama, 参考如下图, aiflowy.ollama.host 配置您的 ollama 的地址
aiflowy:
ollama:
host: http://127.0.0.1:11434

2、在 AiOllamaServiceImpl 类中注入 ollama 的地址

3、打开大模型商店,这里下载的模型都是基于您在 application.yml 文件中配置的 ollama 地址下载模型的
