找回密码
 立即注册
查看: 511|回复: 0

[其它] 本地部署 ollama + open-webui

[复制链接]

224

主题

0

回帖

773

积分

高级会员

积分
773
发表于 2024-7-2 12:32:12 | 显示全部楼层 |阅读模式
本帖最后由 御坂主机 于 2024-7-3 18:26 编辑

1. 概述

在现代应用开发中,本地部署 AI 模型和界面已成为常见需求。本文将详细介绍如何在本地部署 Ollama 和 Open-WebUI,以实现高效的模型推理和用户交互。通过本文的指导,您将能够快速搭建一个本地 AI 推理平台,满足开发和测试需求。

1.1 背景介绍

Ollama 是一个高效的深度学习推理引擎,支持多种模型格式和推理任务。Open-WebUI 是一个开源的前端框架,提供了灵活的界面和交互功能,适合与 Ollama 集成使用。通过将这两者结合,可以实现本地化的 AI 应用开发和测试环境。

2. 环境准备

在开始部署之前,需要确保您的系统满足以下要求:
- 操作系统:windows、macOS 或 linux
- Python 版本:3.6 及以上
- Node.js 版本:14 及以上
- Ollama 和 Open-WebUI 的安装包

3. 安装 Ollama

首先,我们需要安装 Ollama 推理引擎。

3.1 下载 Ollama 安装包

从 Ollama 官方网站或 GitHub 仓库下载适用于您操作系统的安装包。

3.2 安装 Ollama

(1) 在下载目录中打开终端或命令提示符。

(2) 执行以下命令安装 Ollama:

  1.     python -m pip install ollama
复制代码


3.3 验证安装

安装完成后,可以通过以下命令验证 Ollama 是否安装成功:

  1.     ollama --version
复制代码

4. 安装 Open-WebUI

接下来,我们需要安装 Open-WebUI。

4.1 下载 Open-WebUI 源码

从 Open-WebUI 的 GitHub 仓库克隆源码到本地:

  1.     git clone https://github.com/open-webui/open-webui.git
复制代码


4.2 安装依赖

进入 Open-WebUI 项目目录并安装依赖:

  1.     cd open-webui
  2.     npm install
复制代码


4.3 启动开发服务器

安装完成后,可以通过以下命令启动开发服务器:

  1.     npm start
复制代码


默认情况下,Open-WebUI 将在本地的 http://localhost:3000 运行。

5. 集成 Ollama 和 Open-WebUI

为了使 Ollama 和 Open-WebUI 协同工作,我们需要进行一些配置。

5.1 创建后端服务

在 Open-WebUI 项目目录中创建一个新的文件 `server.py`,用于启动 Ollama 推理服务:

  1.     from flask import Flask, request, jsonify
  2.     import ollama

  3.     app = Flask(__name__)

  4.     @app.route('/predict', methods=['POST'])
  5.     def predict():
  6.         data = request.get_json()
  7.         model_path = data['model_path']
  8.         input_data = data['input']
  9.         result = ollama.predict(model_path, input_data)
  10.         return jsonify(result)

  11.     if __name__ == '__main__':
  12.         app.run(port=5000)
复制代码


5.2 启动后端服务

在终端中运行以下命令启动后端服务:

  1.     python server.py
复制代码


5.3 修改前端代码

在 Open-WebUI 的前端代码中,修改请求接口为我们刚刚创建的后端服务接口。打开 `src/App.js`,找到请求部分的代码,并修改为:

  1.     fetch('http://localhost:5000/predict', {
  2.         method: 'POST',
  3.         headers: {
  4.             'Content-Type': 'application/json'
  5.         },
  6.         body: JSON.stringify({ model_path: 'path/to/your/model', input: inputData })
  7.     })
  8.     .then(response => response.json())
  9.     .then(data => {
  10.         // 处理响应数据
  11.     });
复制代码


6. 测试部署

现在,我们已经完成了 Ollama 和 Open-WebUI 的本地部署和集成。可以通过访问 http://localhost:3000 测试整个系统是否正常工作。在界面中输入数据,点击提交按钮,查看结果是否正确返回。

7. 总结

本文详细介绍了如何在本地部署 Ollama 和 Open-WebUI,并进行了简单的集成配置。通过这种方式,可以实现高效的模型推理和用户交互,适用于开发和测试环境。希望本文能为您提供有价值的参考,助力本地 AI 应用的开发。






------------------------------------------------------------------------------------------------------------------------------------------

========  御 坂 主 机  ========

>> VPS主机 服务器 前沿资讯 行业发布 技术杂谈 <<

>> 推广/合作/找我玩  TG号 : @Misaka_Offical <<

-------------------------------------------------------------------------------------------------------------------------------------------

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

联系站长|Archiver|手机版|小黑屋|主机论坛

GMT+8, 2025-4-5 00:01 , Processed in 0.091909 second(s), 33 queries .

Powered by 主机论坛 HostSsss.Com

HostSsss.Com

快速回复 返回顶部 返回列表