帮助文档 Logo
平台使用
阿里云
百度云
移动云
智算服务
教育生态
登录 →
帮助文档 Logo
平台使用 阿里云 百度云 移动云 智算服务 教育生态
登录
  1. 首页
  2. 阿里云
  3. 云服务器 ECS
  4. 实践教程
  5. AIGC实践
  6. 在ECS上部署Open WebUI体验百炼满血版 Deepseek-R1

在ECS上部署Open WebUI体验百炼满血版 Deepseek-R1

  • AIGC实践
  • 发布于 2025-04-01
  • 1 次阅读
文档编辑
文档编辑

本文介绍了如何在ECS实例上部署Open WebUI,并通过大模型服务平台百炼API调用DeepSeek-R1模型推理服务。利用DeepSeek-R1的高性能与Open WebUI的易用性,快速构建AI应用,降低部署难度,快速体验满血版DeepSeek-R1模型。

准备工作

  1. 部署Open WebUI实例需要满足以下条件。

    • 实例已分配固定公网IP地址或绑定弹性公网IP(EIP)。如您不清楚如何开通公网,请参见开通公网。

    • 安全组:入方向规则已放行22、8080端口。具体操作,请参见添加安全组规则。

      说明

      如果需要使用http或https默认端口,安全组入方向规则需要放行80以及443。

    • 操作系统:Linux。

  2. 在ECS实例上安装Docker。具体操作,请参见安装Docker。

  3. 开通大模型服务平台百炼并获取API KEY,用于调用DeepSeek-R1模型推理服务。具体操作,请参见API Key。

  4. 设置大模型服务平台百炼API服务地址与KEY,并且创建数据目录。

    #环境变量配置
    #设置百炼服务地址
    export OPENAI_API_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
    #设置百炼KEY
    export OPENAI_API_KEY=<您的API密钥>
    #数据目录准备
    sudo mkdir -p /mnt/open-webui-data

安装Open WebUI

  1. 远程连接ECS实例。具体操作,请参见使用Workbench工具以SSH协议登录Linux实例。

  2. 拉取Python镜像,作为基础环境。

    sudo docker pull alibaba-cloud-linux-3-registry.cn-hangzhou.cr.aliyuncs.com/alinux3/python:3.11.1
  3. 根据Python镜像启动容器,并在容器内安装Open WebUI。

    #启动open-webui服务
    sudo docker run -d -t --network=host --name open-webui \
    -e ENABLE_OLLAMA_API=False \
    -e OPENAI_API_BASE_URL=${OPENAI_API_BASE_URL} \
    -e OPENAI_API_KEY=${OPENAI_API_KEY} \
    -e DATA_DIR=/mnt/open-webui-data \
    -e HF_HUB_OFFLINE=1 \
    -v /mnt/open-webui-data:/mnt/open-webui-data \
    alibaba-cloud-linux-3-registry.cn-hangzhou.cr.aliyuncs.com/alinux3/python:3.11.1 \
    /bin/bash -c "pip config set global.index-url http://mirrors.cloud.aliyuncs.com/pypi/simple/ && \
    pip config set install.trusted-host mirrors.cloud.aliyuncs.com && \
    pip install --upgrade pip && \
    pip install open-webui==0.5.10 && \
    mkdir -p /usr/local/lib/python3.11/site-packages/google/colab && \
    open-webui serve"
  4. 执行以下命令,实时监控下载进度,等待下载结束。

    说明

    您可以随时按下Ctrl+C退出,这不会影响容器的运行,即使退出日志监控也不会中断下载。

    sudo docker logs -f open-webui

    当日志中输出以下信息时,说明Open WebUI服务已启动。

    INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

设置Open WebUI

  1. 在本地物理机上使用浏览器访问http://<ECS公网IP地址>:8080,首次登录时,请根据提示创建管理员账号。image.png

  2. 单击右上角的头像,选择管理员面板。

    image

  3. 进入管理员后台,在顶部菜单栏单击设置。

  4. 在左侧导航栏单击通用,打开允许新用户注册的开关,设置默认用户角色为用户。

    image

  5. 在左侧导航栏单击模型,单击模型后的image按钮。

    image

  6. 在可见性的下拉列表中,选择Public,单击保存并更新。

    image

  7. 配置完成后,新用户通过访问http://<ECS公网IP地址>:8080,即可注册登录您部署的Open WebUI,与DeepSeek-R1模型进行对话问答了。

    image

相关文章

使用AMD CPU实例部署ChatGLM-6B 2025-04-01 11:57

本文以搭建AI对话机器人为例,介绍如何使用阿里云AMD CPU云服务器(g8a)部署ChatGLM-6B语言模型。

使用AMD CPU实例部署Stable Diffusion 2025-04-01 11:57

本文介绍如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,并基于Stable Diffusion模型搭建个人版文生图服务。

使用AMD CPU实例部署通义千问Qwen-7B-Chat 2025-04-01 11:57

本文以搭建AI对话机器人为例,介绍如何使用阿里云AMD CPU云服务器(g8a)部署Qwen-7B模型。

使用AMD CPU实例部署通义千问Qwen-Audio-Chat 2025-04-01 11:57

本文介绍如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,基于通义千问Qwen-Audio-Chat搭建语音AI服务助手。

使用AMD CPU实例部署通义千问Qwen-VL-Chat 2025-04-01 11:57

本文介绍如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,基于通义千问Qwen-VL-Chat搭建个人版视觉AI服务助手。

使用Intel CPU实例部署Qwen-1.8B-Chat推荐系统并进行Query改写演示 2025-04-01 11:57

本文介绍使用阿里云第八代Intel实例,基于xFasterTransformer单机部署通义千问Qwen-1.8B-Chat语言模型,并使用Qwen-1.8B-Chat推荐系统进行Query改写演示。 背景信息 通义千问-1.8B(Qwen-1.8B-Chat)

目录
Copyright © 2025 your company All Rights Reserved. Powered by 博智数字服务平台.
闽ICP备08105208号-1