如何自托管 Ollama + Open-WebUI:您的私人AI助手
教程 2026年3月4日 1 min read

如何自托管 Ollama + Open-WebUI:您的私人AI助手

H

Hostly Team

Self-Hosting Enthusiast

在15分钟内构建您自己的ChatGPT替代品。本完整指南向您展示如何部署Ollama和Open-WebUI,打造一个完全运行在您自己硬件上的私密、强大的AI助手。

ChatGPT很强大,但它是有代价的——不仅是每月20美元的订阅费,还有您写的每个提示都存储在OpenAI服务器上的事实。对于注重隐私的用户,有更好的方法。

在这个完整的指南中,我们将使用OllamaOpen-WebUI构建一个私人AI助手。

我们要构建什么

  • Ollama — 一个本地LLM服务器,用于下载、管理和运行AI模型
  • Open-WebUI — 一个漂亮的网页界面,提供类似ChatGPT的聊天体验

步骤1:安装Ollama

curl -fsSL https://ollama.com/install.sh | sh

步骤2:下载模型

ollama pull deepseek-r1:14b

步骤3:部署Open-WebUI

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

访问http://localhost:3000使用您的私人AI助手!

在我们的AI类别中探索更多自托管AI工具。