Como auto-hospedar Ollama + Open-WebUI: Seu assistente de IA privado
Tutoriais 4 de março de 2026 1 min read

Como auto-hospedar Ollama + Open-WebUI: Seu assistente de IA privado

H

Hostly Team

Self-Hosting Enthusiast

Crie sua própria alternativa ao ChatGPT em menos de 15 minutos. Este guia completo mostra como implantar Ollama e Open-WebUI para um assistente de IA privado e poderoso.

O ChatGPT é poderoso, mas tem um custo — não apenas a assinatura de $20/mês, mas o conhecimento de que cada prompt que você escreve é armazenado nos servidores da OpenAI. Para usuários preocupados com a privacidade, há uma maneira melhor.

Neste guia completo, vamos construir um assistente de IA privado usando Ollama e Open-WebUI.

O que estamos construindo

  • Ollama — Um servidor LLM local que baixa, gerencia e executa modelos de IA
  • Open-WebUI — Uma bela interface web para a experiência de chat tipo ChatGPT

Passo 1: Instalar Ollama

curl -fsSL https://ollama.com/install.sh | sh

Passo 2: Baixar um modelo

ollama pull deepseek-r1:14b

Passo 3: Implantar Open-WebUI

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

Visite http://localhost:3000 para seu assistente de IA privado!

Explore mais ferramentas de IA auto-hospedadas em nossa categoria de IA.