O ChatGPT é poderoso, mas tem um custo — não apenas a assinatura de $20/mês, mas o conhecimento de que cada prompt que você escreve é armazenado nos servidores da OpenAI. Para usuários preocupados com a privacidade, há uma maneira melhor.
Neste guia completo, vamos construir um assistente de IA privado usando Ollama e Open-WebUI.
O que estamos construindo
- Ollama — Um servidor LLM local que baixa, gerencia e executa modelos de IA
- Open-WebUI — Uma bela interface web para a experiência de chat tipo ChatGPT
Passo 1: Instalar Ollama
curl -fsSL https://ollama.com/install.sh | shPasso 2: Baixar um modelo
ollama pull deepseek-r1:14bPasso 3: Implantar Open-WebUI
docker run -d --name open-webui -p 3000:8080 \\n --add-host=host.docker.internal:host-gateway \\n -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n ghcr.io/open-webui/open-webui:mainVisite http://localhost:3000 para seu assistente de IA privado!
Explore mais ferramentas de IA auto-hospedadas em nossa categoria de IA.