Cómo autoalojar Ollama + Open-WebUI: Tu asistente de IA privado
Tutoriales 4 de marzo de 2026 1 min read

Cómo autoalojar Ollama + Open-WebUI: Tu asistente de IA privado

H

Hostly Team

Self-Hosting Enthusiast

Crea tu propia alternativa a ChatGPT en menos de 15 minutos. Esta guía completa te muestra cómo implementar Ollama y Open-WebUI para un asistente de IA privado y potente.

ChatGPT es potente, pero tiene un costo — no solo la suscripción de $20/mes, sino el saber que cada prompt que escribes se almacena en los servidores de OpenAI. Para usuarios preocupados por la privacidad, hay una mejor manera.

En esta guía completa, construiremos un asistente de IA privado usando Ollama y Open-WebUI.

Lo que estamos construyendo

  • Ollama — Un servidor LLM local que descarga, gestiona y ejecuta modelos de IA
  • Open-WebUI — Una hermosa interfaz web que proporciona la experiencia de chat tipo ChatGPT

Paso 1: Instalar Ollama

curl -fsSL https://ollama.com/install.sh | sh

Paso 2: Descargar un modelo

ollama pull deepseek-r1:14b

Paso 3: Desplegar Open-WebUI

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

¡Visita http://localhost:3000 para tu asistente de IA privado!

Explora más herramientas de IA autoalojadas en nuestra categoría de IA.