ChatGPT es potente, pero tiene un costo — no solo la suscripción de $20/mes, sino el saber que cada prompt que escribes se almacena en los servidores de OpenAI. Para usuarios preocupados por la privacidad, hay una mejor manera.
En esta guía completa, construiremos un asistente de IA privado usando Ollama y Open-WebUI.
Lo que estamos construyendo
- Ollama — Un servidor LLM local que descarga, gestiona y ejecuta modelos de IA
- Open-WebUI — Una hermosa interfaz web que proporciona la experiencia de chat tipo ChatGPT
Paso 1: Instalar Ollama
curl -fsSL https://ollama.com/install.sh | shPaso 2: Descargar un modelo
ollama pull deepseek-r1:14bPaso 3: Desplegar Open-WebUI
docker run -d --name open-webui -p 3000:8080 \\n --add-host=host.docker.internal:host-gateway \\n -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n ghcr.io/open-webui/open-webui:main¡Visita http://localhost:3000 para tu asistente de IA privado!
Explora más herramientas de IA autoalojadas en nuestra categoría de IA.