Ollama + Open-WebUI zelf hosten: Uw privé AI-assistent
Handleidingen 4 maart 2026 1 min read

Ollama + Open-WebUI zelf hosten: Uw privé AI-assistent

H

Hostly Team

Self-Hosting Enthusiast

Bouw uw eigen ChatGPT-alternatief in minder dan 15 minuten. Deze complete gids toont u hoe u Ollama en Open-WebUI kunt implementeren voor een privé, krachtige AI-assistent.

ChatGPT is krachtig, maar het heeft een prijs — niet alleen het abonnement van $20/maand, maar de wetenschap dat elke prompt die u schrijft wordt opgeslagen op de servers van OpenAI. Voor privacybewuste gebruikers is er een betere manier.

In deze uitgebreide gids bouwen we een privé AI-assistent met Ollama en Open-WebUI.

Wat we bouwen

  • Ollama — Een lokale LLM-server die AI-modellen downloadt, beheert en uitvoert
  • Open-WebUI — Een mooie webinterface voor de ChatGPT-achtige chatervaring

Stap 1: Ollama installeren

curl -fsSL https://ollama.com/install.sh | sh

Stap 2: Een model downloaden

ollama pull deepseek-r1:14b

Stap 3: Open-WebUI deployen

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

Bezoek http://localhost:3000 voor uw privé AI-assistent!

Ontdek meer zelf-gehoste AI-tools in onze AI-categorie.