ChatGPT is krachtig, maar het heeft een prijs — niet alleen het abonnement van $20/maand, maar de wetenschap dat elke prompt die u schrijft wordt opgeslagen op de servers van OpenAI. Voor privacybewuste gebruikers is er een betere manier.
In deze uitgebreide gids bouwen we een privé AI-assistent met Ollama en Open-WebUI.
Wat we bouwen
- Ollama — Een lokale LLM-server die AI-modellen downloadt, beheert en uitvoert
- Open-WebUI — Een mooie webinterface voor de ChatGPT-achtige chatervaring
Stap 1: Ollama installeren
curl -fsSL https://ollama.com/install.sh | shStap 2: Een model downloaden
ollama pull deepseek-r1:14bStap 3: Open-WebUI deployen
docker run -d --name open-webui -p 3000:8080 \\n --add-host=host.docker.internal:host-gateway \\n -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n ghcr.io/open-webui/open-webui:mainBezoek http://localhost:3000 voor uw privé AI-assistent!
Ontdek meer zelf-gehoste AI-tools in onze AI-categorie.