Comment auto-héberger Ollama + Open-WebUI : Votre assistant IA privé
Tutoriels 4 mars 2026 1 min read

Comment auto-héberger Ollama + Open-WebUI : Votre assistant IA privé

H

Hostly Team

Self-Hosting Enthusiast

Créez votre propre alternative à ChatGPT en moins de 15 minutes. Ce guide complet vous montre comment déployer Ollama et Open-WebUI pour un assistant IA privé et puissant fonctionnant entièrement sur votre matériel.

ChatGPT est puissant, mais il a un coût — pas seulement l'abonnement de 20€/mois, mais la connaissance que chaque prompt que vous écrivez est stocké sur les serveurs d'OpenAI. Pour les utilisateurs soucieux de leur vie privée, il existe une meilleure solution.

Dans ce guide complet, nous allons construire un assistant IA privé en utilisant Ollama et Open-WebUI — deux outils open-source qui ensemble offrent une expérience similaire à ChatGPT fonctionnant entièrement sur votre propre matériel.

Ce que nous construisons

Notre stack se compose de deux composants :

  • Ollama — Un serveur LLM local qui télécharge, gère et exécute des modèles IA
  • Open-WebUI — Une belle interface web qui fournit l'expérience de chat similaire à ChatGPT

Étape 1 : Installer Ollama

curl -fsSL https://ollama.com/install.sh | sh

Étape 2 : Télécharger un modèle

ollama pull deepseek-r1:14b

Étape 3 : Déployer Open-WebUI

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  -v open-webui:/app/backend/data \\n  ghcr.io/open-webui/open-webui:main

Visitez http://localhost:3000 pour accéder à votre assistant IA privé !

Modèles recommandés

  • Assistant général : llama3.3:70b ou qwen2.5:72b
  • Codage : deepseek-coder-v2 ou codellama:34b
  • Raisonnement : deepseek-r1:14b ou deepseek-r1:70b
  • Réponses rapides : phi4 ou gemma3:4b

Explorez plus d'outils IA auto-hébergés dans notre catégorie IA.