ChatGPT est puissant, mais il a un coût — pas seulement l'abonnement de 20€/mois, mais la connaissance que chaque prompt que vous écrivez est stocké sur les serveurs d'OpenAI. Pour les utilisateurs soucieux de leur vie privée, il existe une meilleure solution.
Dans ce guide complet, nous allons construire un assistant IA privé en utilisant Ollama et Open-WebUI — deux outils open-source qui ensemble offrent une expérience similaire à ChatGPT fonctionnant entièrement sur votre propre matériel.
Ce que nous construisons
Notre stack se compose de deux composants :
- Ollama — Un serveur LLM local qui télécharge, gère et exécute des modèles IA
- Open-WebUI — Une belle interface web qui fournit l'expérience de chat similaire à ChatGPT
Étape 1 : Installer Ollama
curl -fsSL https://ollama.com/install.sh | shÉtape 2 : Télécharger un modèle
ollama pull deepseek-r1:14bÉtape 3 : Déployer Open-WebUI
docker run -d --name open-webui -p 3000:8080 \\n --add-host=host.docker.internal:host-gateway \\n -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n -v open-webui:/app/backend/data \\n ghcr.io/open-webui/open-webui:mainVisitez http://localhost:3000 pour accéder à votre assistant IA privé !
Modèles recommandés
- Assistant général : llama3.3:70b ou qwen2.5:72b
- Codage : deepseek-coder-v2 ou codellama:34b
- Raisonnement : deepseek-r1:14b ou deepseek-r1:70b
- Réponses rapides : phi4 ou gemma3:4b
Explorez plus d'outils IA auto-hébergés dans notre catégorie IA.