Le modèle OpenWebUI & Ollama propose une interface de discussion IA auto-hébergée préconfigurée avec une intégration directe des modèles linguistiques puissants comme Llama ou DeepSeek via Ollama . Il inclut une configuration optimisée pour un fonctionnement fluide sans paramétrage supplémentaire.
Ce modèle utilise les capacités avancées de l'API d'OpenWebUI, offrant une gestion améliorée des conversations, la persistance du contexte et une intégration rationalisée par rapport à l'API plus simple d'Ollama.
Vous pouvez spécifier la version d'OpenWebUI à installer. La valeur par défaut est notre version la plus récemment testée ; cependant, vous êtes libre de la mettre à niveau ou de la rétrograder si nécessaire. Indiquez simplement la version souhaitée dans la valeur de configuration lors de l'installation du modèle.
Il suffit d'ajouter le modèle “OpenWebUI & Ollama” à votre serveur GPU Trooper.AI et l'installation se fera complètement automatiquement. Si vous le souhaitez, il peut également télécharger directement vos modèles depuis Ollama. Vous pouvez les configurer dans le dialogue de Configuration du Modèle.
Mais bien sûr, vous pouvez toujours télécharger des modèles via OpenWebUI après l'installation.
Options supplémentaires :
Mises à jour des installations :
Cette option récupère la dernière version de Ollama et d’OpenWebUI. Utilisez-la uniquement si nécessaire, puis vérifiez tout par la suite.
Bien sûr, vous pouvez aussi effectuer une mise à jour manuelle depuis le terminal, mais n’oubliez pas d’installer les dépendances également.
Cette fonction gère tout pour vous – pratique et automatisée !
Activer la vérification de santé :
Définissez cette valeur sur oui pour activer une vérification qui garantit que le service Ollama est en cours d'exécution et répond via son API interne.
Si ce n'est pas le cas, la vérification redémarre automatiquement le service.
Le script se trouve à l'emplacement suivant : /usr/local/bin/ollama-health.sh. Le service peut être contrôlé avec :
sudo service ollama-health stop/démarrer/statut.
Cela est particulièrement utile pour les serveurs de production.
Après avoir déployé votre instance de serveur Trooper.AI avec le modèle OpenWebUI & Ollama, accédez-y via votre URL et votre port désignés :
http://your-hostname.trooper.ai:assigned-port
Ou cliquez sur le numéro de port bleu à côté du modèle OpenWebUI :
Vous configurerez les identifiants de connexion initiaux lors de votre première connexion. Assurez-vous de conserver ces identifiants en lieu sûr, car ils seront nécessaires pour les accès ultérieurs.
Le modèle OpenWebUI & Ollama est idéal pour :
À notre humble avis, voici quelques modèles pour vous aider à démarrer :
Retrouvez plus de modèles de langage ici : https://ollama.com/search (ceux-ci sont tous compatibles avec OpenWebUI !)
Assurez-vous que l'utilisation de la VRAM de votre modèle ne dépasse pas 85 % de la capacité afin d'éviter une dégradation significative des performances.
Toutes vos interactions de chat, les configurations des modèles et les paramètres utilisateur sont stockés en toute sécurité sur votre serveur.
OpenWebUI fournit une interface API compatible OpenAI, permettant une intégration transparente avec les outils et les applications qui prennent en charge le format OpenAI. Cela permet aux développeurs d'interagir avec des modèles auto-hébergés comme llama3 comme s'ils communiquaient avec l'API OpenAI officielle, ce qui est idéal pour intégrer l'IA conversationnelle dans vos services, scripts ou flux d'automatisation.
L'API est activée par défaut, mais vérifiez dans la configuration du modèle :
Après cela, activez la création de clés API pour tous les utilisateurs :
Ensuite, allez dans Groupe et Groupe par défaut, activez la création de clé API, cliquez sur enregistrer :
Cela activera le point de terminaison :
Voici deux exemples fonctionnels : un utilisant Node.js et l'autre utilisant curl.
const axios = require('axios');
const response = await axios.post('https://your-secure-hostname.trooper.ai/api/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
Assurez-vous que les appels d'API utilisent
/api/...plutôt que/v1/...car c'est le format requis pour OpenWebUI.
curl https://your-secure-hostname.trooper.ai/api/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Remplacez VOTRE_CLE_API par le jeton réel généré dans l’interface OpenWebUI sous Utilisateur → Paramètres → Compte → Clés API. Ne pas accéder au tableau de bord administrateur : l’accès à l’API est spécifique à chaque utilisateur ! Voir ici :
Après cela, allez ici :
Vous pouvez utiliser cette API avec des outils tels que LangChain, N8N, FlowWise, NodeJS-OpenAI, LlamaIndex, ou tout code base supportant la spécification de l'API OpenAI.
Si vous ne souhaitez pas effectuer la mise à jour via le système de modèles, vous pouvez exécuter à tout moment les commandes suivantes pour mettre à jour à la fois OpenWebUI et Ollama :
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
Si vous souhaitez économiser de la VRAM, vous pouvez désactiver OpenWebUI comme suit :
sudo systemctl disable --now openwebui.service
Pour réactiver OpenWebUI, exécutez cette commande dans le terminal :
sudo systemctl enable --now openwebui.service
Pour obtenir de l’aide à l’installation, à la configuration ou au dépannage, veuillez contacter directement l’assistance Trooper.AI :
Ressources supplémentaires et guides de configuration avancés :