De OpenWebUI & Ollama template biedt een vooraf geconfigureerde, self-hosted AI-chatinterface met directe integratie van krachtige taalmodellen zoals Llama of DeepSeek via Ollama Het bevat een geoptimaliseerde installatie voor naadloze werking zonder extra configuratie.
Deze template maakt gebruik van de geavanceerde API-mogelijkheden van OpenWebUI, waardoor verbeterd gespreksbeheer, contextbehoud en gestroomlijnde integratie mogelijk is in vergelijking met de eenvoudigere API van Ollama.
U kunt de versie van OpenWebUI die u wilt installeren specificeren. De standaardwaarde is onze meest recent geteste versie; u kunt echter upgraden of downgraden indien nodig. Voer eenvoudig de gewenste versie in tijdens de template-installatie.
Voeg eenvoudig de template “OpenWebUI & Ollama” toe aan je Trooper.AI GPU Server en de installatie verloopt volledig automatisch. Indien gewenst kan het ook direct je modellen van ollama downloaden. Je kunt ze configureren in het Template Configuratie dialoogvenster.
Maar natuurlijk kun je na de installatie nog steeds modellen downloaden via de OpenWebUI.
Aanvullende opties:
Installeer updates:
Deze optie haalt de nieuwste broncode voor Ollama en OpenWebUI op. Gebruik dit alleen indien nodig en controleer alles daarna.
Natuurlijk kunt u ook handmatig updates uitvoeren via de terminal, maar vergeet niet om ook de afhankelijkheden te installeren.
Deze functie regelt alles voor u – handig en geautomatiseerd!
Activeer Health Check:
Stel dit in op yes om een health check in te schakelen die ervoor zorgt dat de Ollama service actief is en reageert via de interne API.
Zo niet, dan start de health check de service automatisch opnieuw.
Het script bevindt zich op /usr/local/bin/ollama-health.shen de service kan worden beheerd met:
sudo service ollama-health stop/start/status.
Dit is vooral handig voor productieomgevingen.
Nadat u uw Trooper.AI serverinstantie met de OpenWebUI & Ollama template heeft geïmplementeerd, kunt u deze openen via uw aangewezen URL en poort:
http://your-hostname.trooper.ai:assigned-port
Of klik op het blauwe poortnummer naast de OpenWebUI Template:
U configureert de initiële inloggegevens bij uw eerste verbinding. Zorg ervoor dat deze gegevens veilig worden opgeslagen, aangezien ze vereist zullen zijn voor latere toegang.
De OpenWebUI & Ollama template is ideaal voor:
Naar onze mening - hier zijn een paar modellen om mee te beginnen:
Vind hier meer LLM's: https://ollama.com/search (Deze zijn allemaal compatibel met OpenWebUI!)
Zorg ervoor dat het VRAM-gebruik van uw model 85% capaciteit niet overschrijdt om significante prestatievermindering te voorkomen.
Alle chatinteracties, modelconfiguraties en gebruikersinstellingen worden veilig op uw server bewaard.
OpenWebUI biedt een OpenAI-compatibele API-interface, waardoor naadloze integratie met tools en applicaties die het OpenAI-formaat ondersteunen mogelijk is. Hierdoor kunnen ontwikkelaars communiceren met zelf-gehoste modellen zoals llama3 alsof ze communiceren met de officiële OpenAI API – ideaal voor het integreren van conversationele AI in uw services, scripts of automatiseringsworkflows.
Hieronder volgen twee werkende voorbeelden: één met Node.js en de andere met curl.
const axios = require('axios');
const response = await axios.post('http://your-hostname.trooper.ai:assigned-port/v1/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
curl http://your-hostname.trooper.ai:assigned-port/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Vervang YOUR_API_KEY met het daadwerkelijke token gegenereerd in de OpenWebUI interface onder Gebruiker → Instellingen → Account → API SleutelsGa niet naar het adminpaneel, de API-toegang is gebruikersspecifiek! Zie hier:
Ga hierna naar:
U kunt deze API gebruiken met tools zoals LangChain, LlamaIndex, of elke codebase die de OpenAI API-specificatie ondersteunt.
Als u niet via het templatesysteem wilt bijwerken, kunt u op elk moment de volgende commando's uitvoeren om zowel OpenWebUI als Ollama bij te werken:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
Neem voor installatieondersteuning, configuratiehulp of probleemoplossing rechtstreeks contact op met de Trooper.AI support:
Aanvullende bronnen en geavanceerde configuratiehandleidingen: