OpenWebUI & Ollama-sjabloon biedt een voorgeconfigureerde, zelfgehoste AI-chatinterface met directe integratie van krachtige taalmodellen zoals Llama of DeepSeek via Ollama . Het omvat een geoptimaliseerde instelling voor soepel functioneren zonder extra configuratie.
Deze template maakt gebruik van de geavanceerde API-mogelijkheden van OpenWebUI, waardoor verbeterd gespreksbeheer, contextbehoud en gestroomlijnde integratie mogelijk is in vergelijking met de eenvoudigere API van Ollama.
U kunt de versie van OpenWebUI die u wilt installeren specificeren. De standaardwaarde is onze meest recent geteste versie; u kunt echter upgraden of downgraden indien nodig. Voer eenvoudig de gewenste versie in tijdens de template-installatie.
Voeg eenvoudig de template “OpenWebUI & Ollama” toe aan je Trooper.AI GPU Server en de installatie verloopt volledig automatisch. Indien gewenst kan het ook direct je modellen van ollama downloaden. Je kunt ze configureren in het Template Configuratie dialoogvenster.
Maar natuurlijk kun je na de installatie nog steeds modellen downloaden via de OpenWebUI.
Extra opties:
Updates installeren:
Deze optie haalt de nieuwste bronnen voor Ollama en OpenWebUI op. Gebruik dit alleen als nodig, en controleer alles daarna grondig.
Natuurlijk kun je ook handmatig updates halen via het terminal, maar vergeet niet om afhankelijkheden te installeren.
Deze functie regelt alles voor je – handig en geautomatiseerd!
Geef gezondheidscontrole vrij:
Stel dit in op ja om een gezondheidscontrole te activeren die ervoor zorgt dat de Ollama-service draait en reageert via zijn interne API.
Indien niet, start de gezondheidscontrole automatisch de service opnieuw op.
Het script bevindt zich op locatie /usr/local/bin/ollama-health.sh. De service kan worden bestuurd met:
sudo service ollama-health stop/start/status.
Dit is vooral handig voor productieservers.
Nadat u uw Trooper.AI serverinstantie met de OpenWebUI & Ollama template heeft geïmplementeerd, kunt u deze openen via uw aangewezen URL en poort:
http://your-hostname.trooper.ai:assigned-port
Of klik op het blauwe poortnummer naast de OpenWebUI Template:
U configureert de initiële inloggegevens bij uw eerste verbinding. Zorg ervoor dat deze gegevens veilig worden opgeslagen, aangezien ze vereist zullen zijn voor latere toegang.
De OpenWebUI & Ollama template is ideaal voor:
Naar onze mening - hier zijn een paar modellen om mee te beginnen:
Vind meer LLMs hier: https://ollama.com/search (Al deze zijn compatibel met OpenWebUI!)
Zorg ervoor dat het VRAM-gebruik van uw model 85% capaciteit niet overschrijdt om significante prestatievermindering te voorkomen.
Alle chatinteracties, modelconfiguraties en gebruikersinstellingen worden veilig op uw server bewaard.
OpenWebUI biedt een OpenAI-compatibele API-interface, waardoor naadloze integratie met tools en applicaties die het OpenAI-formaat ondersteunen mogelijk is. Hierdoor kunnen ontwikkelaars communiceren met zelf-gehoste modellen zoals llama3 alsof ze communiceren met de officiële OpenAI API – ideaal voor het integreren van conversationele AI in uw services, scripts of automatiseringsworkflows.
De API is standaard ingeschakeld, maar controleer dit in de templateconfiguratie:
Schakel daarna de API-sleutelcreatie voor alle gebruikers in:
Ga vervolgens naar Groep en Standaardgroep, activeer API-sleutelcreatie en klik op opslaan:
Dit activeert de Endpoint:
Hieronder volgen twee werkende voorbeelden: één met Node.js en de andere met curl.
const axios = require('axios');
const response = await axios.post('https://your-secure-hostname.trooper.ai/api/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
Zorg ervoor dat API-aanroepen /api/... gebruiken in plaats van /v1/... omdat dit het vereiste formaat is voor OpenWebUI.
/api/...in plaats van/v1/...aangezien dit het vereiste formaat is voor OpenWebUI.
curl https://your-secure-hostname.trooper.ai/api/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Vervang UW_API_SLEUTEL door het daadwerkelijke token dat gegenereerd wordt in de OpenWebUI-interface onder Gebruiker → Instellingen → Rekening → API-sleutels. Ga niet naar het beheerpaneel; de API-toegang is specifiek voor gebruikers! Zie hier:
Ga hierna naar:
U kunt deze API gebruiken met tools zoals LangChain, N8N, FlowWise, NodeJS-OpenAI, LlamaIndex, of elke codebase die de OpenAI API-specificatie ondersteunt.
Als u niet via het templatesysteem wilt bijwerken, kunt u op elk moment de volgende commando's uitvoeren om zowel OpenWebUI als Ollama bij te werken:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
Als je wat VRAM wilt besparen, kun je OpenWebUI als volgt uitschakelen:
sudo systemctl disable --now openwebui.service
Om OpenWebUI opnieuw te activeren, voer het volgende uit in de terminal:
sudo systemctl enable --now openwebui.service
Neem voor installatieondersteuning, configuratiehulp of probleemoplossing rechtstreeks contact op met de Trooper.AI support:
Aanvullende bronnen en geavanceerde configuratiehandleidingen: