OpenWebUI & Ollama-skabelonen tilbyder en forkonfigureret, selvhæstet AI-chatgrænseflade med direkte integration af kraftfulde sprogmodeller som Llama eller DeepSeek via Ollama . Den indeholder et optimeret opsætning til problemfri drift uden yderligere konfiguration.
Denne skabelon udnytter de avancerede API-funktioner i OpenWebUI, hvilket giver forbedret samtaleadministration, kontekstvedholdelse og strømlinet integration sammenlignet med Ollamas enklere API.
Du kan angive den version af OpenWebUI, du vil installere. Standardværdien er vores senest testede version, men du er fri til at opgradere eller nedgradere efter behov. Indtast blot din ønskede version i konfigurationsværdien under skabeloninstallationen.
Tilføj blot skabelonen “OpenWebUI & Ollama” til din Trooper.AI GPU Server, og installationen vil foregå helt automatisk. Hvis du ønsker det, kan den også direkte downloade dine modeller fra ollama. Du kan konfigurere dem i skabelonkonfigurationsdialogen.
Men du kan selvfølgelig stadig downloade modeller via OpenWebUI efter installationen.
Yderligere muligheder:
Opdater installationer:
Denne mulighed henter den seneste kildekode for Ollama og OpenWebUI. Brug det kun hvis nødvendigt, og sørg for at verificere alt derefter.
Selvfølgelig kan du også udføre manuelle opdateringer via terminalen, men husk at installere afhængighederne ligeledes.
Denne funktion tager sig af alt – praktisk og automatiseret!
Aktiver sundhedstjek:
Sæt dette til ja for at aktivere et sundhedstjek, der sikrer, at Ollama-tjenesten kører og svarer via sin interne API.
Hvis den ikke gør det, genstarter sundhedstjekket automatisk tjenesten.
Skriptet findes på /usr/local/bin/ollama-health.sh, og tjenesten kan styres med:
sudo service ollama-health stop/start/status.
Dette er særligt nyttigt for produktionsservere.
Efter implementeringen af din Trooper.AI serverinstans med OpenWebUI & Ollama skabelonen, kan du tilgå den via din tildelte URL og port:
http://your-hostname.trooper.ai:assigned-port
Eller klik på det blå portnummer ved siden af OpenWebUI-skabelonen:
Du vil konfigurere de indledende loginoplysninger ved din første forbindelse. Sørg for, at disse oplysninger opbevares sikkert, da de vil være nødvendige for efterfølgende adgang.
OpenWebUI & Ollama-skabelonen er ideel til:
Efter vores mening - her er et par modeller, du kan starte med:
Få flere LLMs her: https://ollama.com/search (Disse er alle kompatible med OpenWebUI!)
Sørg for, at din models VRAM-brug ikke overstiger 85 % af kapaciteten for at forhindre væsentlig ydelsesforringelse.
Alle chatinteraktioner, modelkonfigurationer og brugerindstillinger gemmes sikkert på din server.
OpenWebUI leverer en API-grænseflade, der er kompatibel med OpenAI, hvilket muliggør problemfri integration med værktøjer og applikationer, der understøtter OpenAI-formatet. Dette giver udviklere mulighed for at interagere med selvhostede modeller som llama3 som om de kommunikerede med den officielle OpenAI API – ideelt til at integrere conversational AI i dine services, scripts eller automatiseringsflows.
API'et er aktiveret som standard, men tjek i skabelonkonfigurationen:
Efter dette skal du aktivere API-nøgleskabelse for alle brugere:
Gå derefter til Gruppe og Standardgruppe, aktiver API-nøgleoprettelse, klik på gem:
Dette vil aktivere endepunktet:
Her er to fungerende eksempler: et der bruger Node.js og et andet der bruger curl.
const axios = require('axios');
const response = await axios.post('https://your-secure-hostname.trooper.ai/api/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
Sørg for, at API-kald benytter
/api/...snarere end/v1/...da dette er det krævede format for OpenWebUI.
curl https://your-secure-hostname.trooper.ai/api/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Erstat DIN_API_NØGLE med den faktiske token genereret i OpenWebUI-grænsefladen under Bruger → Indstillinger → Konto → API-nøgler. Gå ikke ind på administratorpanelet – adgang til API er bruger-specifik! Se her:
Gå herhen efter dette:
Du kan bruge dette API med værktøjer som LangChain, N8N, FlowWise, NodeJS-OpenAI, LlamaIndex, eller enhver kodebase, der understøtter OpenAI API-specifikationen.
Hvis du ikke vil opdatere via skabelonsystemet, kan du til enhver tid køre følgende kommandoer for at opdatere både OpenWebUI og Ollama:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
Hvis du vil spare noget VRAM, kan du deaktivere OpenWebUI på denne måde:
sudo systemctl disable --now openwebui.service
For at aktivere OpenWebUI igen, skal du køre følgende i terminalen:
sudo systemctl enable --now openwebui.service
For installationssupport, konfigurationsassistance eller fejlfinding bedes du kontakte Trooper.AI support direkte:
Yderligere ressourcer og avancerede konfigurationsvejledninger: