The OpenWebUI & Ollama Skabelonen leverer en forudkonfigureret, selvhostet AI-chatgrænseflade med direkte integration af kraftfulde sprogmodeller som Llama eller DeepSeek via Ollama Det inkluderer en optimeret opsætning for problemfri drift uden yderligere konfiguration.
Denne skabelon udnytter de avancerede API-funktioner i OpenWebUI, hvilket giver forbedret samtaleadministration, kontekstvedholdelse og strømlinet integration sammenlignet med Ollamas enklere API.
Tilføj blot skabelonen “OpenWebUI & Ollama” til din Trooper.AI GPU Server, og installationen vil foregå helt automatisk. Hvis du ønsker det, kan den også direkte downloade dine modeller fra ollama. Du kan konfigurere dem i skabelonkonfigurationsdialogen.
Men du kan selvfølgelig stadig downloade modeller via OpenWebUI efter installationen.
Yderligere muligheder:
Opdater installationer:
Denne mulighed henter den seneste kildekode for Ollama og OpenWebUI. Brug kun denne, hvis det er nødvendigt, og sørg for at verificere alt bagefter.
Du kan naturligvis også udføre manuelle pulls via terminalen, men husk at installere afhængighederne også.
Denne funktion håndterer alt for dig – bekvemt og automatiseret!
Aktiver sundhedstjek:
Indstil dette til yes for at aktivere en sundhedstjek, der sikrer, at Ollama-tjenesten kører og svarer via dens interne API.
Hvis det ikke er tilfældet, genstarter sundhedstjekket automatisk tjenesten.
Scriptet er placeret på /usr/local/bin/ollama-health.shog tjenesten kan styres med:
sudo service ollama-health stop/start/status.
Dette er især nyttigt for produktionsservere.
Efter implementeringen af din Trooper.AI serverinstans med OpenWebUI & Ollama skabelonen, kan du tilgå den via din tildelte URL og port:
http://your-hostname.trooper.ai:assigned-port
Eller klik på det blå portnummer ved siden af OpenWebUI-skabelonen:
Du vil konfigurere de indledende loginoplysninger ved din første forbindelse. Sørg for, at disse oplysninger opbevares sikkert, da de vil være nødvendige for efterfølgende adgang.
OpenWebUI & Ollama-skabelonen er ideel til:
Efter vores mening - her er et par modeller, du kan starte med:
Find flere LLM'er her: https://ollama.com/search (Alle disse er kompatible med OpenWebUI!)
Sørg for, at din models VRAM-brug ikke overstiger 85 % af kapaciteten for at forhindre væsentlig ydelsesforringelse.
Alle chatinteraktioner, modelkonfigurationer og brugerindstillinger gemmes sikkert på din server.
OpenWebUI leverer en API-grænseflade, der er kompatibel med OpenAI, hvilket muliggør problemfri integration med værktøjer og applikationer, der understøtter OpenAI-formatet. Dette giver udviklere mulighed for at interagere med selvhostede modeller som llama3 som om de kommunikerede med den officielle OpenAI API – ideelt til at integrere conversational AI i dine services, scripts eller automatiseringsflows.
Her er to fungerende eksempler: et der bruger Node.js og et andet der bruger curl.
const axios = require('axios');
const response = await axios.post('http://your-hostname.trooper.ai:assigned-port/v1/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
curl http://your-hostname.trooper.ai:assigned-port/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Erstat YOUR_API_KEY med den faktiske token genereret i OpenWebUI-grænsefladen under Bruger → Indstillinger → Konto → API-nøglerGå ikke ind i administrationspanelet, API-adgangen er brugerspecifik! Se her:
Gå herhen efter dette:
Du kan bruge denne API med værktøjer som LangChain, LlamaIndex eller enhver kodebase, der understøtter OpenAI API-specifikationen.
Hvis du ikke vil opdatere via skabelonsystemet, kan du til enhver tid køre følgende kommandoer for at opdatere både OpenWebUI og Ollama:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
For installation support, configuration assistance, or troubleshooting, please contact Trooper.AI support directly:
Yderligere ressourcer og avancerede konfigurationsvejledninger: