Translation in progress, please wait some minutes

OpenWebUI & Ollama

The OpenWebUI & Ollama Skabelonen leverer en forudkonfigureret, selvhostet AI-chatgrænseflade med direkte integration af kraftfulde sprogmodeller som Llama eller DeepSeek via Ollama Det inkluderer en optimeret opsætning for problemfri drift uden yderligere konfiguration.

OpenWebUI main user interface
OpenWebUI's hovedbrugergrænseflade

Denne skabelon udnytter de avancerede API-funktioner i OpenWebUI, hvilket giver forbedret samtaleadministration, kontekstvedholdelse og strømlinet integration sammenlignet med Ollamas enklere API.

Nøglefunktioner og -muligheder

  • Avanceret webgrænsefladeIntuitiv chatoplevelse tilgængelig direkte via din browser.
  • Enhanced API CapabilitiesForbedret håndtering af chatkontekster og nemmere integration med eksterne applikationer.
  • Optimeret modelbrugForudinstallerede modeller klar til øjeblikkelig brug.
  • Integreret miljøFuldt forkonfigureret miljø inklusive portindstillinger og nødvendige konfigurationer.
  • Sikker og tilpasseligLigeudrettet opsætning af sikre legitimationsoplysninger og brugerdefinerede indstillinger.

Installation

Tilføj blot skabelonen “OpenWebUI & Ollama” til din Trooper.AI GPU Server, og installationen vil foregå helt automatisk. Hvis du ønsker det, kan den også direkte downloade dine modeller fra ollama. Du kan konfigurere dem i skabelonkonfigurationsdialogen.

Pre-Configure your models
Forudkonfigurer dine modeller

Men du kan selvfølgelig stadig downloade modeller via OpenWebUI efter installationen.

Yderligere muligheder:

  • Opdater installationer:
    Denne mulighed henter den seneste kildekode for Ollama og OpenWebUI. Brug kun denne, hvis det er nødvendigt, og sørg for at verificere alt bagefter.
    Du kan naturligvis også udføre manuelle pulls via terminalen, men husk at installere afhængighederne også.
    Denne funktion håndterer alt for dig – bekvemt og automatiseret!

  • Aktiver sundhedstjek:
    Indstil dette til yes for at aktivere en sundhedstjek, der sikrer, at Ollama-tjenesten kører og svarer via dens interne API.
    Hvis det ikke er tilfældet, genstarter sundhedstjekket automatisk tjenesten.
    Scriptet er placeret på /usr/local/bin/ollama-health.shog tjenesten kan styres med:
    sudo service ollama-health stop/start/status.
    Dette er især nyttigt for produktionsservere.

Adgang til OpenWebUI

Efter implementeringen af din Trooper.AI serverinstans med OpenWebUI & Ollama skabelonen, kan du tilgå den via din tildelte URL og port:

bash
http://your-hostname.trooper.ai:assigned-port

Eller klik på det blå portnummer ved siden af OpenWebUI-skabelonen:

Successfully installed OpenWebUI template
OpenWebUI-skabelonen er installeret korrekt

Du vil konfigurere de indledende loginoplysninger ved din første forbindelse. Sørg for, at disse oplysninger opbevares sikkert, da de vil være nødvendige for efterfølgende adgang.

Anbefalede anvendelsesområder

OpenWebUI & Ollama-skabelonen er ideel til:

  • Teamsamarbejde via AI-chat
  • Personlige AI-assistentimplementeringer
  • Hurtig udvikling og prototyper af samtale-AI-applikationer
  • API-brug og opbygning/tilslutning af agenter som erstatning for OpenAI API
  • Pædagogiske formål og forskningsaktiviteter

LLM'er du bør teste

Efter vores mening - her er et par modeller, du kan starte med:

Find flere LLM'er her: https://ollama.com/search (Alle disse er kompatible med OpenWebUI!)

Tekniske overvejelser

Systemkrav

Sørg for, at din models VRAM-brug ikke overstiger 85 % af kapaciteten for at forhindre væsentlig ydelsesforringelse.

  • Anbefalet GPU VRAM: 24 GB
  • Storage: At least 180 GB of available space

Forudkonfigureret miljø

  • Ollama og OpenWebUI er forudinstalleret og fuldt integreret.
  • Portindstillinger og alle nødvendige konfigurationer er allerede etableret, hvilket ikke kræver yderligere manuel opsætning.
  • Installationsmapper og miljøvariabler er foruddefinerede for øjeblikkelig brug.

Datapersistens

Alle chatinteraktioner, modelkonfigurationer og brugerindstillinger gemmes sikkert på din server.

Forbindelse via OpenAI-kompatibelt API

OpenWebUI leverer en API-grænseflade, der er kompatibel med OpenAI, hvilket muliggør problemfri integration med værktøjer og applikationer, der understøtter OpenAI-formatet. Dette giver udviklere mulighed for at interagere med selvhostede modeller som llama3 som om de kommunikerede med den officielle OpenAI API – ideelt til at integrere conversational AI i dine services, scripts eller automatiseringsflows.

Her er to fungerende eksempler: et der bruger Node.js og et andet der bruger curl.

Node.js eksempel

javascript
const axios = require('axios');

const response = await axios.post('http://your-hostname.trooper.ai:assigned-port/v1/chat/completions', {
  model: 'llama3',
  messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer YOUR_API_KEY'
  }
});

console.log(response.data);

cURL Eksempel

bash
curl http://your-hostname.trooper.ai:assigned-port/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "llama3",
    "messages": [
      { "role": "user", "content": "Hello, how are you?" }
    ]
  }'

Erstat YOUR_API_KEY med den faktiske token genereret i OpenWebUI-grænsefladen under Bruger → Indstillinger → Konto → API-nøglerGå ikke ind i administrationspanelet, API-adgangen er brugerspecifik! Se her:

User settings
Brugerindstillinger

Gå herhen efter dette:

API keys
API-nøgler

Du kan bruge denne API med værktøjer som LangChain, LlamaIndex eller enhver kodebase, der understøtter OpenAI API-specifikationen.

Manuelle opdateringer

Hvis du ikke vil opdatere via skabelonsystemet, kan du til enhver tid køre følgende kommandoer for at opdatere både OpenWebUI og Ollama:

bash
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
 
# 2. Repository aktualisieren
git pull
 
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
 
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
 
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
 
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
 
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service

Support og yderligere dokumentation

For installation support, configuration assistance, or troubleshooting, please contact Trooper.AI support directly:

Yderligere ressourcer og avancerede konfigurationsvejledninger: