OpenWebUI & Ollama

OpenWebUI & Ollama-sjabloon biedt een voorgeconfigureerde, zelfgehoste AI-chatinterface met directe integratie van krachtige taalmodellen zoals Llama of DeepSeek via Ollama . Het omvat een geoptimaliseerde instelling voor soepel functioneren zonder extra configuratie.

OpenWebUI main user interface
Hoofdgebruikersinterface van OpenWebUI

Deze template maakt gebruik van de geavanceerde API-mogelijkheden van OpenWebUI, waardoor verbeterd gespreksbeheer, contextbehoud en gestroomlijnde integratie mogelijk is in vergelijking met de eenvoudigere API van Ollama.

U kunt de versie van OpenWebUI die u wilt installeren specificeren. De standaardwaarde is onze meest recent geteste versie; u kunt echter upgraden of downgraden indien nodig. Voer eenvoudig de gewenste versie in tijdens de template-installatie.

Belangrijkste kenmerken en mogelijkheden

  • Geavanceerde webinterface: intuïtieve chatervaring direct toegankelijk via uw webbrowser.
  • Verbeterde API-mogelijkheden: Betere beheersing van gesprekskaders en eenvoudigere integratie met externe applicaties.
  • Geoptimaliseerd modelgebruik: Vooraf geïnstalleerde modellen klaar voor direct gebruik.
  • Geïntegreerde omgeving: Volledig voorgeconfigureerde omgeving met poortinstellingen en benodigde configuraties.
  • Beveiligd en Aanpasbaar: Eenvoudige instelling voor veilige aanmeldgegevens en gebruikersspecifieke configuraties.

Installatie

Voeg eenvoudig de template “OpenWebUI & Ollama” toe aan je Trooper.AI GPU Server en de installatie verloopt volledig automatisch. Indien gewenst kan het ook direct je modellen van ollama downloaden. Je kunt ze configureren in het Template Configuratie dialoogvenster.

Pre-Configure your models
Configureer uw modellen vooraf

Maar natuurlijk kun je na de installatie nog steeds modellen downloaden via de OpenWebUI.

Extra opties:

  • Updates installeren:
    Deze optie haalt de nieuwste bronnen voor Ollama en OpenWebUI op. Gebruik dit alleen als nodig, en controleer alles daarna grondig.
    Natuurlijk kun je ook handmatig updates halen via het terminal, maar vergeet niet om afhankelijkheden te installeren.
    Deze functie regelt alles voor je – handig en geautomatiseerd!

  • Geef gezondheidscontrole vrij:
    Stel dit in op ja om een gezondheidscontrole te activeren die ervoor zorgt dat de Ollama-service draait en reageert via zijn interne API.
    Indien niet, start de gezondheidscontrole automatisch de service opnieuw op.
    Het script bevindt zich op locatie /usr/local/bin/ollama-health.sh. De service kan worden bestuurd met:
    sudo service ollama-health stop/start/status.
    Dit is vooral handig voor productieservers.

OpenWebUI openen

Nadat u uw Trooper.AI serverinstantie met de OpenWebUI & Ollama template heeft geïmplementeerd, kunt u deze openen via uw aangewezen URL en poort:

bash
http://your-hostname.trooper.ai:assigned-port

Of klik op het blauwe poortnummer naast de OpenWebUI Template:

Successfully installed OpenWebUI template
OpenWebUI-sjabloon succesvol geïnstalleerd

U configureert de initiële inloggegevens bij uw eerste verbinding. Zorg ervoor dat deze gegevens veilig worden opgeslagen, aangezien ze vereist zullen zijn voor latere toegang.

Aanbevolen toepassingsgebieden

De OpenWebUI & Ollama template is ideaal voor:

  • Teamsamenwerking via AI-chat
  • Persoonlijke AI-assistent implementaties
  • Snelle ontwikkeling en prototyping van conversationele AI-applicaties
  • API-gebruik en het bouwen/aansluiten van agents als vervanging voor de OpenAI API
  • Educatieve doeleinden en onderzoekswerkzaamheden

LLM's die u zou moeten uitproberen

Naar onze mening - hier zijn een paar modellen om mee te beginnen:

  • GPT-OSS: Een open-source gewichtmodel van OpenAI, geschikt voor redeneren, taakautomatisering en ontwikkeling. Draait efficiënt op Explorer-, Conqueror-(16 GB VRAM)- en Sparbox-instances (24 GB VRAM). https://ollama.com/library/gpt-oss:20b
  • DeepSeek-R1: Een hoogpresterend open redeneringsmodel dat vergelijkbaar is met O3 en Gemini 2.5 Pro. Geoptimaliseerd voor StellarAI-machines met 48 GB VRAM. https://ollama.com/library/deepseek-r1:70b
  • Gemma 3: Momenteel een van de meest capabele modellen voor gebruik op één GPU. Voedt Trooper.AI’s James aan op Sparbox-instances.https://ollama.com/library/gemma3:27b

Vind meer LLMs hier: https://ollama.com/search (Al deze zijn compatibel met OpenWebUI!)

Technische Overwegingen

Systeemvereisten

Zorg ervoor dat het VRAM-gebruik van uw model 85% capaciteit niet overschrijdt om significante prestatievermindering te voorkomen.

  • Aanbevolen GPU VRAM: 24 GB
  • Opslag: Minimaal 180 GB vrije ruimte

Voorgeconfigureerde omgeving

  • Ollama en OpenWebUI zijn vooraf geïnstalleerd en volledig geïntegreerd.
  • Poortinstellingen en alle benodigde configuraties zijn al ingesteld, waardoor er geen verdere handmatige instelling nodig is.
  • Installatiemappen en omgevingsvariabelen zijn vooraf gedefinieerd voor onmiddellijk gebruik.

Gegevenspersistentie

Alle chatinteracties, modelconfiguraties en gebruikersinstellingen worden veilig op uw server bewaard.

Verbinden via OpenAI-compatibele API

OpenWebUI biedt een OpenAI-compatibele API-interface, waardoor naadloze integratie met tools en applicaties die het OpenAI-formaat ondersteunen mogelijk is. Hierdoor kunnen ontwikkelaars communiceren met zelf-gehoste modellen zoals llama3 alsof ze communiceren met de officiële OpenAI API – ideaal voor het integreren van conversationele AI in uw services, scripts of automatiseringsworkflows.

Eerste stappen: Voorbereiding

De API is standaard ingeschakeld, maar controleer dit in de templateconfiguratie:

API status in OpenWebUI
API-status in OpenWebUI

Schakel daarna de API-sleutelcreatie voor alle gebruikers in:

Admin Settings
Admin instellingen

Ga vervolgens naar Groep en Standaardgroep, activeer API-sleutelcreatie en klik op opslaan:

Activate API Key Creation in Default Group
Activeer API-sleutelcreatie in Standaardgroep

Dit activeert de Endpoint:

Example CURL to OpenAI compatible API endpoint in OpenWebUI
Voorbeeld CURL naar OpenAI compatibel API-eindpunt in OpenWebUI

Hieronder volgen twee werkende voorbeelden: één met Node.js en de andere met curl.

Node.js Voorbeeld

javascript
const axios = require('axios');

const response = await axios.post('https://your-secure-hostname.trooper.ai/api/chat/completions', {
  model: 'llama3',
  messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer YOUR_API_KEY'
  }
});

console.log(response.data);

Zorg ervoor dat API-aanroepen /api/... gebruiken in plaats van /v1/... omdat dit het vereiste formaat is voor OpenWebUI. /api/... in plaats van /v1/... aangezien dit het vereiste formaat is voor OpenWebUI.

cURL Voorbeeld

bash
curl https://your-secure-hostname.trooper.ai/api/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "llama3",
    "messages": [
      { "role": "user", "content": "Hello, how are you?" }
    ]
  }'

Vervang UW_API_SLEUTEL door het daadwerkelijke token dat gegenereerd wordt in de OpenWebUI-interface onder Gebruiker → Instellingen → Rekening → API-sleutels. Ga niet naar het beheerpaneel; de API-toegang is specifiek voor gebruikers! Zie hier:

User settings
Gebruikersinstellingen

Ga hierna naar:

API keys
API-sleutels

U kunt deze API gebruiken met tools zoals LangChain, N8N, FlowWise, NodeJS-OpenAI, LlamaIndex, of elke codebase die de OpenAI API-specificatie ondersteunt.

Handmatige Updates

Als u niet via het templatesysteem wilt bijwerken, kunt u op elk moment de volgende commando's uitvoeren om zowel OpenWebUI als Ollama bij te werken:

bash
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
 
# 2. Repository aktualisieren
git pull
 
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
 
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
 
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
 
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
 
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service

OpenWebUI uitschakelen

Als je wat VRAM wilt besparen, kun je OpenWebUI als volgt uitschakelen:

bash
sudo systemctl disable --now openwebui.service

Om OpenWebUI opnieuw te activeren, voer het volgende uit in de terminal:

bash
sudo systemctl enable --now openwebui.service

Support en Verdere Documentatie

Neem voor installatieondersteuning, configuratiehulp of probleemoplossing rechtstreeks contact op met de Trooper.AI support:

Aanvullende bronnen en geavanceerde configuratiehandleidingen: