Der OpenWebUI & Ollama Die Vorlage bietet eine vorkonfigurierte, selbst gehostete KI-Chatoberfläche mit direkter Integration leistungsstarker Sprachmodelle wie Llama oder DeepSeek. Ollama Es beinhaltet eine optimierte Konfiguration für einen reibungslosen Betrieb ohne zusätzliche Konfiguration.
Diese Vorlage nutzt die erweiterten API-Funktionen von OpenWebUI und bietet so eine verbesserte Gesprächsverwaltung, Kontextpersistenz und eine optimierte Integration im Vergleich zur einfacheren API von Ollama.
Fügen Sie einfach die Vorlage „OpenWebUI & Ollama“ zu Ihrem Trooper.AI GPU Server hinzu und die Installation erfolgt vollständig automatisch. Wenn Sie möchten, kann es Ihre Modelle auch direkt von ollama herunterladen. Sie können diese im Vorlagenkonfigurationsdialog konfigurieren.
Sie können Modelle natürlich auch nach der Installation über die OpenWebUI herunterladen.
Zusätzliche Optionen:
Installationen aktualisieren:
Diese Option lädt den neuesten Quellcode für Ollama und OpenWebUI herunter. Verwenden Sie diese nur, wenn es unbedingt erforderlich ist, und überprüfen Sie anschließend alles.
Selbstverständlich können Sie auch manuelle Pulls über das Terminal durchführen, sollten Sie dabei aber nicht vergessen, auch die Abhängigkeiten zu installieren.
Diese Funktion erledigt alles für Sie – bequem und automatisiert!
Gesundheitscheck aktivieren:
Setze dies auf yes um eine Zustandsprüfung zu aktivieren, die sicherstellt, dass der Ollama-Dienst läuft und über seine interne API antwortet.
Wenn dies nicht der Fall ist, startet die Gesundheitsprüfung den Dienst automatisch neu.
Das Skript befindet sich unter /usr/local/bin/ollama-health.sh, und der Dienst kann mit gesteuert werden:
sudo service ollama-health stop/start/status.
Dies ist besonders nützlich für Produktionsserver.
Nach dem Bereitstellen Ihrer Trooper.AI Serverinstanz mit der OpenWebUI & Ollama Vorlage, greifen Sie über die zugewiesene URL und den Port darauf zu:
http://your-hostname.trooper.ai:assigned-port
Oder klicken Sie auf die blaue Portnummer neben der OpenWebUI-Vorlage:
Sie konfigurieren die anfänglichen Anmeldedaten bei der ersten Verbindung. Stellen Sie sicher, dass Sie diese Anmeldedaten sicher aufbewahren, da sie für den späteren Zugriff erforderlich sind.
Die OpenWebUI & Ollama Vorlage eignet sich ideal für:
Unserer Meinung nach sind hier ein paar Modelle, mit denen Sie beginnen können:
Hier finden Sie weitere LLMs: https://ollama.com/search (Diese sind alle mit OpenWebUI kompatibel!)
Stellen Sie sicher, dass die VRAM-Auslastung Ihres Modells 85 % nicht überschreitet, um eine erhebliche Leistungsverschlechterung zu vermeiden.
Alle Chat-Interaktionen, Modelleinstellungen und Benutzereinstellungen werden sicher auf Ihrem Server gespeichert.
OpenWebUI bietet eine OpenAI-kompatible API-Schnittstelle, die eine nahtlose Integration mit Tools und Anwendungen ermöglicht, die das OpenAI-Format unterstützen. Dies ermöglicht Entwicklern die Interaktion mit selbst gehosteten Modellen wie llama3 als ob sie mit der offiziellen OpenAI-API kommunizieren – ideal, um Konversations-KI in Ihre Dienste, Skripte oder Automatisierungsabläufe einzubetten.
Im Folgenden finden Sie zwei funktionierende Beispiele: eines mit Node.js und das andere mit curl.
const axios = require('axios');
const response = await axios.post('http://your-hostname.trooper.ai:assigned-port/v1/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
curl http://your-hostname.trooper.ai:assigned-port/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Ersetzen YOUR_API_KEY mit dem tatsächlichen Token, das in der OpenWebUI-Schnittstelle generiert wurde Benutzer → Einstellungen → Konto → API-SchlüsselGehen Sie nicht in das Admin-Panel, der API-Zugriff ist benutzerspezifisch! Siehe hier:
Gehen Sie danach hierher:
Sie können diese API mit Tools wie LangChain, LlamaIndex oder jeder Codebasis verwenden, die die OpenAI API-Spezifikation unterstützt.
Wenn Sie nicht über das Vorlagensystem aktualisieren möchten, können Sie jederzeit die folgenden Befehle ausführen, um sowohl OpenWebUI als auch Ollama zu aktualisieren:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
Für Installationsunterstützung, Konfigurationshilfe oder Fehlerbehebung wenden Sie sich bitte direkt an den Trooper.AI Support:
Zusätzliche Ressourcen und erweiterte Konfigurationsanleitungen: