Ten OpenWebUI i Ollama Szablon zapewnia prekonfigurowany, samodzielnie hostowany interfejs czatu AI z bezpośrednią integracją potężnych modeli językowych, takich jak Llama lub DeepSeek poprzez Ollama Zawiera zoptymalizowaną konfigurację zapewniającą bezproblemowe działanie bez dodatkowych ustawień.
This template leverages the advanced API capabilities of OpenWebUI, providing enhanced conversation management, context persistence, and streamlined integration compared to Ollama’s simpler API.
Wystarczy dodać szablon “OpenWebUI & Ollama” do swojego serwera GPU Trooper.AI, a instalacja przebiegnie całkowicie automatycznie. Jeśli chcesz, może również bezpośrednio pobierać modele z Ollama. Możesz je skonfigurować w oknie dialogowym Konfiguracji Szablonu.
Oczywiście, możesz nadal pobierać modele przez OpenWebUI po instalacji.
Dodatkowe opcje:
Aktualizuj instalacje:
Ta opcja pobiera najnowszy kod źródłowy dla Ollama i OpenWebUI. Użyj jej tylko w razie potrzeby i upewnij się, że wszystko zweryfikujesz później.
Oczywiście, możesz również ręcznie pobierać aktualizacje przez terminal, ale pamiętaj o zainstalowaniu zależności.
Ta funkcja załatwia wszystko za Ciebie – wygodne i zautomatyzowane!
Aktywuj sprawdzanie stanu:
Ustaw to na yes aby włączyć sprawdzanie stanu, które zapewnia, że usługa Ollama działa i odpowiada przez jej wewnętrzne API.
W przeciwnym razie automatycznie uruchomi się ponownie sprawdzanie stanu usługi.
Skrypt znajduje się pod adresem /usr/local/bin/ollama-health.shi usługą można zarządzać za pomocą:
sudo service ollama-health stop/start/status.
Jest to szczególnie przydatne w przypadku serwerów produkcyjnych.
Po wdrożeniu instancji serwera Trooper.AI z szablonem OpenWebUI & Ollama, uzyskaj do niej dostęp za pomocą przypisanego adresu URL i portu:
http://your-hostname.trooper.ai:assigned-port
Lub kliknij na niebieski numer portu obok szablonu OpenWebUI:
Skonfigurujesz początkowe dane logowania przy pierwszym połączeniu. Upewnij się, że te dane są przechowywane w bezpiecznym miejscu, ponieważ będą wymagane do dalszego dostępu.
Szablon OpenWebUI i Ollama jest idealny do:
Z naszej perspektywy – oto kilka modeli, od których warto zacząć:
Znajdź więcej LLM-ów tutaj: https://ollama.com/search (Wszystkie z nich są kompatybilne z OpenWebUI!)
Upewnij się, że wykorzystanie VRAM przez model nie przekracza 85% pojemności, aby zapobiec znacznemu pogorszeniu wydajności.
Wszystkie interakcje z czatem, konfiguracje modeli i ustawienia użytkownika są bezpiecznie przechowywane na Twoim serwerze.
OpenWebUI zapewnia interfejs API kompatybilny z OpenAI, umożliwiając bezproblemową integrację z narzędziami i aplikacjami obsługującymi format OpenAI. Pozwala to programistom na interakcję z modelami hostowanymi samodzielnie, takimi jak llama3 tak jakby komunikowali się z oficjalnym API OpenAI — idealne do osadzania sztucznej inteligencji konwersacyjnej w Twoich usługach, skryptach lub przepływach automatyzacji.
Poniżej znajdują się dwa przykłady: jeden wykorzystujący Node.js, a drugi używający curl.
const axios = require('axios');
const response = await axios.post('http://your-hostname.trooper.ai:assigned-port/v1/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
curl http://your-hostname.trooper.ai:assigned-port/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Zastąp YOUR_API_KEY z właściwym tokenem wygenerowanym w interfejsie OpenWebUI pod Użytkownik → Ustawienia → Konto → Klucze API. Do not go into admin panel, the API access is user specific! See here:
Po tym przejdź tutaj:
Możesz użyć tego API z narzędziami takimi jak LangChain, LlamaIndex lub dowolnym kodem bazowym obsługującym specyfikację OpenAI API.
Jeśli nie chcesz aktualizować za pomocą systemu szablonów, możesz w dowolnym momencie uruchomić następujące polecenia, aby zaktualizować zarówno OpenWebUI, jak i Ollama:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
W razie potrzeby pomocy przy instalacji, konfiguracji lub rozwiązywaniu problemów, prosimy o bezpośredni kontakt z supportem Trooper.AI:
Dodatkowe zasoby i zaawansowane przewodniki konfiguracyjne: