Szablon OpenWebUI & Ollama dostarcza gotowy do użycia interfejs czatu z sztuczną inteligencją w wersji samodzielnie hostowanej, zapewniając bezpośrednią integrację z potężnymi modelami językowymi takimi jak Llama lub DeepSeek za pośrednictwem Ollama . Zawiera on optymalne ustawienia dla płynnej pracy bez dodatkowej konfiguracji.
Ten szablon wykorzystuje zaawansowane możliwości API OpenWebUI, zapewniając udoskonalone zarządzanie konwersacjami, trwałość kontekstu i usprawnioną integrację w porównaniu z prostszym API Ollama.
Możesz określić wersję OpenWebUI do zainstalowania. Domyślna wartość to nasza ostatnio przetestowana wersja; jednak możesz ją zaktualizować lub obniżyć w razie potrzeby. Po prostu wprowadź żądaną wersję w wartości konfiguracyjnej podczas instalacji szablonu.
Wystarczy dodać szablon “OpenWebUI & Ollama” do swojego serwera GPU Trooper.AI, a instalacja przebiegnie całkowicie automatycznie. Jeśli chcesz, może również bezpośrednio pobierać modele z Ollama. Możesz je skonfigurować w oknie dialogowym Konfiguracji Szablonu.
Oczywiście, możesz nadal pobierać modele przez OpenWebUI po instalacji.
Dodatkowe opcje:
Aktualizacja instalacji:
Ta opcja pobiera najnowsze źródła dla Ollamy i OpenWebUI. Użyj jej tylko wtedy, gdy jest to konieczne, oraz upewnij się później, że wszystko działa poprawnie.
Oczywiście możesz również wykonać ręczne aktualizacje przez terminal, ale pamiętaj także o zainstalowaniu zależności.
Ta funkcja zajmie się tym za Ciebie – wygodne i automatyczne!
Aktywuj Sprawdzanie Stanu (Health Check):
Ustaw to na tak, aby włączyć sprawdzanie stanu, które zapewnia, że usługa Ollama działa i odpowiada przez wewnętrzne API.
Jeśli nie działa, sprawdzenie stanu automatycznie restartuje usługę.
Skrypt znajduje się pod ścieżką /usr/local/bin/ollama-health.sh, a sterowanie usługą odbywa się za pomocą:
sudo service ollama-health stop/start/status.
To jest szczególnie przydatne dla serwerów produkcyjnych.
Po wdrożeniu instancji serwera Trooper.AI z szablonem OpenWebUI & Ollama, uzyskaj do niej dostęp za pomocą przypisanego adresu URL i portu:
http://your-hostname.trooper.ai:assigned-port
Lub kliknij na niebieski numer portu obok szablonu OpenWebUI:
Skonfigurujesz początkowe dane logowania przy pierwszym połączeniu. Upewnij się, że te dane są przechowywane w bezpiecznym miejscu, ponieważ będą wymagane do dalszego dostępu.
Szablon OpenWebUI i Ollama jest idealny do:
Z naszej perspektywy – oto kilka modeli, od których warto zacząć:
Znajdź więcej modeli językowych tutaj: https://ollama.com/search (Wszystkie są kompatybilne z OpenWebUI!)
Upewnij się, że wykorzystanie VRAM przez model nie przekracza 85% pojemności, aby zapobiec znacznemu pogorszeniu wydajności.
Wszystkie interakcje z czatem, konfiguracje modeli i ustawienia użytkownika są bezpiecznie przechowywane na Twoim serwerze.
OpenWebUI zapewnia interfejs API kompatybilny z OpenAI, umożliwiając bezproblemową integrację z narzędziami i aplikacjami obsługującymi format OpenAI. Pozwala to programistom na interakcję z modelami hostowanymi samodzielnie, takimi jak llama3 tak jakby komunikowali się z oficjalnym API OpenAI — idealne do osadzania sztucznej inteligencji konwersacyjnej w Twoich usługach, skryptach lub przepływach automatyzacji.
API jest domyślnie włączone, ale sprawdź w konfiguracji szablonu:
Po tym włącz tworzenie kluczy API dla wszystkich użytkowników:
Następnie przejdź do Grupy i Domyślnej Grupy, aktywuj tworzenie klucza API, kliknij Zapisz:
To aktywuje punkt końcowy:
Poniżej znajdują się dwa przykłady: jeden wykorzystujący Node.js, a drugi używający curl.
const axios = require('axios');
const response = await axios.post('https://your-secure-hostname.trooper.ai/api/chat/completions', {
model: 'llama3',
messages: [{ role: 'user', content: 'Hello, how are you?' }],
}, {
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
});
console.log(response.data);
Upewnij się, że wywołania API wykorzystują
/api/...zamiast/v1/...ponieważ jest to wymagany format dla OpenWebUI.
curl https://your-secure-hostname.trooper.ai/api/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "Hello, how are you?" }
]
}'
Zastąp YOUR_API_KEY rzeczywistym tokennem wygenerowanym w interfejsie OpenWebUI pod punktem Użytkownik → Ustawienia → Konto → Klucze API. Nie wchodź do panelu administracyjnego – dostęp do API jest indywidualny dla użytkownika! Sprawdź tutaj:
Po tym przejdź tutaj:
Możesz użyć tego API z narzędziami takimi jak LangChain, N8N, FlowWise, NodeJS-OpenAI, LlamaIndex, lub dowolnym kodem obsługującym specyfikację API OpenAI.
Jeśli nie chcesz aktualizować za pomocą systemu szablonów, możesz w dowolnym momencie uruchomić następujące polecenia, aby zaktualizować zarówno OpenWebUI, jak i Ollama:
# Update OpenWebUI:
# 1. Zum OpenWebUI-Verzeichnis wechseln
cd /home/trooperai/openwebui
# 2. Repository aktualisieren
git pull
# 3. Frontend-Abhängigkeiten installieren und neu bauen
npm install
npm run build
# 4. Backend: Python-Venv aktivieren
cd backend
source venv/bin/activate
# 5. Pip aktualisieren & Abhängigkeiten neu installieren
pip install --upgrade pip
pip install -r requirements.txt -U
# 6. OpenWebUI systemd-Dienst neu starten
sudo systemctl restart openwebui.service
# (optional) Update Ollama:
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl restart ollama.service
Jeśli chcesz zaoszczędzić trochę VRAM, możesz wyłączyć OpenWebUI w ten sposób:
sudo systemctl disable --now openwebui.service
Aby ponownie włączyć OpenWebUI, uruchom w terminalu:
sudo systemctl enable --now openwebui.service
W razie potrzeby pomocy przy instalacji, konfiguracji lub rozwiązywaniu problemów, prosimy o bezpośredni kontakt z supportem Trooper.AI:
Dodatkowe zasoby i zaawansowane przewodniki konfiguracyjne: