Beliebiges Docker

Diese Vorlage ermöglicht Ihnen die Bereitstellung sowohl GPU-beschleunigter Docker-Container wie ComfyUI als auch Container ohne GPU-Unterstützung, wie z.B. n8n. Diese Flexibilität ermöglicht eine breite Palette von Anwendungen, von der KI-Bildgenerierung bis hin zu automatisierten Workflows, alles in einer einzigen, überschaubaren Umgebung. Konfigurieren und starten Sie Ihre gewünschten Docker-Container mühelos und nutzen Sie die Leistung und den Komfort dieser vielseitigen Vorlage.

Auch wenn Sie Docker-Konfigurationen lieber direkt verwalten, empfehlen wir die Verwendung unserer "Any Docker"-Vorlage. für die erste EinrichtungDie Konfiguration von Docker mit GPU-Unterstützung kann komplex sein, und diese Vorlage bietet eine optimierte Grundlage für den Aufbau und die Bereitstellung Ihrer Container.

Beispiel: Ausführen von N8N mit Any Docker

In diesem Beispiel konfigurieren wir Any Docker mit Ihren Einstellungen für N8N und persistenter Datenspeicherung, sodass Neustarts mit intakten Daten möglich sind. Diese Konfiguration beinhaltet keine Webhooks. Wenn Sie Webhooks benötigen, gehen Sie zum dedizierten vorkonfigurierten Template: n8n

Diese Anleitung dient nur zur Erklärung. Sie können jeden Docker-Container starten, den Sie möchten.

Konfigurationsabbildungen finden Sie unten:

N8N any docker setup 1/4
N8N – Beliebige Docker-Konfiguration 1/4

N8N any docker setup 2/4
N8N beliebige Docker-Einrichtung 2/4

N8N any docker setup 3/4
N8N beliebige Docker-Konfiguration 3/4

N8N any docker setup 4/4 - result
N8N beliebige Docker-Einrichtung 4/4 - Ergebnis

Der Docker-Befehl ‘Unter der Haube’

Diese Vorlage automatisiert die vollständige Einrichtung eines GPU-fähigen Docker-Containers, einschließlich der Installation aller erforderlichen Ubuntu-Pakete und Abhängigkeiten für die NVIDIA-GPU-Unterstützung. Dies vereinfacht den Prozess, insbesondere für Benutzer, die mit Docker-Bereitstellungen für Webserver vertraut sind, welche oft eine komplexere Konfiguration erfordern.

Das Folgende docker run Der Befehl wird automatisch vom Template generiert, um Ihren ausgewählten GPU-Container zu starten. Er enthält alle erforderlichen Einstellungen für optimale Leistung und Kompatibilität mit Ihrem Trooper.AI Server.

Dieser Befehl dient als illustratives Beispiel, um Entwicklern Einblick in die zugrunde liegenden Prozesse zu geben:

bash
docker run -d \
  --name ${CONTAINER_NAME} \
  --restart always \
  --gpus ${GPUS} \
  --add-host=host.docker.internal:host-gateway \
  -p ${PUBLIC_PORT}:${DOCKER_PORT} \
  -v ${LOCAL_DATA_DIR}:/home/node/.n8n \
  -e N8N_SECURE_COOKIE=false \
  -e N8N_RUNNERS_ENABLED=true \
  -e N8N_HOST=${N8N_HOST} \
  -e WEBHOOK_URL=${WEBHOOK_URL} \
  docker.n8n.io/n8nio/n8n \
  tail -f /dev/null

Verwenden Sie diesen Befehl nicht manuell, wenn Sie kein Docker-Experte sind! Vertrauen Sie stattdessen der Vorlage.

Was ermöglicht N8N auf dem privaten GPU-Server?

n8n ermöglicht das Ausführen komplexer Workflows direkt auf Ihrem Trooper.AI GPU-Server. Das bedeutet, Sie können Aufgaben automatisieren, die Bild-/Videoverarbeitung, Datenanalyse, LLM-Interaktionen und mehr umfassen – wobei Sie die Leistung der GPU für beschleunigte Performance nutzen.

Konkret können Sie Workflows für Folgendes ausführen:

  • Bild-/Videomanipulation: Automatisieren Sie Größenänderungen, Wasserzeichen, Objekterkennung und andere visuelle Aufgaben.
  • Datenverarbeitung: Daten aus verschiedenen Quellen extrahieren, transformieren und laden.
  • LLM-Integration: Verbinden Sie sich mit großen Sprachmodellen und interagieren Sie mit ihnen für Aufgaben wie Textgenerierung, Übersetzung und Sentimentanalyse.
  • Webautomatisierung: Automatisieren Sie Aufgaben über verschiedene Websites und APIs hinweg.
  • Benutzerdefinierte Workflows: Erstellen und implementieren Sie jeden automatisierten Prozess, der auf Ihre Bedürfnisse zugeschnitten ist.

Beachten Sie, dass Sie KI-Tools wie ComfyUI und Ollama installieren müssen, um diese in Ihre N8N-Workflows auf dem Server zu integrieren. Sie benötigen außerdem ausreichend GPU-VRAM, um alle Modelle mit Strom zu versorgen. Weisen Sie die GPUs nicht dem Docker-Container zu, der N8N ausführt.

Was ist Docker im Zusammenhang mit einem GPU-Server?

Auf einem Trooper.AI GPU-Server ermöglicht Docker das Verpacken von Anwendungen mit ihren Abhängigkeiten in standardisierte Einheiten, sogenannte Container. Dies ist besonders leistungsstark für GPU-beschleunigte Workloads, da es Konsistenz über verschiedene Umgebungen hinweg gewährleistet und die Bereitstellung vereinfacht. Anstatt Abhängigkeiten direkt auf dem Host-Betriebssystem zu installieren, enthalten Docker-Container alles, was eine Anwendung zum Ausführen benötigt – einschließlich Bibliotheken, Systemtools, Laufzeitumgebung und Einstellungen.

Für GPU-Anwendungen ermöglicht Docker Ihnen die effiziente Nutzung der GPU-Ressourcen des Servers. Durch die Verwendung des NVIDIA Container Toolkits können Container auf die GPUs des Hosts zugreifen, was beschleunigtes Computing für Aufgaben wie Machine Learning, Deep Learning Inference und Datenanalyse ermöglicht. Diese Isolation verbessert auch die Sicherheit und das Ressourcenmanagement, sodass mehrere Anwendungen die GPU gemeinsam nutzen können, ohne sich gegenseitig zu beeinträchtigen. Das Deployment und die Skalierung von GPU-basierten Anwendungen werden mit Docker auf einem Trooper.AI Server deutlich einfacher.

Mehr Docker ausführen

Sie können problemlos mehrere Docker-Container ausführen und sich bei Bedarf über folgende Kanäle Unterstützung holen: Support-Kontakte