n8n er en kraftfuld no-code workflow automatiseringsplatform, ideel til at bygge brugerdefinerede AI-pipelines og integrationer. Kør n8n self-hosted på en dedikeret GPU-server fra Trooper.ai for maksimal ydeevne og kontrol.
Kombiner Trooper.AI's dedikerede GPU-ressourcer med n8n's fleksible automatisering for at opbygge og implementere AI-drevne workflows effektivt. Perfekt til opgaver som billed-/videobehandling, dataanalyse og automatisering af AI-modelinferens.
Vigtig at vide! For en optimal oplevelse, installer AI-værktøjer som ComfyUI og Ollama direkte på serveren for at integrere dem med dine n8n-workflows. Sørg for tilstrækkelig GPU-VRAM til at understøtte alle modeller og tildel dedikerede ressourcer adskilt fra den n8n Docker-container.
n8n er en kraftfuld no-code workflow automatiseringsplatform, der er ideel til hurtigt at bygge brugerdefinerede integrationer og automatisere komplekse opgaver. ✨ Den er særligt nyttig til:
n8n giver brugere på alle tekniske niveauer mulighed for at opbygge og implementere automatiserede workflows, der forbinder apps, behandler data og automatiserer opgaver, hvilket sparer tid og ressourcer. Det er perfekt til dem, der leder efter en plug-and-play løsning på komplekse automatiseringsudfordringer.
For at maksimere funktionaliteten, forbind n8n til lokale værktøjer som Ollama ved hjælp af OpenWebUI & Ollama-malen. Følg disse trin:
Konstruer en grundlæggende workflow ved hjælp af sekvensen “Chat Besked” -> “Agent” -> “Ollama Chat Model”.
Konfigurer Ollama-noden som følger:
Sørg for at Base URL er indstillet til http://host.docker.internal:11434, og at malen OpenWebUI & Ollama er installeret, konfigureret og testet med din foretrukne model. For at udfylde modallisten i n8n-Ollama-noden skal du forbinde noden som vist på det ovenstående skærmbillede og genåbn den. De tilgængelige modeller vil derefter blive vist.
Vigtig: Vi anbefaler at bruge malen OpenWebUI & Ollama, som inkluderer Ollama, for at sikre en problemfri integration med n8n. For optimal sikkerhed og ydeevne råder vi til at deploye både n8n og Ollama på GPU-serveren i stedet for at forbinde til en lokal instans.
Konfigurer n8n med vores sikre SSL-proxy ved at inkludere følgende parametre:
-e N8N_SECURE_COOKIE=false -e N8N_RUNNERS_ENABLED=true -e N8N_HOST=fsdf4t4-hdf4t46-hu6teg.apps02.trooper.cloud -e WEBHOOK_URL=https://fsdf4t4-hdf4t46-hu6teg.apps02.trooper.cloud/
Udvid dine miljøvariabler med N8N_HOST og WEBHOOK_URL, ved hjælp af din sikre URL (tilgængelig ved at klikke på skabeloninstallationsportnummeret).
For at låse alle fællesfunktioner op, bedes du indsende en gyldig e-mailadresse for at modtage din gratis aktiveringskode. 🎉
Aktiver din licens: Brug knappen ovenover eller indtast manuelt licenskoden i Indstillinger → Brug → Plan. Du har 14 dage til at fuldføre aktivering. 🔑
Udforsk afslørede funktioner: Nyd adgang til Arbejdsgangshistorik, Fejlsøg i Redigeringsværktøjet, Mapper og Søg efter Tilpasset Kørsel. ✨
Livstidsadgang: Disse funktioner er låst op til livstid.

Efter at have fulgt de angivne instruktioner og gennemført trinene, som agenten har beskrevet (i chatvinduet i n8n), skulle du nu kunne se dette eksempel-workflow, der er klar til brug med Google Kalender. Vores skabelon understøtter fuldt ud sikre webhooks og planlagte cron jobs for pålidelig automatisering.
Vi ønsker dig held og lykke med at bygge dine automatiserede workflows!
Data Location: Din n8n-data er placeret i /home/trooperai/docker_n8n_data. Det er afgørende at overvåge denne mappe og implementere en sikkerhedskopi-strategi, særligt før opdateringer til Docker eller selve serveren. Dette sikrer databevarelse og glat genopretning ved behov.
Webhooks eller Workflow ikke kører: Tjek SSL-Proxy-konfigurationen for at sikre, at din sikrede offentlige proxy-URL fungerer korrekt.
SQL-node: For at forbinde til en lokal SQL-database, skal du bruge host.docker.internal med den korrekte port – f.eks. 5432 for PostgreSQL eller 3306 for MySQL – da n8n kører inden i en Docker-container.