Trooper.AI bietet dedizierte GPU-Server mit NVIDIA A100 40 GB und Tesla V100 32 GB Konfigurationen, die eine kompromisslose Leistung für unternehmenseigene KI-Workloads 🚀 bieten. Unsere Lösungen wurden entwickelt, um Ihre IT-Teams mit den Ressourcen auszustatten, die für das Training großer Modelle, komplexe KI-Inferenz und effizientes LLM-Feintuning benötigt werden. Trooper.AI wurde für Produktionsumgebungen entwickelt und wird sicher innerhalb der EU gehostet, um eine zuverlässige und skalierbare GPU-Infrastruktur für Ihr Unternehmen zu gewährleisten.
Unsere A100 40 GB Instanzen bieten:
Wir lieben KI, um Ihnen die beste KI überhaupt zu bieten:




Unser Angebot an V100 32 GB Instanzen ist größtenteils vergleichbar, die Unterschiede sind:
| GPU | VRAM | SDXL (16 Bilder)* | LLM 8b Token/s** |
|---|---|---|---|
| A100 | 40 GB | 1:18 Min. | 104 r_t/s |
| 4090 | 24/48 GB | 1:19 Min. | 87 r_t/s |
| V100 | 16/32 GB | 2:36 Min. | 62 r_t/s |
| 3090 | 24 GB | 2:24 Min. | 69 r_t/s |
Geschwindigkeits-Benchmark durchgeführt mit Automatic1111 v1.6.0 mit den folgenden Einstellungen:
Modell: sd_xl_base.1.0, Prompt: “cute Maltese puppy on green grass” (keine negative Eingabeaufforderung),
Sampler: DPM++ 2M Karras,
Kein Refiner, keine Hires Fix,
CFG Scale: 7, Schritte: 30,
Auflösung: 1024×1024,
Batch Count: 4, Batch Size: 4,
Zufälliger Seed, PNG Bilder.
LLM-Geschwindigkeits-Benchmark durchgeführt mit einer Standard-OpenWebUI-Installation ohne Änderungen.
Kontextlänge: 2048 (Standard).
Keine Systemaufforderung.
Abfrageaufforderung: Nennen Sie die 5 größten Gemeinsamkeiten zwischen einem Wildtiger und einer Hauskatze.
Modell (klein): llama3.1:8b-instruct-q8_0
Bester Wert aus 3 Durchläufen, gemessen in Antwort-Token pro Sekunde – höhere Werte deuten auf eine bessere Leistung hin.
Entdecken Sie unsere NVIDIA A100 Server-Optionen und Preise. Server mit einer „.de“-Domain befinden sich in Deutschland in ISO/IEC 27001 zertifizierten Rechenzentren.
| Blib-Name | GPU | CPU RAM | Kerne | NVMe | Monatlicher Preis |
|---|---|---|---|---|---|
| infinityai.m1 | 1× A100 40 GB | 78 GB | 8 | 900 GB | €790/m |
| infinityai.m1.de | 1× A100 40 GB | 78 GB | 8 | 900 GB | €845/m |
| infinityai.l1.de | 1× A100 40 GB | 92 GB | 20 | 1200 GB | €885/m |
| infinityai.m2 | 2× A100 40 GB | 140 GB | 10 | 1200 GB | €1490/m |
| infinityai.m2.de | 2× A100 40 GB | 140 GB | 10 | 1200 GB | €1570/m |
| infinityai.m4 | 4× A100 40 GB | 356 GB | 30 | 2000 GB | €2940/m |
| infinityai.m4.de | 4× A100 40 GB | 356 GB | 30 | 2000 GB | €3095/m |
| infinityai.l6.de | 6× A100 40 GB | 512 GB | 120 | 3900 GB | €4825/m |
| infinityai.l8.de | 8× A100 40 GB | 768 GB | 160 | 5350 GB | €6430/m |
Entdecken Sie zusätzlich unsere NVIDIA V100 Serveroptionen und Preise. Server werden in einem Tier 3 Datenzentrum in den Niederlanden gehostet.
| Blib-Name | GPU | CPU RAM | Kerne | NVMe | Monatlicher Preis |
|---|---|---|---|---|---|
| novatesla.s1 | 1× Tesla V100 32 GB | 42 GB | 4 | 180 GB | €240/m |
| novatesla.m1 | 1× Tesla V100 32 GB | 58 GB | 8 | 600 GB | €270/m |
| novatesla.l1 | 1× Tesla V100 32 GB | 64 GB | 12 | 900 GB | €290/m |
| novatesla.s2 | 2× Tesla V100 32 GB | 84 GB | 6 | 180 GB | €440/m |
| novatesla.m2 | 2× Tesla V100 32 GB | 116 GB | 10 | 600 GB | €475/m |
| novatesla.l2 | 2× Tesla V100 32 GB | 128 GB | 24 | 1200 GB | €540/m |
| novatesla.m3 | 3× Tesla V100 32 GB | 174 GB | 24 | 900 GB | €730/m |
| novatesla.m4 | 4× Tesla V100 32 GB | 232 GB | 48 | 900 GB | €990/m |
| novatesla.l4 | 4× Tesla V100 32 GB | 232 GB | 64 | 1600 GB | €1050/m |
| novatesla.l8.nvlink | 8× Tesla V100 32 GB | 464 GB | 96 | 3800 GB | €2035/m |
Mindestlaufzeit für Enterprise-Dienste ist 12 Monate.
Vereinbaren Sie eine persönliche Führung durch unsere GPU-Server und besprechen Sie Ihre spezifischen Unternehmensanforderungen mit unserem Vertriebsteam. Wir bieten maßgeschneiderte Lösungen zur Optimierung Ihrer KI-Workflows und bieten Ihnen engagierten Support bei jedem Schritt. Kontaktieren Sie noch heute den Vertrieb unter sales@trooper.ai Um mehr über unsere Angebote zu erfahren und ein individuelles Angebot zu erhalten, stehen wir Ihnen gerne für Fragen zur Verfügung und helfen Ihnen bei der Bestimmung der optimalen Konfiguration für Ihre Anforderungen.