Trooper.AI liefert NVIDIA V100 16 GB & 32 GB GPU-Server mit voller Leistung und ohne Overhead. Egal, ob Sie große Modelle trainieren, komplexe KI-Inferenz durchführen oder LLMs feinabstimmen – unsere Ampere-basierte NVIDIA V100 Instanzen sind für den Produktionseinsatz bereit und werden sicher in der EU gehostet.
Unsere V100 32/16 GB Instanzen bieten:
Wir lieben KI, um Ihnen die beste KI überhaupt zu bieten:



Starten Sie jetzt den V100 Server
| GPU | VRAM | SDXL (16 Bilder)* | LLM 8b Token/s** |
|---|---|---|---|
| V100 | 16/32 GB | 2:36 Min. | 62 r_t/s |
| 4090 | 24/48 GB | 1:19 Min. | 87 r_t/s |
| A100 | 40 GB | 1:18 Min. | 104 r_t/s |
| 3090 | 24 GB | 2:24 Min. | 69 r_t/s |
Geschwindigkeits-Benchmark durchgeführt mit Automatic1111 v1.6.0 mit den folgenden Einstellungen:
Modell: sd_xl_base.1.0, Prompt: “cute Maltese puppy on green grass” (keine negative Eingabeaufforderung),
Sampler: DPM++ 2M Karras,
Kein Refiner, keine Hires Fix,
CFG Scale: 7, Schritte: 30,
Auflösung: 1024×1024,
Batch Count: 4, Batch Size: 4,
Zufälliger Seed, PNG Bilder.
LLM-Geschwindigkeits-Benchmark durchgeführt mit einer Standard-OpenWebUI-Installation ohne Änderungen.
Kontextlänge: 2048 (Standard).
Keine Systemaufforderung.
Abfrageaufforderung: Nennen Sie die 5 größten Gemeinsamkeiten zwischen einem Wildtiger und einer Hauskatze.
Modell (klein): llama3.1:8b-instruct-q8_0
Bester Wert aus 3 Durchläufen, gemessen in Antwort-Token pro Sekunde – höhere Werte deuten auf eine bessere Leistung hin.
Entdecken Sie unsere V100-Serveroptionen und Preisgestaltung. Server mit einer „.de“-Domain befinden sich in Deutschland innerhalb von ISO/IEC 27001 zertifizierten Rechenzentren.
16 GB VRAM:
| Blib-Name | GPU | CPU RAM | Kerne | NVMe | Preis | Aktionspreis* |
|---|---|---|---|---|---|---|
| novadrive.s1 | 1× Tesla V100 16 GB | 32 GB | 4 | 180 GB | €0.12/h or €65/m | |
| novadrive.m1 | 1× Tesla V100 16 GB | 58 GB | 8 | 600 GB | €0.14/h or €83/m | |
| novadrive.s2 | 2× Tesla V100 16 GB | 42 GB | 6 | 240 GB | €0.21/h or €120/m | |
| novadrive.m2 | 2× Tesla V100 16 GB | 76 GB | 10 | 800 GB | €0.24/h or €138/m |
32 GB VRAM:
| Blib-Name | GPU | CPU RAM | Kerne | NVMe | Preis | Aktionspreis* |
|---|---|---|---|---|---|---|
| novatesla.s1 | 1× Tesla V100 32 GB | 42 GB | 4 | 180 GB | €0.21/h or €120/m | |
| novatesla.m1 | 1× Tesla V100 32 GB | 58 GB | 8 | 600 GB | €0.23/h or €135/m | |
| novatesla.s2 | 2× Tesla V100 32 GB | 84 GB | 6 | 180 GB | €0.38/h or €220/m | |
| novatesla.m2 | 2× Tesla V100 32 GB | 116 GB | 10 | 600 GB | €0.41/h or €238/m | |
| novatesla.l2 | 2× Tesla V100 32 GB | 128 GB | 24 | 1200 GB | €0.47/h or €270/m | |
| novatesla.m3 | 3× Tesla V100 32 GB | 174 GB | 24 | 900 GB | €0.63/h or €365/m | |
| novatesla.m4 | 4× Tesla V100 32 GB | 232 GB | 48 | 900 GB | €0.86/h or €495/m | |
| novatesla.l4 | 4× Tesla V100 32 GB | 232 GB | 64 | 1600 GB | €0.92/h or €525/m | |
| novatesla.l8.nvlink | 8× Tesla V100 32 GB | 464 GB | 96 | 3800 GB | €1.77/h or €1018/m |
Wöchentliche und monatliche Abonnements bieten reduzierte Preise. Der Aktionspreis beinhaltet einen 100%igen Budgetbonus, gültig für diesen Monat.
Starten Sie jetzt den V100 Server
Wir warten unsere Server sorgfältig, was sich beispielsweise in unseren Builds wie dem V100 32GB „Novadrive“ widerspiegelt. Dies ermöglicht es Ihnen, sich auf Ihre KI-Projekte – Entwicklung oder Produktion – zu konzentrieren, ohne sich Gedanken über die Hardware machen zu müssen. Als Boutique-Hyperscaler in Europa bieten wir Ihnen eine besondere Aufmerksamkeit für Details und Leistung.
Mieten Sie noch heute Ihren eigenen GPU-Server und beginnen Sie mit dem Erstellen erstaunlicher KI-Anwendungen! Die Trooper.AI GPU-Server basieren auf rein wiederaufbereiteten High-End-Technologien der letzten Jahre und wurden entwickelt, um Ihnen die beste Leistung, Sicherheit und Zuverlässigkeit für alle Ihre KI-Bedürfnisse zu bieten.
EU-Standort · Hohe Privatsphäre · Hervorragende Leistung · Bester Support