Mieten Sie Server mit wiederaufbereiteten Hardwarekomponenten, darunter GPUs wie 3090, 4090, A4000, V100 und A100, sowie Intel Xeon oder AMD Epyc Prozessoren zu günstigen Preisen.
Unsere GPU-Server-Preise sind einfach:
| Blib-Name | GPU | CPU RAM | Kerne | NVMe | Preis | +50% Aktionspreis** |
|---|---|---|---|---|---|---|
| Erkunder | 1–6× RTX A4000 16 GB | 20–452 GB | 4–52 | 180–1200 GB | €0.15/h or €83/m | |
| Novadrive | 1–4× Tesla V100 16 GB | 26–120 GB | 4–18 | 180–600 GB | €0.15/h or €87/m | |
| Eroberer | 1–4× RTX 4070 Ti Super 16 GB | 20–164 GB | 4–36 | 180–1200 GB | €0.16/h or €90/m | |
| Ranger | 1–3× RTX Pro 4000 Blackwell 24 GB | 32–146 GB | 4–28 | 180–1200 GB | €0.23/h or €130/m | |
| Sparbox | 1–4× RTX 3090 24 GB | 26–150 GB | 2–24 | 180–1600 GB | €0.23/h or €133/m | |
| Novatesla | 1–8× Tesla V100 32 GB | 42–396 GB | 4–88 | 180–3600 GB | €0.26/h or €147/m | |
| Paladin | 1–4× RTX 4080 Super 32 GB | 40–324 GB | 8–70 | 180–1200 GB | €0.31/h or €180/m | |
| Templar | 1–2× RTX Pro 4500 Blackwell 32 GB | 42–128 GB | 4–20 | 180–900 GB | €0.40/h or €230/m | |
| PowerAI | 1–5× RTX 4090 24 GB | 32–256 GB | 4–64 | 180–2500 GB | €0.40/h or €230/m | |
| Infinityai | 1–8× A100 40 GB | 64–960 GB | 8–188 | 180–3400 GB | €0.56/h or €320/m | |
| Darkrock | 1× RTX 5090 32 GB | 42–86 GB | 4–12 | 180–900 GB | €0.57/h or €330/m | |
| Stellarai | 1–4× RTX 4090 48 GB | 56–256 GB | 8–36 | 600–2500 GB | €0.65/h or €373/m | |
| Hyperionai | 1–4× RTX Pro 6000 Blackwell 96 GB | 60–439 GB | 16–124 | 180–1200 GB | €1.04/h or €597/m |
Wöchentliche und monatliche Rabatte verfügbar.
** +50% Extra Credit Promo gilt für vorausbezahlte Einzahlungen.
Bestellen Sie jetzt Ihren GPU-Server
Wir liefern leistungsstarke GPU-Server zu wettbewerbsfähigen Preisen, ohne Kompromisse bei der Leistung einzugehen. Hier sind die Vorteile, die uns auszeichnen:
Erhalten Sie einen kostenlosen 5 EUR Gutschein
Unsere GPU-Server bieten branchenführende Leistung. Wir führen strenge Benchmarks aller Hardwarekomponenten durch, um sie für anspruchsvolle moderne KI-Workloads zu optimieren.
| GPU | VRAM | Generation | SDXL (16 Bilder)* | LLM 8b** |
|---|---|---|---|---|
| RTX 5090 | 32 GB | Blackwell | 0:47 Min. | 128 r_t/s |
| A100 | 40 GB | Ampere | 1:18 Min. | 104 r_t/s |
| RTX 4090 | 24/48 GB | Ada | 1:19 Min. | 87 r_t/s |
| RTX 4070S Ti | 16 GB | Ada | 2:17 Min. | 56 r_t/s |
| RTX 3090 | 24 GB | Ampere | 2:24 Min. | 69 r_t/s |
| Tesla V100 | 16/32 GB | Volta | 2:36 Min. | 62 r_t/s |
| RTX 4000 Ada | 20 GB | Ada | 3:06 min | 39 r_t/s |
| RTX A4000 | 16 GB | Ampere | 3:37 Min. | 38 r_t/s |
| RTX 4060 Ti | 16 GB | Ada | 4:21 Min. | k.A. |
* SDXL-Benchmark mit Automatic1111 v1.6.0 (1024×1024, CFG-Skala: 7, Schritte: 30, Batch: 4x4).
** LLM-Benchmark mit Llama 3.1 (8b, q8_0, 2048 ctx).