Trooper.AI propose NVIDIA A100 40 GB Serveurs GPU avec une puissance maximale et aucun overhead. Que vous souhaitiez entraîner de grands modèles, exécuter des inférences d'IA complexes ou affiner des LLM – nos Instances NVIDIA A100 basées sur l'architecture Ampere sont prêts pour une utilisation en production, hébergés en toute sécurité dans l'UE.
Déployer le serveur A100 maintenant
Nos instances A100 40 Go offrent :
Nous adorons l'IA pour vous servir avec la meilleure IA possible :



Démarrer un serveur A100 maintenant
Apprenez dans cette vidéo comment déployer un serveur A100 en quelques minutes avec des outils préinstallés pour des flux de travail de développement et de production rationalisés.
| GPU | VRAM | SDXL (16 images)* | LLM 8b Tokens/s** |
|---|---|---|---|
| A100 | 40 GB | 1:18 min | 104 r_t/s |
| 4090 | 24/48 GB | 1:19 min | 87 r_t/s |
| V100 | 16/32 GB | 2:36 min | 62 r_t/s |
| 3090 | 24 GB | 2:24 min | 69 r_t/s |
** Test de performance réalisé avec Automatic1111 v1.6.0 avec les paramètres suivants :
Modèle : sd_xl_base.1.0,
Invite : “mignon chiot maltais sur l'herbe verte” (pas d'invite négative),
Échantillonneur : DPM++ 2M Karras,
Pas de raffineur, pas de correction Hires,
Échelle CFG : 7, Étapes : 30,
Résolution : 1024×1024,
Nombre de lots : 4, Taille du lot : 4,
Graine aléatoire, Images PNG.
** Test de performance LLM réalisé à l'aide d'une installation OpenWebUI par défaut sans aucune modification.
Longueur du contexte : 2048 (par défaut).
Pas d'invite système.
Invite de requête : « Citez les 5 plus grandes similitudes entre un tigre sauvage et un chat domestique. »
Modèle (petit): llama3.1:8b-instruct-q8_0
Meilleure performance sur 3 exécutions, mesurée en nombre de tokens de réponse par seconde – des valeurs plus élevées indiquent une meilleure performance.
Activer le serveur A100 maintenant
Découvrez nos options et tarifs pour les serveurs A100. Les serveurs hébergés avec un domaine ".de" sont situés en Allemagne dans des centres de données certifiés ISO/IEC 27001.
| Nom du Blib | GPU | CPU RAM | Cœurs | NVMe | Prix | +50% Prix Promo** |
|---|---|---|---|---|---|---|
| infinityai.m1 | 1× A100 40 GB | 78 GB | 8 | 900 GB | €0.76/h or €437/m | |
| infinityai.m1.de | 1× A100 40 GB | 78 GB | 8 | 900 GB | €0.81/h or €463/m | |
| infinityai.l1.de | 1× A100 40 GB | 92 GB | 20 | 1200 GB | €0.86/h or €493/m | |
| infinityai.m2 | 2× A100 40 GB | 140 GB | 10 | 1200 GB | €1.41/h or €813/m | |
| infinityai.m2.de | 2× A100 40 GB | 140 GB | 10 | 1200 GB | €1.49/h or €860/m | |
| infinityai.m4 | 4× A100 40 GB | 356 GB | 30 | 2000 GB | €2.80/h or €1610/m | |
| infinityai.m4.de | 4× A100 40 GB | 356 GB | 30 | 2000 GB | €2.95/h or €1697/m | |
| infinityai.l6.de | 6× A100 40 GB | 512 GB | 120 | 3900 GB | €4.63/h or €2667/m | |
| infinityai.l8.de | 8× A100 40 GB | 768 GB | 160 | 5350 GB | €6.19/h or €3563/m |
* Les abonnements hebdomadaires et mensuels offrent des tarifs réduits. Les prix promotionnels incluent un bonus de 50 % de crédits supplémentaires, valable ce mois-ci.
Démarrer un serveur A100 maintenant
Nous entretenons méticuleusement nos serveurs, comme en témoignent nos configurations telles que l'A100 40GB “InfinityAI”. Cela vous permet de vous concentrer sur vos projets d'IA – développement ou production – sans vous soucier du matériel. En tant que fournisseur hyperscale de niche en Europe, nous offrons une attention particulière aux détails et aux performances.
Louez votre propre serveur GPU dès aujourd'hui et commencez à développer des applications d'IA incroyables ! Les serveurs GPU Trooper.AI sont construits à partir de technologies haut de gamme entièrement recyclées des dernières années, conçus pour vous offrir les meilleures performances, sécurité et fiabilité pour tous vos besoins en IA.
Localisation dans l'UE · Haute confidentialité · Excellentes performances · Meilleur support