RTX 4090- og V100-kortets direkte ydeevne sammenlignet på tværs af 26 standardiserede AI-benchmarks indsamlet fra vores produktionsflåde. Testen viser, at RTX 4090 vinder i 23 ud af de 26 benchmarks (88 % sejrprocent), mens V100 vinder tre test. Alle benchmarkresultater samles automatisk fra aktive lejekøretøjer og leverer reel ydelsesdata.
For produktions-API-servere og multi-agent AI-systemer, der kører flere samtidige forespørgsler, er RTX 4090 138 % hurtigere end V100 (median over 2 benchmarks). For Qwen/Qwen3-8B opnår RTX 4090 424 tokens/s vs. V100's 251 tokens/s (69 % hurtigere). RTX 4090 vinder 2 ud af 2 high-throughput tests, hvilket gør det til det stærkere valg til produktions-chatbots og batch-behandling.
For personlige AI-assistenter og lokal udvikling med én forespørgsel ad gangen er RTX 4090 46 % hurtigere end V100 (median på tværs af 8 benchmarks). Ved at køre gpt-oss:20b genererer RTX 4090 183 tokens/s vs. V100's 113 tokens/s (62 % hurtigere). RTX 4090 vinder 8 ud af 8 single-user tests, hvilket gør den ideel til personlige kodningsassistenter og prototyper.
For Stable Diffusion, SDXL og Flux workloads er RTX 4090 96% hurtigere end V100 (median over 12 benchmarks). Ved test af sdxl fuldfører RTX 4090 23 billeder/min vs V100's 9,8 billeder/min (133% hurtigere). RTX 4090 vinder 12 ud af 12 billedgenereringstests, hvilket gør det til den foretrukne GPU til AI kunst og billedgenerering.
For højkonkurrence vision workloads (16-64 parallelle forespørgsler) leverer RTX 4090 216% højere gennemstrømning end V100 (median på tværs af 2 benchmarks). Test med llava-765-76-256 256 53 53 (311). 31 2 253 231 31 31 31 31 35 31 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 5 35 5 5 5 5 38 38 35 55 3 35 35 5 35 5 5 5 38 5 5 5 35 5 5 5 5 3 5 5 5 35 5 35 3 3 5 35 35 5 5 5 3 35 3 35 5 8 3 5 5 5 5 5 5 5 5 5 5 35 5 3 53 3 5 5 35 5 5 5 5 5 5 3 5 35 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 3 5 5 5 5 5 5 5 5 5 5 5 5 35 5 5 5 5 5 5 5 5 35 35 35 53 35 35 5 5 5 5 5 5 5 5 5 5 3 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 35 5 5 5 53 5 5 5 255 5 5 HTML tags, and the 5t, HTML tags 5, and tags as 5 tags are, and tags and, and tags: "no HTML tags, and, and, and, and and, and, and, and, and, and,tags or tags, or, and, and, and, and and, and, and -tags and, and 25, and .
Bestil en GPU-server med RTX 4090 Alle benchmarkresultater for GPU-servere
Indlæser benchmarkdata...
Vores benchmarks indsamles automatisk fra servere med GPU'er af typen RTX 4090 og V100 i vores flåde. I modsætning til syntetiske laboratorietests kommer disse resultater fra faktiske produktionsservere, der håndterer faktiske AI-workloads – hvilket giver dig gennemsigtige, real-world performance-data.
vLLM (Højytelses) og Ollama (Enkeltbruger)-rammeværker testes begge. vLLM-benchmarks viser, hvordan RTX 4090 og V100 yder sig med 16–64 samtidige henvendelser – perfekt til produktionschatbots, fleragent-AI-systemer og API-servere. Ollama-benchmarks måler hastigheden ved enkelte henstillinger til personlige AI-assistenter og lokal udvikling. Der testes modeller som inkluderer Llama 3.1, Qwen3, DeepSeek-R1 og flere.
Flux, SDXL og SD3.5-arkitekturer dækker billedegenereringsbenchmarks. Det er afgørende for kunstnerisk AI-generering, designsprototypeudvikling og kreative applikationer. Fokus på hastigheden ved enkeltprompt-generering hjælper med at forstå, hvordan RTX 4090 og V100 håndterer jeres billedbelastninger.
Visionsbenchmarks tester multimodale og dokumentbehandling med høj samtidig belastning (16–64 parallelle anmodninger), ved hjælp af reel verdenstestdata. LLaVA 1.5 7B (en vision-sprog-model på 7 milliarder parametre) analyserer et fotografi af en ældre kvinde i et blomsterfelt sammen med en gylden retriever, hvor der testes for sceneforståelse og visuel logik ved batch-størrelse 32 for at rapportere billeder pr. minut. TrOCR-base (en OCR-model på 334 millioner parametre) bearbejder 2.750 sider fra Shakespeares Hamlet, scannet fra historiske bøger med tidstypografi, ved batch-størrelse 16, måler sider pr. minut til digitalisering af dokumenter. Se hvordan RTX 4090 og V100 håndterer produktionsskala-visuelle AI-opgaver – kritisk for indholdsmoderering, dokumentbehandling og automatiseret billedeanalyse.
Vi inkluderer også CPU-ydelse (der påvirker tokenisering og forbehandling) og NVMe-lagringshastigheder (afgørende for indlæsning af store modeller og datasæt) – det fulde billede af dine AI-arbejdsbelastninger.
TAIFlops-scoren vist i første række kombinerer alle AI-benchmarkresultater til et enkelt tal. Ved at bruge RTX 3090 som referencepunkt (100 TAIFlops) viser denne score øjeblikkeligt, hvordan RTX 4090 og V100 sammenlignes generelt med hensyn til AI-opgaver. Lær mere om TAIFlops →
Mærkat: Resultaterne kan variere afhængigt af systembelastning og konfiguration. Disse benchmark-værdier repræsenterer medianværdier fra flere testkørsler.
Bestil en GPU-server med RTX 4090 Bestil en GPU-server med V100 Vis alle benchmarkresultater