Nvidia RTX 2080 og RTX 2080 Ti anmeldelse: Du kan ikke polere en Turing

RTX-2080Ti

Nå som røyken har ryddet og sprøytenarket har gått ned, forblir Nvidias RTX 2080 og 2080 Ti likevel utfordrende kort å evaluere. Mens hver GPU lanseres med en blanding av nåværende og fremtidsrettede funksjoner, lener RTX-serien seg i ideen om fremtiden vanskeligere enn de fleste, noe som etterlater den med relativt lite bevis for å sikkerhetskopiere sine krav. Heldigvis er vår evne til å teste disse GPU-ene inn Shipping titler er ikke så begrenset.

Nvidias Turing-familie består for tiden av to GPUer: RTX 2080, en $ 700 detaljhandel / $ 800 Founder's Edition GPU, som erstatter GTX 1080 Ti i Nvidias produktstabel og konkurrerer direkte mot det kortet, og RTX 2080 Ti, en $ 1200 GPU som ikke er ennå frakt. RTX 2080s nåværende fraktpris ligger mellom $ 770 og $ 790, i skrivende stund er de billigste kortene $ 789. 2080s lanseringspris på $ 700 er $ 150 mer enn GTX 1080 tilbake i 2016 (det er derfor vi nå sammenligner den direkte mot 1080 Ti), mens lanseringsprisen på 2080 Ti har steget med $ 500 sammenlignet med Nvidia GeForce GTX 1080 Ti .



Konkurrenter



Mens vi har hatt begge RTX 2080 og 2080 Ti internt for testing kunne vi ikke teste noen av DLSS- eller RTX-demoer som Nvidia har distribuert, ettersom testene for øyeblikket ikke er offentlig tilgjengelige. Det er imidlertid ikke et spesielt problem fra vårt perspektiv. Våre tester og anmeldelser har alltid vært tungtveid mot å evaluere de praktiske fordelene ved et kjøp på det tidspunktet artikkelen er skrevet, i motsetning til å fokusere på teoretiske fordeler som en dag kan materialisere seg.

Turing-Feature



Samtidig vil jeg imidlertid erkjenne at Nvidia utvetydig har posisjonert RTX-familien som en fundamentalt ny type GPU beregnet på nye typer nye arbeidsmengder. Disse faktorene må tas i betraktning i enhver evaluering av GPU, og vi skal gjøre det. Men å pakke ut verdiproposisjonen til Nvidias RTX-familie når det gjelder neste generasjons spill og den samlede sannsynlige levetiden til familien, er en betydelig nok oppgave til at den fortjener å bli evaluert uavhengig av spørsmålet om hvordan Turing RTX-familien presterer i moderne spill. La oss se på det først.

Evaluering av den langsiktige strålingssporingspotensialet til RTX 2080, RTX 2080 Ti

Hver GPU-lansering er en mulighet for et selskap å argumentere både for at det gir bedre ytelse i foreløpige forsendelsestitler og et nytt sett med funksjoner som vil forbedre ytelse eller visuell kvalitet i fremtiden. Turing er langt fra den første GPU som ser fremover hva fremtiden kan bringe, men den bruker en betydelig del av den totale døden til å aktivere funksjoner som du for øyeblikket ikke kan bruke i spill. Arkitektonisk ligner Turing Volta, med et nytt sett med prosessorkjerner Nvidia kaller RT Cores. Disse RT-kjernene utfører strålekrysningstester som er kritiske for implementeringen av Nvidias sanntidstrålesporingsteknologi. I mellomtiden er Tensor Cores som debuterte i Volta blitt justert og forbedret for Turing, med støtte for nye INT8- og INT4-driftsmodus ved henholdsvis 2x og 4x FP16-ytelse.

Utenfor DLSS er det ikke klart hvordan Nvidia vil bruke disse funksjonene, og den har ikke avslørt også mye informasjon om RTX heller, selv om vi har truffet tilgjengelige data tidligere. Men bare å se på matematikken på relative dørstørrelser og strømforbruk forteller oss mye: Nvidia har gått i vanskeligheter med å integrere tensorkjerner og maskinlæringsegenskaper i forbrukerprodukter fordi de mener at disse nye teknologiene kan gi spillforbedringer hvis de brukes riktig. Det er villig til å betale en døden og ytelsesstraff for å prøve å treffe disse målene, og det er valgt et lanseringsøyeblikk når det er veldig lite konkurranse i markedet i et forsøk på å etablere dem tidlig.



Det er viktig å trekke et skille mellom hva Nvidia prøver å oppnå med RTX og DLSS - nemlig innføring av strålesporing og AI-støybehandlingsfunksjoner som komplementære teknologier til rasterisering eller til og med erstatninger for rasterisering på lang sikt, og spørsmålet om RTX 2080 og 2080 Ti representerer en god verdi for forbrukerne. Det første spørsmålet vil spilles ut i løpet av de neste 5-10 årene på tvers av en rekke GPU-arkitekturer fra flere selskaper, mens det andre fokuserer på spesifikke kort. Jeg har vært fan av strålesporingsteknologi i årevis og har dekket den for 2007es.com ved flere anledninger, inkludert profilering av Nvidias egen iRay-teknologi. Etter at PowerVRs forsøk på å presse teknologien i mobilen til intet, ville det være virkelig spennende å se den debut på stasjonære datamaskiner i nær fremtid.

På mange måter minner Turing meg om G80 som drev GPUer som GeForce 8800 GTX. I likhet med G80 representerer Turing en ny datamodell - en modell som Nvidia tok en betydelig risiko for å bygge. Da den debuterte i 2006, var G80 den største GPU noensinne bygget, med 681 millioner transistorer og en så enorm 480 mm kvm dø. Nvidias G70, lansert i 2005, hadde vært en 333 mmto chip med 302 millioner transistorer, til sammenligning. G80 var den første PC-GPUen som brukte en enhetlig skyggearkitektur og den første som støttet DirectX 10. Det var den første programmerbare GPU-en - Nvidia lanserte CUDA i 2006 og CUDA 1.0 ble støttet av G80. Få i dag ville se tilbake på G80 og erklære at brikken var en feil, til tross for at den representerte en fundamentalt ny tilnærming til GPU-design.

Setter Turing i historisk sammenheng

En del av Turing's problem er det uunngåelige kylling-og-egg-scenariet som utspiller seg når en produsent introduserer nye muligheter. Det tar utviklere betydelig tid å legge til støtte for forskjellige funksjoner. Når en kapasitet har blitt adoptert mye i markedet, har den ofte vært tilgjengelig i flere år. Å kjøpe seg inn i en maskinvareplattform i begynnelsen av livssyklusen er ofte en dårlig idé - som illustrert av selve G80. Ved å undersøke hvordan denne historien spilte ut, får vi en bedre følelse av om det er en god idé å hoppe helt i begynnelsen av en stor ny teknologiinnføring.

Da 8800 GTX kom ut, blåste den dørene av hver annen GPU i DirectX 9, som vist på lysbildet nedenfor:

Bilde av Anandtech

Effektiviteten og ytelsen per watt var like fordelaktig; 8800 GTX var mer enn dobbelt så energieffektiv som konkurrentene og forgjengerne.

Bilde av Anandtech

Nå, i begynnelsen, syntes disse fordelene sannsynligvis å være godt fordelt over hele produktfamilien. Men når DirectX 10 og Windows Vista begge var klare, viste det seg ikke å være tilfelle. For disse neste lysbildene er litt forklaring i orden: 8800 GTX og 8800 GTS var basert på det samme G80-silisiumet og debuterte samtidig i 2006. 8800 GT vist i resultatene nedenfor er basert på den mindre, mer effektiv G92-kjerne som debuterte nesten et år etter 8800 GTX. Startprisen på 8800 GT var $ 300, lanseringsprisen på 8800 GTS var $ 400. Husk det når du ser på resultatene fra Techspot's Crysis dekning under:

Gapet mellom DX9 og DX10 ytelse var neppe unikt for Nvidia; AMD-eiere ble ofte hamret også. Men poenget står: Ofte forskjøvet GPUer som fungerte ganske bra under DirectX 9 med DX10, til det punktet at bare de høyeste kortene fra en av leverandørene til og med kunne bruke disse funksjonene. Og som 8800 GTs ytelse illustrerer, slo en billigere GPU som ankom et år senere snuten ut av sin dyrere fetter. Gapet mellom 8800 GTS og 8800 GTX i DX9 og CoH er 1,44 ganger. I Crysis under DX9 er det 1,39x. I Crysis under DX10 er det 1,77x.

Når RTX er tilgjengelig, hvor godt vil RTX 2080 matche ytelsen til RTX 2080 Ti? Hvor mye vil RTX 2070 matche RTX 2080? Vi vet ikke. Nvidia har ikke sagt.

Men det er umulig å se tilbake på DirectX 9 til DX10-skiftet og identifisere noen av GPU-ene som en spesielt god avtale hvis målet ditt var å spille DX10-spill med god bildefrekvens. G80 tilbød god ytelse i DX9, men bare de dyreste sjetongene var i stand til å håndtere DirectX 10 på høye detaljnivåer. Videre, da DX10-spill var mye markedsført, hadde G80 blitt erstattet av G92 eller til og med GT200. Spillere som kjøpte seg inn i 8000-familien til lavere prispoeng, ble skrudd når GPU-ene deres generelt ikke var i stand til DX10. Den samlede virkningen av dette ble forbedret av det faktum at DX10 til slutt ikke endte med å levere mye i veien for fordeler - men det fungerer fortsatt som et viktig eksempel på hvordan utmerket ytelse i etablerte API-er ikke garanterer utmerket ytelse når nye funksjoner er slått på.

DirectX 11

DirectX 11 og DX12 representerer ikke så stor en pause med tidligere GPUer som DX10 gjorde, men det er fortsatt noen nyttige elementer til hver. Når det gjelder DX11, gjorde nye GPUer som støttet API en generelt bedre jobb med å tilby solid ytelse innenfor funksjonssettet. Men på markedsføringsnivå, til tross for den lovede betydningen av nye funksjoner som tessellasjon, var den langsiktige effekten på spill mye mindre enn markedsføringen antydet at det ville være. Skudd som disse ble ofte brukt for å illustrere forskjellen mellom å ha tessellasjon aktivert versus deaktivert:

I virkeligheten så forskjellen mer slik ut:

Tessellation aktivert. Bilde av Hot Hardware. Klikk for å forstørre.

Tessellation deaktivert. Bilde av Hot Hardware. Klikk for å forstørre.

Forbedret DirectX 11 bildekvaliteten i forhold til DirectX 9? Absolutt. Men hvis du leser tidlig litteratur om DX11 eller har tatt hensyn til Nvidias markedsføring på emner som tessellation du vil bli tilgitt for å tro at gapet mellom DX9 og DX11 skulle bli mye større enn det faktisk viste seg å være. Og nok en gang så vi reelle forbedringer i API-ytelsen i generasjonene som fulgte de første DX10-kortene. G80 kunne kjøre API, men G92 og GT200 kjørte det mye mer effektivt. GTX 480 støttet DirectX 11, men det var GTX 680 som virkelig strålte.

Mantle og DirectX 12

Mantle og DirectX12 gir oss sjansen til å se på dette spørsmålet fra AMDs perspektiv i stedet for Nvidia. Da Mantle debuterte i 2013, var det folk som argumenterte for den da forestående overlegenheten til GPU-er som AMDs R9 290 og R9 290X fordi innføringen av API-er med lav latens ville overbelaste disse GPUene forbi konkurransen. Virkeligheten har ikke vært snill mot slike vurderinger. Fem år etter Mantle og tre år etter at Windows 10 ble lansert med DirectX 12-støtte, er det bare en relativt håndfull API-spill med lav latens i markedet. Noen av disse kjører faktisk bedre på AMD-maskinvare under DX12 i motsetning til DX11, men hvis du kjøpte et Hawaii i 2013 fordi du trodde Mantle og DirectX 12 ville innvarsle en ny bølge av spill som du ønsket å være posisjonert til å dra nytte av , du mottok ikke veldig mye fordeler.

Noen DirectX 12- og Vulkan-spill har utnyttet AMD GPUs 'evne til å utføre asynkron beregning spesifikt og plukket opp ekstra ytelse ved å gjøre det, men til og med det mest optimistiske blikket på DirectX 12-ytelse viser til slutt at det bare øker Team Red GPUs en moderat beløp i en relativt liten håndfull titler. Gitt at noe av denne økningen kom med tillatelse til at multi-threaded driverstøtte var standard i DX12 (AMD støttet ikke denne funksjonen i DX11, mens Nvidia gjorde det), må vi også regne det som en mellomliggende variabel.

DirectX 12 og Mantle, med andre ord, gir ikke anledning til å kjøpe en GPU rett i begynnelsen av en produktsyklus, enten. Nå, med RTX som en del av DirectX 12-spesifikasjonen, kan man hevde at vi endelig ser DX12 begynne å trekke seg fra tidligere API-versjoner og etablere seg som det eneste spillet i byen hvis du vil lage bestemte typer spill. Men det tar tre år før det skjer. Og med AMD som dominerer konsoller og graden av samtidig utvikling i bransjen, vil ethvert stort press for å bringe strålesporing til spill som mer enn en sporadisk sponset spillfunksjon, kreve innkjøp fra AMD og muligens Intel hvis selskapet er seriøs om inn i grafikkmarkedet.

Hvorfor Turing aldri vil rettferdiggjøre prisprisen

Med Turing har Nvidia valgt å lansere sine nye GPUer til en betydelig prispremie sammenlignet med eldre kort. Spørsmålet er, er prispremiene verdt å betale? Selv om dette alltid avhenger av egen økonomiske stilling, er vårt argument at de ikke er det.

Historien om tidligere store teknologioverganger antyder at det vil være den første generasjonen av GPUer som har størst innvirkning fra å muliggjøre nye funksjoner. Nvidia har historisk tilbudt nye GPUer som raskt forbedret sine forgjengere i de nye APIene og funksjonene, inkludert G92 over G80 og GTX 580 over GTX 480. Avstanden mellom 480 og 580 var mindre enn åtte måneder.

Alle tilgjengelige data antyder at RTX 2080 Ti kan være nødvendig for å opprettholde et bildefrekvensmål på 60 fps i RTX-aktiverte spill. Det er ikke klart om RTX 2080 eller 2070 vil være i stand til dette. RTX-push Nvidia lager er et tungt, flerårig løft. Historien om slike overganger innen databehandling antyder at de bare skjer over 3-5 år og flere produktgenerasjoner. Den verste tiden å kjøpe inn disse produktene, hvis målet ditt er å utnytte funksjonene de tilbyr best, er i begynnelsen av funksjonsrampen.

Vi vet også allerede at 7nm GPUer kommer. Mens AMDs 7nm Vega er ment som en del med lite volum for maskinlæringsmarkedet, kan vi godt se 7nm GPUer i 2019. Turing kan være en kortsiktig delvis produktutskiftning i den høye enden, i likhet med Maxwell 1 og GTX 750 Ti. Men selv om dette ikke er tilfelle, ser det ut til at RTX og DLSS vil være begrenset til den øvre enden av Nvidias produktkart. Selv om RTX 2060 støtter det, øker prisene til RTX 2070 og 2080 at RTX 2060 vil være en $ 350 - $ 400 GPU, ikke en $ 200 - $ 300 GPU som GTX 1060. Vi vet ikke hvor langt ned deres egen stack Nvidia kan aktivere RTX eller DLSS, men ingen tror at disse funksjonene vil komme seg til det vanlige markedet i år.

Til slutt er det det faktum at Nvidia og AMD i årevis har slått en nådeløs tromme med høyere oppløsninger. Det gir en viss mening for Nvidia å svinge for å adressere 1080p-markedet, for ærlig talt er det et helvete av flere 1080p-paneler i verden enn noe annet. Steam rapporterer at 62,06 prosent av markedet bruker 1080p, sammenlignet med 3,59 prosent ved 1440p og 1,32 prosent ved 4K. Men det betyr også å be high-end-spillere om å velge mellom å bruke skjermer med høy oppløsning og / eller høy oppdateringsfrekvens de kanskje har betalt en premium-dollar for, og be dem om å tolerere spill i 40-60fps-området på 1080p. I noen tilfeller kan DLSS og RTX sammen mer enn kompensere for tapt oppløsning eller hastighet, men det kommer uunngåelig å avhenge av størrelsen på ytelsen som RTX bærer, så vel som den aktuelle GPU og spillet. Det faktum at Nvidia har spilt ytelseskortene sine så nær brystet på denne, er ikke et godt tegn for første generasjons strålesporing som helhet. Sagt på en annen måte: Hvis de kunne vise strålesporing ved 60 bilder per sekund på tilsvarende som en RTX 2060, med en RTX 2080 Ti som bryter 100 bilder per sekund, hadde de allerede gjort det.

RTX-familien er ikke priset for adopsjon

Den eneste måten for første generasjons RTX-kort å være verdt det Nvidia mener du bør betale for dem, er hvis de nye funksjonene både er mye brukt og en betydelig forbedring. Den eneste måten som noen gang kommer til å skje, er hvis utviklere (utover de Nvidia samarbeider med og betaler for å ta i bruk teknologien) bake det i seg selv. Og den eneste måten at skjer er hvis forbrukerne eier kortene.

Ta en titt på listen over de mest populære GPUene på Steam, og husk at Pascal har vært i markedet i mer enn to år, med GTX 1080 Ti tilgjengelig i nesten 18 måneder. Vi undersøkte de 20 beste kortene nedenfor, tilsvarende 59,61 prosent av det totale grafikkmarkedet:

Steam-GPUer

Svært få mennesker eier en GPU i RTX 2070 - 2080 Ti-prisklassen. 2,69 prosent av markedet har en 1080 (tilsvarende 2070), 1,49 prosent har en 1080 Ti (tilsvarende RTX 2080), og vi vet ikke hvor mange som vil kjøpe $ 1200 2080 Tis. Men det kommer ikke til å være tonnevis. Nvidias evne til å flytte markedet mot RTX og DLSS vil være begrenset av antall personer som eier disse kortene.

For det andre har vi tatt de 20 beste kortene, isolert Nvidia GPUer og brutt resultatene etter arkitekturfamilie. For å være klar, refererer disse tallene til hver arkitekturs markedsandel innen de 20 beste kortene, ikke hele Steam-databasen. Men mer enn to år etter lansering, i en periode da Nvidia har dominert spillmarkedet, er vi fortsatt på 65 prosent Pascal, 31 prosent Maxwell og omtrent 4 prosent Kepler. Pascal har ikke feid feltet utenfor Maxwell og Kepler på over to år, og det er med et topp-til-bunn-sett med løsninger i markedet. Turing vil rampe saktere. Prisene og det begrensede antall kort garanterer det. Det vil ikke endres med flere SKU-er, med mindre disse SKU-ene også er i stand til RTX / DLSS, og ingen satser på en 12nm RTX 2050 Ti som kan håndtere strålesporing i 2019 til et mellomklassepris på $ 250.

Nvidia prøver ikke virkelig å bygge en ny standard (ennå)

Jeg tror Nvidia når det snakker om å ønske å drive spill i en ny retning og bruke mer av silisiumet som er innebygd i GPU-ene. Jeg vet ikke hvor mye merverdi Nvidia kan presse fra sitt spesialiserte silisium for AI og maskinlæring, men jeg forstår helt hvorfor selskapet vil prøve.

Bilde av Anandtech

Men på samme tid, la oss erkjenne at lanseringen av RTX som en mye hyped funksjon bare tilgjengelig på en håndfull dyre kort, er veldig mye Nvidias MO. Enten du ser på det som en god ting eller en dårlig ting, har Nvidia en langvarig vane med å prøve å tjene penger på entusiastiske funksjoner. G-Sync-skjermteknologien gir ingen egen fordel i forhold til FreeSync, men frem til i dag insisterer Nvidia på fiksjonen at du må kjøpe en skjerm med spesiell, Nvidia-merket sertifisering og en tilsvarende høyere pris for å kunne bruke den.

Da Nvidia presset PhysX for ti år siden, snakket det ideen om å kjøpe avanserte GPUer for å støtte muligheten eller til og med bruke to Nvidia GPUer i et enkelt system for PhysX-avlasting. PhysX var veldig posisjonert som en avansert visuell funksjon som ville gi et utrolig lag med dybde og realisme til spill som andre ikke kom til å få. Da Nvidia bestemte seg for å hoppe ombord i 3D-mani, skapte den sitt eget sofistikerte Nvidia 3D Vision-system. Se tilbake på funksjonene og funksjonene Nvidia har historisk bygget, og det er klart at selskapet velger å investere i å skape avanserte økosystemer som knytter kundene tettere til Nvidia-maskinvare og tjener Nvidia mer inntekter, i stedet for å fokusere på åpne standarder som vil være til nytte for samfunnet, men tjener seg selv mindre penger.

Det er ingenting galt med at et selskap bygger et marked for egen maskinvare ved å fokusere på å levere en førsteklasses opplevelse. Jeg antyder ikke at Nvidia har gjort noe etisk tvilsomt ved å bygge et samfunn av entusiaster som er villige til å betale topp dollar for sine egne produkter. Men det er også ingenting galt med å erkjenne at det samme selskapet som er opptatt av å selge Turing, har en historie med denne typen oppførsel og en mindre enn perfekt historie med å levere fordelene markedsføringen lover.

Hva med robust tidlig støtte?

En måte AMD og Nvidia begge prøver å dempe frykten for svak funksjonsstøtte fra utviklere, er å stille opp devs for å love funksjonalisering fra dag 1. AMD gjorde dette med sin Mantle-lansering, Nvidia gjør det nå med RTX og DLSS. Men for de fleste er lister som dette verdt mye mindre enn summen av delene. Her er Nvidias liste:

Nvidia-RTX-Games-oppdatert

Av spillene som er bekreftet å bruke bare RTX, er det bare Battlefield V og Metro Exodus som har stor merkevaretilstedeværelse. DLSS-listen er større og mer interessant med fem kjente titler (Ark, FFXV, Hitman, PUBG, We Happy Few), men DLSS mangler også noe av den visuelle punchen sammenlignet med sanntids strålesporing. Bare Shadow of the Tomb Raider vil støtte begge deler og Mechwarrior 5: Leiesoldater støtter begge, så langt det gjelder AAA eller kjente franchiser.

Vil denne listen utvides? Det er jeg sikker på. Men spill tar tid å levere, og flere titler på denne listen er ikke satt til å lanseres før i 2019, forutsatt at de ikke er forsinket. Det er fullt mulig at når Turing mange av disse spillene er ute, vil enten prisene til Turing ha kommet ned takket være økt konkurranse eller at Nvidia allerede har introdusert nye kort. Men på prispunktene Nvidia har valgt for lanseringen, er det klart at selskapet er fokusert på å ta fortjeneste ut av produktlinjen, og ikke presse dem inn i massemarkedet for å utløse en bred adopsjon så raskt som mulig. Det er en helt gyldig strategi, men det betyr også at RTX-økosystemet Nvidia vil montere, sannsynligvis vil ta lengre tid å formes. Selskapet har ikke gjort seg noen fordeler i visse henseender - du trenger GeForce Experience for å bruke DLSS i henhold til Tom's Hardware, til tross for at det er ingen objektiv grunn overhodet for at Nvidia kan motta personlige data fra alle som kjøper skjermkortene.

Men selv i absolutt beste tilfelle vil tidlig støtte være langsom å bygge. Hvor mye dette betyr noe for deg, vil alltid være et spørsmål om personlig preferanse - hvis alt du spiller er Battlefield V, og BF5s implementering av strålesporing er fantastisk, er det fullt mulig du vil føle at RTX 2080 Ti er et røverkjøp til dobbelt pris. Men bedrifter bygger lister med titler med innbakt kommende støtte nettopp fordi de vil at du skal fokusere på nummeret i stedet for navnene. “21 kamper med kommende støtte!” høres mye bedre ut enn '21 spill med kommende støtte, hvorav 17 sendes, 10 vil være bra, seks vil ha personlig appell, og du vil faktisk kjøpe to.'

Dette er knapt unikt for Nvidia. Men det er fortsatt et problem for alle som faktisk vil bruke disse funksjonene i dag i mer enn en håndfull titler.

Test plattform

Det bringer oss tilbake til resten av dagens spill, og det viktigste spørsmålet her for alle som vurderer Nvidias siste kort: Hvordan fungerer RTX 2080 og RTX 2080 Ti på nåværende titler?For å starte dette viktige har vi revidert vår eksisterende serie med referanser og oppdatert maskinvareplattformen. Vår oppdaterte testseng består av en Core i7-8086K CPU på Asus Prime Z370-A hovedkort, 32 GB DDR4-3200 RAM og Windows 10 1803 oppdatert med alle tilgjengelige oppdateringer og oppdateringer. RTX og GTX GPUer ble testet ved hjelp av Nvidias RTX 411.63 driver, mens AMD Vega 64 ble testet ved hjelp av Adrenaline Edition 18.9.3. Vi har også utvidet testene våre noe for å inkludere et større utvalg av AA-alternativer i forskjellige titler og for å teste noen få titler i flere API-er.

Noen få notater før vi dykker inn.

Vi har testet Ashes of the Singularity i både DirectX 12 og Vulkan. Vulkan-ytelsen er spesielt lavere for begge selskaper, og ingen eksklusiv fullskjermmodus tilbys, men ifølge representanter fra Oxide Games er det opp til både AMD og Nvidia å forbedre ytelsen i API-en når du kjører Ashes. Vi har brukt en annen grafstil for disse grafene fordi Ashes ikke returnerer en enkel minimal bildefrekvensberegning.

Vi har også testet Total War: Warhammer II i både DirectX 11 og DirectX 12-modus. AMD Vega 64-eiere (og muligens også Polaris-spillere) bør bruke DirectX 12 i den tittelen for optimal ytelse, men Nvidias ytelse i DX12 er ganske dårlig. Våre samlede diagrammer for 1080p, 1440p og 4K bruker DirectX 12-resultatene ved beregning av AMDs medianytelse og DirectX 11-resultater når Nvidia beregnes. DirectX 12 brukes til Ashes of the Singularity-resultatene for begge leverandører.

Til slutt, i grafene nedenfor, i alle spill unntatt Ashes of the Singularity, de oransje stolpene er minimale bildefrekvenser, de grønne stolpene er gjennomsnittlige bildefrekvenser. Høye minimale bildefrekvenser kombinert med høye gjennomsnittlige bildefrekvenser er veldig bra; jo nærmere de to tallene er, desto mer jevn og konsistent blir det generelt sett.

Aske-DX12-2080 Aske-vulkan-2080 DX-2080 Hitman-Ultra-RTX2080 Metro-RTX2080 RotTR-2080 WarhammerII-DX12 Warhammer-DX11 SotTR AO-2080 FarCry5-2080

Evaluerer total RTX 2080, 2080 Ti ytelse

Vi har bestemt oss for å bryte ut konklusjonene våre litt annerledes enn tidligere. Vi har tatt det geometriske gjennomsnittet av våre samlede resultater ved hver oppløsning og tegnet den totale poengsummen for hver GPU som en prosentandel av ytelsen til den nest laveste GPU. Vi har også undersøkt ytelsen per dollar-prisen som du faktisk betaler for hvert kort ved å evaluere kostnadene for hver GPU i form av brukte dollar per bildefrekvens. I dette scenariet fungerer den høyere ytelsen til avanserte kort til deres fordel ved å gjøre dem (relativt) bedre avtaler når oppløsningen øker. Gapet mellom Vega 64 og RTX 2080 Ti er mindre relativt sett på 4K enn ved 1080p som et resultat av dette. RTX 2080 og 2080 Ti er imidlertid betydelig dyrere av denne beregningen enn tidligere generasjoner.

1080p-samlet 1440p-Totalt Total-4K

Når du vurderer de samlede resultatene, dukker det opp flere mønstre. Selv om de samsvarer nøye med ytelsen, kanter GTX 1080 Vega 64 ut i ytelse per dollar takket være lavere basispris og litt høyere resultater. Total ytelsesskalering som en funksjon av pris er ikke veldig bra. Vi forventer ikke at high-end-markedet vil tilby sterke resultater her, men de beste gevinstene vi får er fra RTX 2080 utover GTX 1080 Ti, hvor en 4-6 prosent ytelsesøkning er tilgjengelig for ~ 1,1x økning i pris. Det er ikke forferdelig, men det er ikke spesielt bemerkelsesverdig heller. 2080 Ti tilbyr et betydelig nivå av ytelsesforbedring, men prisøkningen overgår gevinsten for alle bortsett fra de mest velholdte spillerne.

Fordi RTX 2080 og RTX 2080 Ti er så forskjellige, har vi skrevet en annen konklusjon for hver.

Bør du kjøpe RTX 2080?

RTX 2080 er både en bedre verdi enn RTX 2080 Ti og en mindre tiltalende GPU generelt. Det beste vi kan si for det er dette: Tilleggsprispremien den kommanderer over GTX 1080 Ti er omtrent dobbelt så mye som tilleggsytelsen den tilbyr utover den GPUen. Dette er objektivt sett en dårlig avtale, men det er ikke verre enn den typiske skaleringen du får fra luksuriøse GPUer i $ 700+ prisklasse - og det betyr at vi kan forstå hvorfor noen kan velge å plukke opp en RTX 2080 i stedet for en GTX 1080 Ti. Strålesporings- og DLSS-funksjonene RTX 2080 tilbyr, kan sees på som rettferdiggjørende ~ 10 prosent tilleggsprispremie over GTX 1080 Ti. Alt dette antar selvfølgelig at du er i markedet for en $ 700 GPU i utgangspunktet.

RTX 2080s største problem er at det er en helt spennende GPU. Evaluert i dagens titler gir den marginalt mer ytelse enn 1080 Ti, men med sjeldent unntak ikke nok til at du vil legge merke til det. 2007es.com erkjenner at RTX 2080 er raskere enn GTX 1080 Ti, men vi finner ikke posisjonering eller ytelse overbevisende, og vi gjør ikke spesielt anbefale den utover 1080 Ti.

Bør du kjøpe RTX 2080 Ti?

RTX 2080 Ti tilbyr imponerende ytelse og beveger baren absolutt fremover. Men det gjør det med en enorm kostnadsøkning som er helt uforsvarlig. Hvis penger ikke er noe objekt, er 2080 Ti en flott GPU. Men gitt at bare 1,49 prosent av Steam-brukerne eier en GTX 1080 Ti - og at GPU er $ 500 mindre enn RTX 2080 Ti - er det klart at penger er et objekt for de aller fleste spillere. Og det endrer ting.

GTX 1080 Ti er 1,3 ganger raskere enn GTX 1080 på 4K og koster 1,5 ganger mer. RTX 2080 Ti er 1,36 ganger raskere enn GTX 1080 Ti og koster 1,7 ganger mer. High end of the market eller ikke, det kommer et punkt når en komponent ikke har gjort en god jobb som rettferdiggjør sin prisøkning. Og evaluert i foreløpig spill, har RTX 2080 Ti ikke. 2007es.com erkjenner lett at RTX 2080 Ti er den raskeste GPUen du kan kjøpe på markedet. Det er en imponerende utøver. Men premien Nvidia har slått på dette kortet er bare ikke berettiget av ytelsen den tilbyr i forsendelsestitler. Det er ikke engang klart om det vil være forsvarlig i RTX eller DLSS-spill.

Det eneste argumentet du kan gjøre for RTX 2080 Ti som ikke gjelder for noen annen GPU i bunken, er at den beveger nålen på absolutt spillytelse, og skyver maksimale hastigheter fremover på en måte som RTX 2080 ikke gjør. Og det er bra til du innser at vi snakker om en GPU som koster $ 1200. Det meste av spillingen rigger Jeg har bygget for folk har ikke kostet så mye penger.

Nvidia slo ikke en $ 500-premie på denne GPUen for å dekke kostnadene ved å produsere den - den er en stor GPU, men den er ikke stor nok til å rettferdiggjøre at mye av en prisøkning og TSMCs 16 / 12nm-node er nå ganske moden og produksjonskostnadene vil ha kommet ned som et resultat. Nvidia slo en premie på $ 500 på denne GPUen fordi AMD for øyeblikket ikke konkurrerer på toppen av markedet, og Intel vil ikke ha kort ut av døren før en gang i 2020. Som mange har påpekt, er dette bare smart økonomi for Nvidia. Men Jen-Hsuns behov for et badekar i solid gull trumfer ikke behovet for Nvidia for å rettferdiggjøre prisene det tar for sin egen maskinvare. Og det har den ikke. Nvidias samlede bruttomargin for hele virksomheten ligger på 60 prosent; selskapet skader knapt for midler til å drive all den utviklingen det gjør.

2007es.com erkjenner igjen at RTX 2080 Ti er den raskeste GPUen på markedet, men med mindre prisen bokstavelig talt ikke er noe objekt for deg, anbefaler vi ikke at du kjøper en. Vi anbefaler faktisk eksplisitt at du ikke gjør det. Selv om ytelsen er utmerket, er det ikke verdt premien Nvidia ønsker å ta betalt for den i nåværende forsendelsestitler. Kjøp dette kortet, og du sender en melding til Nvidia om at $ 1200 burde være prisen for avanserte GPUer.

RTX 2080 og 2080 Ti er ikke dårlige GPUer, men de er begge dårlige avtaler uten rimelige priser, og de gir rimelig kort lavere i bunken for å forankre familien. Forbrukere utenfor ultra-high-end vil bli bedre tjent med eldre kort fra Nvidias Pascal-familie. Turing tilbyr ikke tilstrekkelige fordeler i nåværende spill for å rettferdiggjøre prispremien Nvidia har slått på den.

Vil RTXs arkitektur levere i fremtiden?

Denne artikkelen er en av de lengste stykkene jeg noensinne har skrevet for 2007es.com, og det lengste stykke arbeid jeg har skrevet på flere år. Men jeg vil erkjenne at jeg tar et dimmer syn på Turing enn mine kolleger i vurderingssamfunnet. Jeg ville legge ut hvorfor.

Hvis RTX 2080 hadde kommet inn på GeForce 1080-priser og RTX 2080 Ti hadde slått $ 100 - $ 150 på GTX 1080 Ti, jeg fortsatt ville ikke fortelle noen å kjøpe disse kortene og forvente å danse strålesporet mamba over det ordspråklige dansegulvet det neste tiåret. Men det ville i det minste være et svakt argument for noen ytelsesgevinster i den virkelige verden ved forbedrede ytelse per dollar-forhold og litt neste generasjons kirsebær på toppen. Med Nvidias prisøkninger medregnet i ligningen, kan jeg ikke anbefale å bruke toppdollar på å kjøpe silisium som nesten helt sikkert vil bli erstattet av kort med bedre resultater til lavere priser og lavere strømforbruk i løpet av de neste 12-18 månedene. Turing er den svakeste oppgraderingen fra generasjon til generasjon som Nvidia noensinne har sendt når prisøkninger er tatt i betraktning. Den historiske rekorden gir ingen bevis for å tro noe under RTX 2080 Ti vil være en troverdig utøver i strålesporet arbeidsbelastning på lang sikt.

2007es.com anbefaler derfor ikke å kjøpe verken RTX 2080 eller RTX 2080 Ti for deres forventede ytelse i fremtidige spill. Strålesporing kan være fremtiden for spill, men fremtiden er ikke her ennå. Vanlig støtte for disse funksjonene kommer ikke til 12nm GPUer og vil ikke bli tatt i bruk i massemarkedet før neste generasjon kort. Og igjen - hver dollar du slipper på $ 700 og $ 1200 GPUer er en dollar som forteller Nvidia at den burde belaste deg mer for ditt neste grafikkort.

RTX 2080 og 2080 Ti er begynnelsen på en ny tilnærming til gjengivelse. På lang sikt kan den teknologiske tilnærmingen de forkjemper være vellykket. Men det gjør ingen av dem til et godt kjøp i dag, mens den historiske rekorden antyder Nei banebrytende GPU er et spesielt godt kjøp sin første gang ut av porten. Ironisk nok er det helt Nvidias feil. Hvis selskapet var mindre flinke til å umiddelbart overgå sine egne tidligere GPU-arkitekturer, vil den nye maskinvaren som gir dramatisk bedre ytelse og pris / ytelsesforhold, ville jeg ha mindre grunn til å ta stillingen jeg tar. Men mellom prisøkningene og Nvidias egen historiske ytelse, er det smarte trekket her å vente. Enten du venter på fornuftige priser, 7 nm eller bare fornøyd med din nåværende GPU - det er opp til deg.

Les nå:Nvidia Aksjer Skid på skuffende RTX GPU Launch,Nvidia kunngjør nye Tesla T4-GPUer for datasenterkonferanse, ogNvidia vil beholde Pascal GPUer i butikkhyllene etter RTX-lanseringer

Copyright © Alle Rettigheter Reservert | 2007es.com