Hvordan velge et grafikkort

Hvis du ønsker å kjøpe eller bygge en ny spill-PC, er et av de viktigste spørsmålene du kan stille: "Hvilket grafikkort trenger jeg?" Det kan være et vanskelig valg, med ikke bare forskjellige produsenter å velge mellom, men også forskjellige versjoner av hvert enkelt grafikkort. Hvordan oppgraderer du skjermkortet ditt hvis du ikke en gang er sikker på hvilket du bør kjøpe?

Å velge et grafikkort handler om å lære å lese tallene og bestemme hva som er viktig. Trenger du flere VRAM- eller GPU-kjerner? Hvor viktig er kjøling? Hva med power draw? Dette er alle spørsmålene vi vil svare på (og mer) når vi beskriver hvordan du finner en GPU som passer for deg.

AMD vs Nvidia vs. Intel

Når det gjelder å kjøpe et nytt grafikkort, er de to hovedvalgene AMD og Nvidia. Disse to bransjegigantene har de kraftigste kortene, og til og med budsjetttilbudene deres er designet med tanke på HD-oppløsninger. Intel er mest kjent for sine integrerte eller innebygde GPUer. Sammen med prosessorer er de ikke egentlig designet for spill på samme måte. De kan gjøre det, men de passer best til uavhengige spill og eldre titler.

Det kan endres i 2020, med Intel som debut for det første dedikerte grafikkortet på flere tiår. Inntil det gjør det, lager AMD og Nvidia de beste grafikkortene for stasjonære og bærbare datamaskiner.

Det er flere valg å ta enn merkevare når det gjelder å velge et grafikkort, men AMD og Nvidia har noen kjennetegn som er unike for maskinvaren. Fra og med våren 2020 er Nvidia-grafikkort de eneste som støtter maskinvareakselerert strålesporing med sine RTX-GPUer. Den nyter også eksklusiv støtte for G-Sync-teknologien, og knytter seg godt til sin streamingplattform, GeForce Now. Det er også dyp læring super sampling, som har vist seg i stand til å levere imponerende ytelsesforbedringer til en begrenset liste over støttende spill.

Nvidia har også de kraftigste grafikkortene som er tilgjengelige, med ganske stor margin.

Det betyr ikke at AMD er dårlige. Faktisk er dets avanserte grafikkort fantastisk dyktige og uten tvil fantastisk verdi også. GPU-ene har en tendens til å tilby litt større valuta for pengene i de fleste sektorer av markedet, selv om funksjonssettet er uten tvil svakere. Den tilbyr støtte for Freesync-rammesynkronisering (en sammenlignbar teknologi med G-Sync), i tillegg til skarphet av bilder og andre visuelle forbedringer, noe som kan gjøre at spill ser bedre ut nesten uten ekstra kostnad i ressurser.

Det tilbyr ikke strålesporing eller DLSS-støtte, men førstnevnte vil sannsynligvis endre seg mot slutten av 2020 med utgivelsen av AMDs neste generasjons grafikkort.

Til slutt, når det gjelder å velge en GPU, er det nyttig å vurdere om skjermen støtter Freesync eller G-Sync, og om noen av ledsagefunksjonene til disse selskapenes grafikkort kan hjelpe deg. For de fleste vil pris og ytelse være viktigere hensyn.

CUDA-kjerner og streaming-prosessorer

Selv om prosessorer og grafikkort har prosessorkjerner i hjertet, er oppgavene deres forskjellige, så antall kjerner er forskjellige. CPUer må være kraftige, generelle maskiner, der GPUer er designet med masser av parallelle - men likevel enkle - beregninger til enhver tid. Derfor har CPUer en håndfull kjerner, og GPUer har hundrevis eller tusenvis.

Den kraftigste GPU-en har en tendens til å ha mest, selv om det er andre faktorer som kan redusere det. Et kort med litt færre kjerner kan ha en høyere klokkehastighet (mer om det senere), noe som kan øke ytelsen selv over kortene med høyere kjernetall - men ikke typisk. Det er derfor individuelle anmeldelser av grafikkort og sammenligning er like viktige.

I vår test av 2080 Ti og 2080 var det avanserte kortet i stand til å sende ut mer enn 100 bilder per sekund Slagmark 1 på 4K med alle innstillinger på Ultra, hvor 2080 bare klarte i gjennomsnitt 74 bilder per sekund. Den mer mellomstore AMD RX 5700 og 5700 XT leverte lignende slags bildefrekvens på 1440p in Battlefield V, men falt til i underkant av 60 bilder per sekund på 4K.

Kalt CUDA-kjerner når det gjelder Nvidias GPUer og stream-prosessorer på AMDs kort, er GPU-kjerner designet litt annerledes, avhengig av GPU-arkitekturen. Det gjør AMD og Nvidias kjernetall ikke spesielt sammenlignbare, i det minste ikke rent tallmessig.

Flere kjerner tilsvarer mer ytelse, i nesten alle tilfeller. Det er en grunn til at Nvidia RTX 2080 Ti, det kraftigste kortet den selger til vanlige kjøpere, har 4 352, og det nest beste kortet, RTX 2080 Super, har bare 3 072.

Å kjøpe et kort med færre CUDA-kjerner betyr ikke at du får vesentlig svakere ytelse, men jo høyere kjernetall, desto større ytelse vil du se. Se først på denne statistikken for å bestemme hvilket kort som kan være riktig for deg.

VRAM

Akkurat som hver PC trenger systemminne, trenger hvert grafikkort sitt eget dedikerte minne, vanligvis kalt video ram (VRAM) - selv om det er et litt utdatert begrep som har blitt brukt for sin moderne, allment bruk. Vanligvis ser du minne oppført i gigabyte GDDR etterfulgt av et tall som betegner generasjonen. Nyere GPUer har blitt solgt med fire, seks, åtte og 11 GB GDDR6, selv om det også finnes eksisterende grafikkort med GDRR5. En annen minnetype, kalt minne med høy båndbredde (HBM, HBM2 eller 2e), gir høyere ytelse til en høyere pris og varmeeffekt.

VRAM er et viktig mål på ytelsen til et grafikkort, men i mindre grad enn kjernetellene. Det påvirker mengden informasjon som kortet kan cache klart for behandling, noe som gjør det viktig for teksturer med høy oppløsning og andre detaljer i spillet. Hvis du planlegger å spille mediuminnstillinger på 1080p, er 4 GB VRAM mer enn nok.

Hvis du vil spille med høyere oppløsningsstruktur og med høyere oppløsninger, gir 8 GB VRAM deg mye mer takhøyde, og det er langt mer fremtidssikkert - perfekt for når neste generasjons konsollspill begynner å hoppe til PC mot slutten av 2020. Alt utover 8 GB er reservert for de mest avanserte kortene og er bare virkelig nødvendig hvis du ønsker å spille eller videoredigere i 4K eller høyere oppløsninger.

GPU og minneklokkehastighet

Det andre stykket i GPU-ytelsespuslespillet er klokkehastighet, av både kjerner og minne. Dette er hvor mange komplette beregningssykluser kortet kan gjøre hvert sekund, og det er der hvor hull i kjerne- eller minnetall kan lukkes, i noen tilfeller betydelig. Det er også der de som ønsker å overklokke grafikkortet har størst innvirkning.

Klokkehastighet er vanligvis oppført i to mål: Base Clock og Boost Clock. Førstnevnte er den laveste klokkehastigheten kortet skal kjøre med, mens boost-klokken er det den vil prøve å kjøre med når det er sterkt beskattet. Imidlertid kan krav til varme og kraft ikke tillate at den når klokken ofte eller i lengre perioder. Av denne grunn spesifiserer AMD-kort også en Game Clock, som er mer representativ for den typiske klokkehastigheten du kan forvente å nå når du spiller.

Et godt eksempel på hvordan klokkehastighet kan gjøre en forskjell er med RTX 2080 Super og 2080 Ti. Der 2080 Ti har nesten 50% flere kjerner enn 2080 Super, er det bare 10% -30% tregere, avhengig av spillet. Det skyldes hovedsakelig 300 MHz + høyere klokkehastighet - de fleste 2080 Supers har over 2080 Ti.

Raskere minne hjelper det også. Minneytelse handler om båndbredde, som beregnes ved å kombinere hastigheten på minnet med den totale mengden. Den raskere GDDR6 i 2080 Super bidrar til å forbedre den totale båndbredden utover standard 2080 med mer enn 10% og reduserer gapet med 2080 Ti båndbredde betydelig. Det er imidlertid et tak for nytte, med kort som AMD Radeon VII som tilbyr enorm båndbredde, men lavere spillytelse enn et kort som 2080 Ti.

Når det gjelder å kjøpe et grafikkort, bør klokkehastigheter stort sett vurderes etter at du har valgt en modell. Noen GPU-modeller har fabrikkoverklokker som kan øke ytelsen med noen få prosentpoeng i forhold til konkurrentene. Hvis det er god kjøling, kan det være betydelig.

Kjøling og kraft

Et kort er bare så kraftig som kjøling og kraftuttak tillater. Hvis du ikke holder et kort i sikre driftstemperaturer, vil det stenge klokkehastigheten, og det kan bety betydelig dårligere ytelse. Det kan også føre til høyere støynivå ettersom viftene snurrer raskere for å prøve å kjøle det ned. Selv om kjølere varierer enormt fra kort til kort og produsent til produsent, er en god tommelfingerregel at de med større kjølerister og flere og større vifter har en tendens til å bli bedre avkjølt. Det betyr at de løper roligere og ofte raskere.

Det kan også åpne for overklokking hvis det interesserer deg. Kjøleløsninger ettermarkedet, som større kjølerister og vannkjøling i ekstreme tilfeller, kan gjøre at kortene blir enda roligere og kjøligere. Merk at det er mye mer komplisert å bytte en kjøler på en GPU enn den er på en CPU.

Hvis du spiller i hodetelefoner, kan kjøling med lite støy kanskje ikke være så bekymringsfullt, men det er likevel noe som er verdt å vurdere når du bygger eller kjøper PCen.

Når det gjelder strøm, fokuser på om PSU-enheten din har nok effekt til å støtte det nye kortet ditt. RealHardTechX har et flott diagram for å finne ut av det. Du må også sørge for at PSU-en din har de riktige kablene for kortet du planlegger å kjøpe. Det er adaptere som kan gjøre jobben, men de er ikke like stabile, og hvis du trenger å bruke en, er det et godt tegn at PSU ikke er opp til oppgaven.

Hvis du trenger en ny PSU, er dette favorittene våre.

Hvor mye skal du bruke på et grafikkort?

Med alt annet vurdert kan budsjett være den viktigste faktoren. Hvor mye skal du faktisk bruke på en GPU? Dette er forskjellig for alle, avhengig av hvordan du planlegger å bruke det og hva budsjettet ditt er. Når det er sagt, her er noen generaliseringer:

  • For inngangsnivå, uavhengig spill og eldre spill, kan grafikk ombord være tilstrekkelig. Ellers vil hvor som helst opptil $ 100 på et dedikert grafikkort gi deg litt bedre bildefrekvens og detaljinnstillinger.
  • For solid 60+ fps 1080p-spill i esports-spill og eldre AAA-spill, forvent å bruke rundt $ 150.
  • For moderne AAA-spill på 1080p eller 1440p overalt ellers, må du sannsynligvis bruke nærmere $ 250.
  • 60+ bilder per sekund på 1440p i hvilket som helst spill eller strålesporing på første nivå i støttespill vil koste deg $ 300 til $ 400.
  • 4K-spill, eller det mest ekstreme av spillsystemer, kan koste så mye du er villig til å bruke, men et sted mellom $ 500 og $ 1000 er sannsynlig.

Hva med innebygd grafikk?

Både Intel og AMD lager prosessorer som inkluderer grafikkjerner på samme brikke, ofte referert til som integrerte grafikkprosessorer (IGP) eller innebygd grafikk. De er langt svakere enn dedikerte grafikkort og gir vanligvis bare ytelse på basenivå for lavoppløsnings- og detaljspilling. Imidlertid er det noen som er bedre enn andre. All vår diskusjon om grafikk gjelder også for diskrete kort og innebygd grafikk.

Mange nåværende generasjons Intel-prosessorer inkluderer UHD-grafikk i 600-serien, som gjør visse avanserte spill omtrent spillbare med lave innstillinger. I testingen fant vi UHD 620 i stand til å spille spill som World of Warcraft og Battlefield 4 ved lave innstillinger med 768p-oppløsning, men den brøt ikke 60 bilder per sekund, og 1080p-ytelsen var betydelig lavere - knapt spillbar.

Ellevte generasjons grafikk, funnet på Intels tiende generasjons Ice Lake-prosessorer, er mye mer i stand. CPUer utstyrt med den teknologien er i stand til å spille spill som CS: GO ved lavere innstillinger på 1080p. Anandtechs testing fant at en 64-kjøringsenhet GPU om bord i Core i7-1065G7 i en Dell XPS 13 klarte over 43 fps i Dota 2 ved entusiastinnstillinger med 1080p oppløsning. Vi fant det en levedyktig brikke for å spille Fortnite på 720p og 1080p også.

AMDs innebygde Vega-grafikk er mer sammenlignbar med Ice Lake's 11. generasjons sjetonger, med avanserte varianter som tilbyr noen overraskende dyktige spillegenskaper på inngangsnivå. I vår test av ThinkPad E495 i 2019 fant vi Ryzen 7 3700U, med sin Vega 10-grafikk, mer enn en kamp for Halvt liv 2 og Diablo 3.

Så farlige som disse spillopplevelsene er, finner du en mye rikere, jevnere opplevelse med høyere detaljstøtte og høyere bildefrekvens på et dedikert grafikkort.

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found