Rasterisering block vad. Klokt val av grafikkort

Fyllningsgraden visar hur snabbt videochippet kan rita pixlar. Det finns två typer av fyllnadshastighet: pixelfyllningshastighet och texturfyllningshastighet. Pixelfyllningshastighet visar hastigheten för att rita pixlar på skärmen och beror på driftsfrekvensen och antalet ROP-enheter (enheter för rastrering och blandning), och texturfyllningshastigheten är hastigheten för sampling av texturdata, vilket beror på driftsfrekvensen och antalet texturenheter.

Till exempel är pixelfyllningshastigheten för GeForce GTX 275 633 (chipfrekvens) * 28 (antal ROP-enheter) = 17724 megapixlar per sekund, och texturfyllningshastigheten är 633 * 80 (antal textureringsenheter) = 50640 megatexel/s . Ju större den första siffran, desto snabbare kan grafikkortet rita färdiga pixlar, och ju större den andra, desto snabbare samplas texturdata. Båda parametrarna är viktiga för moderna spel, men de måste vara balanserade. Det är därför antalet ROP-enheter i moderna marker vanligtvis är mindre än antalet texturenheter.

Antal skuggningsblock (pixel, vertex).

Vertex shader är ansvarig för att konstruera hörn av ett objekt. De bestämmer kapaciteten hos moderna kort för att bearbeta grafiska primitiva objekt, och i allmänhet själva kortets prestanda. En pixelshader är mer relevant än en vertex shader, så deras antal är vanligtvis större. Uppdelningen i pixlar och vertex har nyligen (med lanseringen av Direct 10) tappat sin relevans. Alla ersätts av enstaka enhetliga shader-block, beroende på den specifika situationen. De använder både pixel och vertex shaders, såväl som geometriska sådana, som dök upp i Direct 10.

Antal TMU textureringsenheter

Antalet TMU-textureringsenheter som bestämmer texturprestanda, eller hastigheten med vilken texturer samplas och mappas. Detta är särskilt relevant för anisotrop filtrering. TMU-block är viktigast i äldre spel. Nu har de praktiskt taget tappat sin relevans, eftersom... Minnesbussbandbredden i moderna system räcker inte för att högpresterande kort ska fungera normalt. De flesta av dem är utrustade med ett eget minne, som krävs för att lagra nödvändiga data, nämligen texturer, hörn, etc.

Rasterization Operation Units (ROPs)

Rasteriseringsenheter utför operationerna att skriva pixlar som beräknas av grafikkortet till buffertar och operationerna att blanda dem (blandning). Som vi noterade ovan påverkar prestandan hos ROP-block fyllningsgraden och detta är en av de viktigaste egenskaperna hos grafikkort genom tiderna. Och även om dess betydelse också har minskat något nyligen, finns det fortfarande fall där applikationsprestanda beror på hastigheten och antalet ROP-block. Oftast beror detta på den aktiva användningen av efterbehandlingsfilter och kantutjämning aktiverad vid höga spelinställningar.

Låt oss återigen notera att moderna videochips inte bara kan bedömas utifrån antalet olika block och deras frekvens. Varje GPU-serie använder en ny arkitektur, där exekveringsenheterna skiljer sig mycket från de gamla, och förhållandet mellan antalet olika enheter kan skilja sig åt. Således kan AMD ROP-enheter i vissa lösningar utföra mer arbete per klockcykel än enheter i NVIDIA-lösningar, och vice versa. Detsamma gäller kapaciteten hos TMU-texturenheter - de är olika i olika generationer av GPU:er från olika tillverkare, och detta måste man ta hänsyn till när man jämför.

Geometriska block

Tills nyligen var antalet geometribearbetningsenheter inte särskilt viktigt. Ett block på GPU:n räckte för de flesta uppgifter, eftersom geometrin i spel var ganska enkel och huvudfokus för prestanda var matematiska beräkningar. Vikten av parallell geometribearbetning och antalet motsvarande block ökade dramatiskt med tillkomsten av geometristessellationsstöd i DirectX 11. NVIDIA var först med att parallellisera bearbetningen av geometriska data när flera motsvarande block dök upp i dess GF1xx-familjechips. Sedan släppte AMD en liknande lösning (endast i topplösningarna i Radeon HD 6700-linjen baserad på Cayman-chips).

Videominnets storlek

Eget minne används av videochips för att lagra nödvändiga data: texturer, hörn, buffertdata, etc. Det verkar som att ju mer det finns, desto bättre. Men det är inte så enkelt; att uppskatta styrkan hos ett grafikkort baserat på mängden videominne är det vanligaste misstaget! Oerfarna användare överskattar oftast värdet av videominne och använder det fortfarande för jämförelse olika modeller grafikkort Detta är förståeligt - den här parametern är en av de första som anges i listorna över egenskaper hos färdiga system, och den är skriven i stort teckensnitt på grafikkortslådor. Därför verkar det för en oerfaren köpare att eftersom det finns dubbelt så mycket minne, bör hastigheten på en sådan lösning vara dubbelt så hög. Verkligheten skiljer sig från denna myt genom att minnet kommer i olika typer och egenskaper, och produktivitetstillväxten växer bara upp till en viss volym, och efter att ha nått det stannar den helt enkelt.

Minneskretsar har fler viktiga parametrar, såsom minnesbussens bredd och dess arbetsfrekvens.

Minnesbuss bredd.

Minnesbussbredden är den viktigaste egenskapen som påverkar minnesbandbredden (MBB). En större bredd gör att mer information kan överföras från videominnet till GPU:n och tillbaka per tidsenhet, vilket har en positiv effekt på prestandan i de flesta fall. Teoretiskt kan en 256-bitars buss överföra dubbelt så mycket data per klockcykel som en 128-bitars buss. I praktiken är skillnaden i renderingshastighet, även om den inte når två gånger, mycket nära detta i många fall med tonvikt på videominnets bandbredd.

Moderna spelvideokort använder olika bussbredder: från 64 till 384 bitar (tidigare fanns det chips med en 512-bitars buss), beroende på prisklass och releasetid för en viss GPU-modell. För de billigaste low-end grafikkorten används oftast 64 och mindre ofta 128 bitar, för mellannivån från 128 till 256 bitar, och grafikkort från den övre prisklassen använder bussar från 256 till 384 bitar breda. Bussbredden kan inte längre växa enbart på grund av fysiska begränsningar - GPU-matrisstorleken är otillräcklig för att rymma mer än en 512-bitars buss, och detta är för dyrt. Därför utökas nu minnesbandbredden genom att använda nya typer av minne (se nedan).

Videominnesfrekvens

En annan parameter som påverkar minnesbandbredden är dess klockfrekvens. Och att öka bandbredden påverkar ofta grafikkortets prestanda i 3D-applikationer. Minnesbussfrekvensen på moderna grafikkort sträcker sig från 533 (1066, med hänsyn till fördubbling) MHz till 1375 (5500, med hänsyn till fyrdubbling) MHz, det vill säga den kan skilja sig mer än fem gånger! Och eftersom bandbredden beror på både minnesfrekvensen och bredden på dess buss, kommer minne med en 256-bitars buss som arbetar med en frekvens på 800 (3200) MHz att ha större bandbredd jämfört med minne som arbetar på 1000 (4000) MHz med en 128 -bit buss.

Minnestyper

Moderna grafikkort är utrustade med flera olika typer av minne. Du hittar inte gammalt enkelhastighets SDR-minne någonstans längre, men moderna typer av DDR- och GDDR-minnen har väsentligt olika egenskaper. Olika typer av DDR och GDDR gör att du kan överföra två eller fyra gånger mer data med samma klockfrekvens per tidsenhet, och därför dubbleras eller fyrdubblas driftfrekvensen ofta, multiplicerat med 2 eller 4. Så, om frekvensen anges för DDR-minne 1400 MHz, så arbetar detta minne med en fysisk frekvens på 700 MHz, men de indikerar den så kallade "effektiva" frekvensen, det vill säga den som SDR-minnet måste arbeta med för att ge samma bandbredd. Samma sak med GDDR5, men frekvensen är till och med fyrdubblad.

Den största fördelen med nya typer av minne är möjligheten att arbeta med högre klockhastigheter, och följaktligen en ökning av bandbredden jämfört med tidigare tekniker. Detta uppnås på bekostnad av ökade latenser, som dock inte är så viktiga för grafikkort.

Det följer att ju större grafikkortsminne, desto högre prestanda. Viktiga parametrar är bussens driftfrekvens och bussbredd. En större bussbredd gör att mer information kan överföras per tidsenhet från videominnet till GPU:n och tillbaka. Detta säkerställer bättre grafikkortsprestanda under lika förhållanden. Bussbredden är 64-128 bitar för ett budgetvideokort, 128-256 bitar för mellanklasskort, för hög nivå– 256-512 bitar.


1.2 Beskrivning av enhetens funktion och blockschema

När en bild konstrueras, efter bearbetning av videosignalen av den centrala processorn, skickas data till videokortets databussen. Därefter skickas data till den parallella kommandoexekveringsenheten och från den till GPU (grafikprocessor), där följande åtgärder utförs:

· Transformation – enkla objekt behöver oftast ändras eller transformeras på ett visst sätt för att skapa ett mer naturligt objekt, eller för att imitera dess rörelse i rymden. För att göra detta omräknas koordinaterna för hörn av objektets ytor (vertex) med hjälp av matrisalgebraoperationer och geometriska transformationer. I grafikkort används detta intensivt geometrisk samprocessor.

· Beräkning av belysning och skuggning - för att ett objekt ska vara synligt på skärmen är det nödvändigt att beräkna belysningen och skuggningen för varje elementär rektangel eller triangel. Dessutom är det nödvändigt att simulera den verkliga fördelningen av belysning, det vill säga det är nödvändigt att dölja förändringar i belysningen mellan rektanglar eller trianglar - detta görs av Rasterization Unit.

· Texturkartläggning - för att skapa en realistisk bild appliceras en textur på varje elementär yta som imiterar den verkliga ytan. Texturer lagras i minnet som rasterbilder.

· Korrigering av defekter - simulerade linjer och gränser för objekt, om de inte är vertikala eller horisontella, ser kantiga ut på skärmen, så en bildkorrigering utförs, kallad kantutjämning ( kantutjämning);

Efter GPU-bearbetning bearbetas objekt av Z-buffertblocket:

· Projektion - ett tredimensionellt objekt omvandlas till ett tvådimensionellt, men avstånden mellan ytornas hörn till skärmens yta (Z-koordinat, Z-buffert) som objektet projiceras på kommer ihåg;

· Ta bort dolda ytor - tar bort alla osynliga ytor från en 2D-projektion av ett 3D-objekt.

Efter att ha beräknat alla punkter i bildrutan flyttas information om varje pixel till videominnet.

I kontrollblocket för paletten och bildöverlägget interpoleras de saknade färgerna - om ett annat antal färger användes vid modellering av objekt än i det aktuella grafikkortsläget, är det nödvändigt att beräkna de saknade färgerna eller ta bort de överflödiga.

Om grafikkortet är anslutet till en bildskärm baserad på ett katodstrålerör, går data till en DAC (digital-till-analog-omvandlare) där digitala signaler omvandlas till analoga RGB-signaler som monitorn förstår.

Om grafikkortet är anslutet till en digital bildskärm konverteras bildinformationen till bildskärmsformatet.

Grundläggande komponenter i ett grafikkort:

  • utgångar;
  • gränssnitt;
  • kylsystem;
  • GPU;
  • videominne.

Grafikteknik:

  • lexikon;
  • GPU-arkitektur: funktioner
    vertex/pixelenheter, shaders, fyllnadshastighet, textur/rasterenheter, pipelines;
  • GPU-arkitektur: teknik
    teknisk process, GPU-frekvens, lokalt videominne (volym, buss, typ, frekvens), lösningar med flera grafikkort;
  • visuella funktioner
    DirectX, högt dynamiskt omfång (HDR), helskärmskantutjämning, texturfiltrering, högupplösta texturer.

Ordlista över grundläggande grafiska termer

Uppdateringsfrekvens

Precis som i en biograf eller TV, simulerar din dator rörelse på bildskärmen genom att visa en sekvens av bildrutor. Bildskärmens uppdateringsfrekvens anger hur många gånger per sekund bilden på skärmen kommer att uppdateras. Till exempel motsvarar en frekvens på 75 Hz 75 uppdateringar per sekund.

Om datorn bearbetar bildrutor snabbare än vad bildskärmen kan mata ut kan det uppstå problem i spel. Till exempel, om datorn återger 100 bilder per sekund och bildskärmens uppdateringsfrekvens är 75 Hz, kan monitorn på grund av överlappningar endast visa en del av bilden under dess uppdateringsperiod. Som ett resultat visas visuella artefakter.

Som en lösning kan du aktivera V-Sync (vertikal synk). Det begränsar antalet bildrutor som datorn kan mata ut till bildskärmens uppdateringsfrekvens, vilket förhindrar artefakter. Om du aktiverar V-Sync kommer antalet frames som beräknas i spelet aldrig att överstiga uppdateringsfrekvensen. Det vill säga, vid 75 Hz kommer datorn inte att mata ut mer än 75 bilder per sekund.

Pixel

Ordet "Pixel" står för " bild tur el ement" är ett bildelement. Det är en liten prick på skärmen som kan lysa i en viss färg (i de flesta fall visas nyansen av en kombination av tre grundfärger: röd, grön och blå). Om skärmupplösningen är 1024x768 kan du se en matris på 1024 pixlar i bredd och 768 pixlar i höjd. Tillsammans utgör pixlar en bild. Bilden på skärmen uppdateras från 60 till 120 gånger per sekund, beroende på typen av display och datautmatningen från grafikkortet. CRT-skärmar uppdaterar bildskärmen rad för rad, medan platta LCD-skärmar kan uppdatera varje pixel individuellt.

Vertex

Alla objekt i 3D-scenen är uppbyggda av hörn. En vertex är en punkt i det tredimensionella rummet med koordinaterna X, Y och Z. Flera hörn kan grupperas i en polygon: oftast är det en triangel, men mer komplexa former är möjliga. En textur appliceras sedan på polygonen, vilket gör att objektet ser realistiskt ut. 3D-kuben som visas i illustrationen ovan har åtta hörn. Mer komplexa föremål har krökta ytor som faktiskt består av ett mycket stort antal hörn.

Textur

En textur är helt enkelt en 2D-bild av en godtycklig storlek som mappas på ett 3D-objekt för att simulera dess yta. Till exempel består vår 3D-kub av åtta hörn. Innan du applicerar texturen ser det ut som en enkel låda. Men när vi applicerar texturen blir lådan färgad.

Shader

Pixel shader-program låter grafikkortet producera imponerande effekter, till exempel som det här vattnet i Äldste rullar: Oblivion.

Idag finns det två typer av shaders: vertex och pixel. Vertex shader-program kan modifiera eller transformera 3D-objekt. Med pixelskuggningsprogram kan du ändra färgerna på pixlar baserat på vissa data. Föreställ dig en ljuskälla i en 3D-scen som får upplysta objekt att lysa starkare, samtidigt som det gör att skuggor kastas på andra objekt. Allt detta uppnås genom att ändra pixlarnas färginformation.

Pixel shaders används för att skapa komplexa effekter i dina favoritspel. Till exempel kan skuggningskod få pixlarna som omger ett 3D-svärd att lysa ljusare. En annan shader kan bearbeta alla hörn i ett komplext 3D-objekt och simulera en explosion. Spelutvecklare vänder sig alltmer till sofistikerade shader-program för att skapa realistisk grafik. Nästan alla moderna spel med rik grafik använder shaders.

Med lanseringen av nästa Application Programming Interface (API), Microsoft DirectX 10, kommer en tredje typ av shader att släppas, kallad geometri shaders. Med deras hjälp kommer det att vara möjligt att bryta föremål, ändra och till och med förstöra dem, beroende på önskat resultat. Den tredje typen av shaders kan programmeras på exakt samma sätt som de två första, men dess roll kommer att vara annorlunda.

Fyllnadsgrad

Mycket ofta på lådan med ett grafikkort kan du hitta fyllningsgradsvärdet. I grund och botten indikerar fyllningsgraden hur snabbt GPU:n kan mata ut pixlar. Äldre grafikkort hade en triangelfyllnadsgrad. Men idag finns det två typer av fyllnadsgrader: pixelfyllnadshastighet och texturfyllnadshastighet. Som redan nämnts motsvarar pixelfyllningshastigheten pixelutgångshastigheten. Det beräknas som antalet rasteroperationer (ROP) multiplicerat med klockfrekvensen.

ATi och nVidia beräknar texturfyllnadshastigheter på olika sätt. Nvidia menar att hastigheten erhålls genom att multiplicera antalet pixelpipelines med klockfrekvensen. Och ATi multiplicerar antalet texturenheter med klockhastigheten. I princip är båda metoderna korrekta, eftersom nVidia använder en texturenhet per pixel shader-enhet (det vill säga en per pixel pipeline).

Med dessa definitioner i åtanke, låt oss gå vidare och diskutera GPU:ns viktigaste funktioner, vad de gör och varför de är så viktiga.

GPU-arkitektur: Funktioner

Realismen hos 3D-grafik beror mycket på grafikkortets prestanda. Ju fler pixelskuggningsblock processorn innehåller och ju högre frekvens, desto fler effekter kan appliceras på 3D-scenen för att förbättra dess visuella uppfattning.

GPU:n innehåller många olika funktionsblock. Genom antalet komponenter kan du uppskatta hur kraftfull GPU:n är. Innan vi går vidare, låt oss gå igenom de viktigaste funktionella blocken.

Vertex-processorer (vertex shader-enheter)

Precis som pixelskuggningsenheter exekverar vertexprocessorer skuggningskod som berör hörn. Eftersom en större vertexbudget tillåter att mer komplexa 3D-objekt kan skapas, är prestandan hos vertexprocessorer mycket viktig i 3D-scener med komplexa eller stora antal objekt. Dock har vertex shader-enheter fortfarande inte en så uppenbar inverkan på prestanda som pixelprocessorer.

Pixelprocessorer (pixel shader-enheter)

En pixelprocessor är en komponent i ett grafikchip som är dedikerat till att bearbeta pixelskuggningsprogram. Dessa processorer utför beräkningar som endast avser pixlar. Eftersom pixlar innehåller färginformation låter pixelskuggningar dig uppnå imponerande grafiska effekter. Till exempel skapas de flesta av vatteneffekterna du ser i spel med hjälp av pixelskuggningar. Vanligtvis används antalet pixelprocessorer för att jämföra pixelprestanda för grafikkort. Om ett kort har åtta pixel shader-enheter och ett annat har 16 enheter, så är det logiskt att anta att ett grafikkort med 16 enheter kommer att vara snabbare på att bearbeta komplexa pixel shader-program. Man bör också ta hänsyn till klockhastigheten, men idag är en fördubbling av antalet pixelprocessorer mer energieffektiv än att fördubbla frekvensen på grafikkretsen.

Unified shaders

Unified shaders har ännu inte kommit till PC-världen, men den kommande DirectX 10-standarden bygger på en liknande arkitektur. Det vill säga, kodstrukturen för vertex-, geometri- och pixelprogram kommer att vara densamma, även om shaders kommer att utföra olika arbeten. Den nya specifikationen kan ses i Xbox 360, där GPU:n specialdesignades av ATi för Microsoft. Det ska bli mycket intressant att se vilken potential den nya DirectX 10 ger.

Texture Mapping Units (TMU)

Texturer bör väljas och filtreras. Detta arbete görs av texturmapping-enheter, som fungerar tillsammans med pixel- och vertex shader-enheter. TMU:s uppgift är att tillämpa texturoperationer på pixlar. Antalet texturenheter i en GPU används ofta för att jämföra texturprestandan hos grafikkort. Det är rimligt att anta att ett grafikkort med fler TMU:er ger bättre strukturprestanda.

Raster Operator Units (ROP)

Rasterprocessorer är ansvariga för att skriva pixeldata till minnet. Hastigheten med vilken denna operation utförs är fyllningshastigheten. I början av 3D-acceleratorer var ROP och fyllnadshastighet mycket viktiga egenskaper hos grafikkort. Idag är ROP-arbete fortfarande viktigt, men grafikkortets prestanda begränsas inte längre av dessa block som det en gång var. Därför används sällan prestanda (och antal) för ROP för att utvärdera hastigheten på ett grafikkort.

Transportörer

Pipelines används för att beskriva grafikkortens arkitektur och ger en mycket tydlig uppfattning om prestanda hos GPU.

Transportör kan inte betraktas som en strikt teknisk term. GPU:n använder olika pipelines som utför olika funktioner. Historiskt sett betydde en pipeline en pixelprocessor som var ansluten till dess texturmappningsenhet (TMU). Radeon 9700 grafikkort använder till exempel åtta pixelprocessorer, som var och en är ansluten till sin egen TMU, så kortet anses ha åtta pipelines.

Men moderna processorer är mycket svåra att beskriva med antalet pipelines. Jämfört med tidigare konstruktioner använder de nya processorerna en modulär, fragmenterad struktur. ATi kan anses vara en innovatör inom detta område, som med X1000-serien av grafikkort bytte till modulär struktur, vilket gjorde det möjligt att uppnå prestandavinster genom intern optimering. Vissa CPU-block används mer än andra, och för att förbättra GPU-prestandan har ATi försökt hitta en kompromiss mellan antalet block som behövs och formytan (som inte kan ökas särskilt mycket). I denna arkitektur har termen "pixelpipeline" redan förlorat sin betydelse, eftersom pixelprocessorerna inte längre är anslutna till sina egna TMU:er. Till exempel har ATi Radeon X1600 GPU 12 pixel shader-enheter och endast fyra TMU-strukturmappningsenheter. Därför är det omöjligt att säga att arkitekturen för denna processor har 12 pixlar pipelines, precis som det är omöjligt att säga att det bara finns fyra av dem. Men av tradition nämns fortfarande pixelpipelines.

Med hänsyn till ovanstående antaganden används ofta antalet pixelpipelines i en GPU för att jämföra grafikkort (med undantag för ATi X1x00-linjen). Om du till exempel tar grafikkort med 24 och 16 pipelines, så är det ganska rimligt att anta att kortet med 24 pipelines blir snabbare.

GPU-arkitektur: Teknik

Teknisk process

Denna term hänvisar till storleken på ett element (transistor) i chipet och noggrannheten i tillverkningsprocessen. Förbättringar i tekniska processer gör det möjligt att erhålla element av mindre storlek. Till exempel producerar 0,18 mikron-processen större funktioner än 0,13 mikron-processen, så den är inte lika effektiv. Mindre transistorer arbetar med lägre spänning. I sin tur leder en minskning av spänningen till en minskning av det termiska motståndet, vilket resulterar i en minskning av mängden värme som genereras. Förbättringar i den tekniska processen gör det möjligt att minska avståndet mellan chipets funktionsblock och dataöverföringen tar kortare tid. Kortare avstånd, lägre spänningar och andra förbättringar gör att högre klockhastigheter kan uppnås.

Det som komplicerar förståelsen något är att idag används både mikrometer (μm) och nanometer (nm) för att beteckna en teknisk process. Faktum är att allt är väldigt enkelt: 1 nanometer är lika med 0,001 mikrometer, så 0,09-μm och 90-nm processer är samma sak. Som nämnts ovan tillåter en mindre processteknik högre klockhastigheter. Om vi ​​till exempel jämför grafikkort med 0,18 mikron och 0,09 mikron (90 nm) chips, så är det ganska rimligt att förvänta sig en högre frekvens från ett 90 nm kort.

GPU klockhastighet

GPU:s klockhastighet mäts i megahertz (MHz), vilket är miljontals klockcykler per sekund.

Klockhastigheten påverkar direkt GPU-prestandan. Ju högre den är, desto mer arbete kan göras på en sekund. För det första exemplet, låt oss ta grafikkorten nVidia GeForce 6600 och 6600 GT: 6600 GT GPU körs på 500 MHz, medan det vanliga 6600-kortet körs på 400 MHz. Eftersom processorerna är tekniskt identiska, resulterar 6600 GT:s 20% ökning av klockhastigheten i högre prestanda.

Men klockhastigheten är inte allt. Tänk på att prestanda i hög grad påverkas av arkitektur. För det andra exemplet, låt oss ta grafikkorten GeForce 6600 GT och GeForce 6800 GT. 6600 GT GPU klockar på 500 MHz, men 6800 GT går på bara 350 MHz. Låt oss nu ta hänsyn till att 6800 GT använder 16 pixlar pipelines, medan 6600 GT bara använder åtta. Därför kommer en 6800 GT med 16 pipelines vid 350 MHz att ge ungefär samma prestanda som en processor med åtta pipelines och dubbla klockhastigheten (700 MHz). Med det sagt kan klockhastigheten enkelt användas för att jämföra prestanda.

Lokalt videominne

Grafikkortsminne påverkar i hög grad prestandan. Men olika minnesparametrar har olika effekter.

Videominnets storlek

Mängden videominne kan nog kallas den mest överskattade parametern på ett grafikkort. Oerfarna konsumenter använder ofta videominneskapacitet för att jämföra olika kort med varandra, men i verkligheten har kapacitet liten effekt på prestanda jämfört med parametrar som minnesbussfrekvens och gränssnitt (bussbredd).

I de flesta fall kommer ett kort med 128 MB videominne att fungera nästan likadant som ett kort med 256 MB. Naturligtvis finns det situationer där mer minne leder till bättre prestanda, men kom ihåg att mer minne inte automatiskt ökar hastigheten i spel.

Där volymen kan vara användbar är i spel med högupplösta texturer. Spelutvecklare tillhandahåller flera uppsättningar texturer för spelet. Och ju mer minne det finns på grafikkortet, desto högre upplösning kan de laddade texturerna ha. Högupplösta texturer ger högre definition och detaljer i spelet. Därför är det ganska rimligt att ta ett kort med en stor mängd minne, om alla andra kriterier är desamma. Kom ihåg att minnesbussens bredd och dess frekvens har en mycket starkare effekt på prestanda än mängden fysiskt minne på kortet.

Minnesbuss bredd

Minnesbussbredden är en av de viktigaste aspekterna av minnesprestanda. Moderna bussar sträcker sig från 64 till 256 bitar breda, och i vissa fall även 512 bitar. Ju bredare minnesbussen är, desto mer information kan den överföra per klockcykel. Och detta påverkar direkt produktiviteten. Till exempel, om vi tar två bussar med lika frekvenser, så kommer teoretiskt sett en 128-bitars buss att överföra dubbelt så mycket data per klocka som en 64-bitars. Och 256-bitarsbussen är dubbelt så stor.

Högre bussbandbredd (uttryckt i bitar eller byte per sekund, 1 byte = 8 bitar) ger bättre minnesprestanda. Det är därför minnesbussen är mycket viktigare än dess storlek. Vid lika frekvenser fungerar en 64-bitars minnesbuss på endast 25% av en 256-bitars!

Låt oss ta följande exempel. Ett grafikkort med 128 MB videominne, men med en 256-bitars buss, ger mycket högre minnesprestanda än en 512 MB-modell med en 64-bitars buss. Det är viktigt att notera att för vissa kort från ATi X1x00-linjen anger tillverkare specifikationerna för den interna minnesbussen, men vi är intresserade av parametrarna för den externa bussen. Till exempel har X1600 en intern ringbuss som är 256 bitar bred, men en extern som bara är 128 bitar bred. Och i verkligheten fungerar minnesbussen med 128-bitars prestanda.

Minnestyper

Minnet kan delas in i två huvudkategorier: SDR (enkel dataöverföring) och DDR (dubbel dataöverföring), där data överförs dubbelt så snabbt per klockcykel. Idag är singelöverförings SDR-teknik föråldrad. Eftersom DDR-minne överför data dubbelt så snabbt som SDR är det viktigt att komma ihåg att grafikkort med DDR-minne ofta anger dubbel frekvens, inte den fysiska frekvensen. Till exempel, om DDR-minne specificeras vid 1000 MHz, så är detta den effektiva frekvensen vid vilken vanligt SDR-minne måste fungera för att ge samma genomströmning. Men i själva verket är den fysiska frekvensen 500 MHz.

Av denna anledning blir många förvånade när deras grafikkortsminne är listat på 1200 MHz DDR, medan verktyg rapporterar 600 MHz. Så du måste vänja dig vid det. DDR2- och GDDR3/GDDR4-minnen fungerar på samma princip, dvs med dubbel dataöverföring. Skillnaden mellan DDR-, DDR2-, GDDR3- och GDDR4-minnen ligger i produktionstekniken och vissa detaljer. DDR2 kan arbeta vid högre frekvenser än DDR-minne, och DDR3 kan arbeta med ännu högre frekvenser än DDR2.

Minnesbussfrekvens

Precis som en processor kör minnet (eller, mer exakt, minnesbussen) med vissa klockhastigheter, mätt i megahertz. Här påverkar ökad klockhastighet direkt minnesprestanda. Och minnesbussens frekvens är en av parametrarna som används för att jämföra grafikkorts prestanda. Till exempel, om alla andra egenskaper (minnesbussbredd, etc.) är desamma, så är det ganska logiskt att säga att ett grafikkort med 700 MHz minne är snabbare än ett 500 MHz.

Återigen, klockhastigheten är inte allt. 700 MHz minne med en 64-bitars buss kommer att vara långsammare än 400 MHz minne med en 128-bitars buss. Prestandan hos 400 MHz minne på en 128-bitars buss motsvarar ungefär 800 MHz minne på en 64-bitars buss. Du bör också komma ihåg att GPU och minnesfrekvenser är helt olika parametrar, och vanligtvis är de olika.

Gränssnitt för grafikkort

All data som överförs mellan grafikkortet och processorn passerar genom grafikkortets gränssnitt. Idag används tre typer av gränssnitt för grafikkort: PCI, AGP och PCI Express. De skiljer sig åt i bandbredd och andra egenskaper. Det är tydligt att ju högre genomströmning, desto högre växlingshastighet. Men bara de modernaste korten kan använda hög bandbredd, och även då bara delvis. Någon gång upphörde hastigheten på gränssnittet att vara en "flaskhals", det räcker helt enkelt idag.

Den långsammaste bussen som grafikkort tillverkades för är PCI (Peripheral Components Interconnect). Utan att gå in på historien förstås. PCI försämrade verkligen prestandan för grafikkort, så de bytte till AGP-gränssnittet (Accelerated Graphics Port). Men även specifikationerna för AGP 1.0 och 2x begränsade prestanda. När standarden ökade hastigheterna till AGP 4x-nivåer började vi närma oss den praktiska gränsen för den bandbredd som grafikkort kan hantera. AGP 8x-specifikationen fördubblade återigen genomströmningen jämfört med AGP 4x (2,16 GB/s), men vi fick inte längre någon märkbar ökning av grafikprestanda.

Den nyaste och snabbaste bussen är PCI Express. Nya grafikkort använder vanligtvis PCI Express x16-gränssnittet, som kombinerar 16 PCI Express-banor för en total kapacitet på 4 GB/s (en riktning). Detta är dubbelt så mycket som AGP 8x. PCI Express-bussen tillhandahåller den nämnda bandbredden i båda riktningarna (dataöverföring till och från grafikkortet). Men hastigheten på AGP 8x-standarden var redan tillräcklig, så vi har ännu inte stött på en situation där byte till PCI Express gav en prestandaökning jämfört med AGP 8x (om andra hårdvaruparametrar är desamma). Till exempel kommer AGP-versionen av GeForce 6800 Ultra att fungera identiskt med 6800 Ultra för PCI Express.

Idag är det bäst att köpa ett kort med PCI Express-gränssnitt, det kommer att finnas kvar på marknaden i flera år till. De mest kraftfulla korten produceras inte längre med AGP 8x-gränssnittet, och PCI Express-lösningar är som regel lättare att hitta än AGP-analoger och de är billigare.

Lösningar på flera grafikkort

Att använda flera grafikkort för att öka grafikprestandan är ingen ny idé. I början av 3D-grafiken kom 3dfx in på marknaden med två grafikkort som körde parallellt. Men i och med att 3dfx försvann, förpassades tekniken för gemensam drift av flera konsumentvideokort till glömska, även om ATi hade producerat liknande system för professionella simulatorer sedan lanseringen av Radeon 9700. För ett par år sedan återvände tekniken till marknaden: med tillkomsten av nVidia SLI-lösningar och, lite senare, ATi Crossfire.

Att använda flera grafikkort tillsammans ger tillräckligt med prestanda för att köra spelet med högkvalitativa inställningar i hög upplösning. Men att välja en eller annan lösning är inte så enkelt.

Låt oss börja med att lösningar baserade på flera grafikkort kräver mycket energi, så strömförsörjningen måste vara tillräckligt kraftfull. All denna värme måste tas bort från grafikkortet, så du måste vara uppmärksam på PC-fodralet och kylningen så att systemet inte överhettas.

Kom också ihåg att SLI/CrossFire kräver lämpligt moderkort(antingen för en teknik eller för en annan), vilket vanligtvis kostar mer än standardmodeller. nVidia SLI-konfigurationen kommer bara att fungera på vissa nForce4-kort, och ATi CrossFire-kort fungerar bara på moderkort med CrossFire-kretsuppsättningen eller på vissa Intel-modeller. För att komplicera saken kräver vissa CrossFire-konfigurationer att ett av korten är ett speciellt kort: CrossFire Edition. Efter lanseringen av CrossFire, för vissa modeller av grafikkort, tillät ATi inkluderingen av samarbetsteknik via PCI Express-bussen, och med lanseringen av nya drivrutinsversioner ökar antalet möjliga kombinationer. Men ändå ger hårdvaran CrossFire med motsvarande CrossFire Edition-kort högre prestanda. Men CrossFire Edition-kort är också dyrare än vanliga modeller. För närvarande kan du aktivera CrossFire-programvaruläget (utan ett CrossFire Edition-kort) på Radeon grafikkort X1300, X1600 och X1800 GTO.

Det finns andra faktorer att ta hänsyn till också. Även om två grafikkort som arbetar tillsammans ger en prestandahöjning är det långt ifrån det dubbla. Men du kommer att betala dubbelt så mycket pengar. Oftast är produktivitetsökningen 20-60%. Och i vissa fall, på grund av ytterligare beräkningskostnader för matchning, sker ingen ökning alls. Av denna anledning är det osannolikt att konfigurationer med flera kort är värt besväret med billigare modeller, eftersom det dyrare grafikkortet vanligtvis alltid kommer att överträffa ett par billigare kort. I allmänhet, för de flesta konsumenter, är det inte meningsfullt att köpa en SLI/CrossFire-lösning. Men om du vill aktivera alla kvalitetsförbättringsalternativ eller spela med extrema upplösningar, till exempel 2560x1600, när du behöver beräkna mer än 4 miljoner pixlar per bildruta, kan du inte klara dig utan två eller fyra parade grafikkort.

Visuella funktioner

Förutom rena hårdvaruspecifikationer kan olika generationer och modeller av GPU:er skilja sig åt i funktionsuppsättningar. Till exempel sägs generationskorten ATi Radeon X800 XT ofta vara Shader Model 2.0b (SM)-kompatibla, medan nVidia GeForce 6800 Ultra är SM 3.0-kompatibel, även om deras hårdvaruspecifikationer ligger nära varandra (16 pipelines). Därför gör många konsumenter ett val till förmån för en eller annan lösning, utan att ens veta vad denna skillnad innebär.

Microsoft DirectX och Shader Model versioner

Dessa namn används oftast i tvister, men få människor vet vad de egentligen betyder. För att förstå, låt oss börja med historien om grafik-API:er. DirectX och OpenGL är grafiska API:er, det vill säga Application Programming Interfaces - öppna kodstandarder tillgängliga för alla.

Före tillkomsten av grafik-API:er hade varje GPU-tillverkare sin egen mekanism för att kommunicera med spel. Utvecklare var tvungna att skriva separat kod för varje GPU de ville stödja. Ett mycket dyrt och ineffektivt tillvägagångssätt. För att lösa detta problem utvecklades API:er för 3D-grafik så att utvecklare skriver kod för ett specifikt API, och inte för ett visst grafikkort. Efter det föll kompatibilitetsproblem på grafikkortstillverkarnas axlar, som var tvungna att se till att drivrutinerna skulle vara kompatibla med API:et.

Den enda svårigheten kvarstår att idag används två olika API:er, nämligen Microsoft DirectX och OpenGL, där GL står för Graphics Library. Eftersom DirectX API är mer populärt i spel idag kommer vi att fokusera på det. Och denna standard hade ett starkare inflytande på utvecklingen av spel.

DirectX är en skapelse från Microsoft. Faktum är att DirectX innehåller flera API:er, varav endast en används för 3D-grafik. DirectX inkluderar API:er för ljud, musik, inmatningsenheter, etc. Direct3D API ansvarar för 3D-grafik i DirectX. När de pratar om grafikkort är det detta de menar, så i detta avseende är begreppen DirectX och Direct3D utbytbara.

DirectX uppdateras med jämna mellanrum i takt med att grafikteknologin går framåt och spelutvecklare introducerar nya spelprogrammeringstekniker. Eftersom populariteten för DirectX har vuxit snabbt, har GPU-tillverkare börjat skräddarsy nya produktsläpp för att passa funktionerna hos DirectX. Av denna anledning är grafikkort ofta knutna till hårdvarustödet för en eller annan generation av DirectX (DirectX 8, 9.0 eller 9.0c).

För att komplicera saken kan delar av Direct3D API ändras över tiden utan att ändra DirectX-generationerna. Till exempel anger DirectX 9.0-specifikationen stöd för Pixel Shader 2.0. Men DirectX 9.0c-uppdateringen inkluderar Pixel Shader 3.0. Så även om korten är DirectX 9-klass, kan de stödja olika funktionsuppsättningar. Till exempel stöder Radeon 9700 Shader Model 2.0, och Radeon X1800 stöder Shader Model 3.0, även om båda korten kan klassificeras som DirectX 9 generation.

Kom ihåg att utvecklare tar hänsyn till ägarna av gamla maskiner och grafikkort när du skapar nya spel, eftersom om du ignorerar detta segment av användare kommer försäljningsnivån att bli lägre. Av denna anledning är flera kodvägar inbyggda i spel. Ett DirectX 9-spel har förmodligen en DirectX 8-sökväg och till och med en DirectX 7-sökväg för kompatibilitet. Om den gamla sökvägen väljs, försvinner vanligtvis några av de virtuella effekterna som finns på nya grafikkort från spelet. Men du kan åtminstone spela även på gammal hårdvara.

Många nya spel kräver att den senaste versionen av DirectX installeras, även om grafikkortet är från en tidigare generation. Det vill säga, ett nytt spel som kommer att använda DirectX 8-sökvägen kommer fortfarande att kräva installation av den senaste versionen av DirectX 9 för ett DirectX 8-klass grafikkort.

Vilka är skillnaderna mellan olika versioner av Direct3D API i DirectX? Tidiga versioner av DirectX - 3, 5, 6 och 7 - var relativt enkla i funktionerna hos Direct3D API. Utvecklare kunde välja visuella effekter från listan och kontrollera sedan deras funktion i spelet. Nästa stora steg i grafikprogrammering var DirectX 8. Det introducerade möjligheten att programmera grafikkortet med shaders, så utvecklare för första gången hade friheten att programmera effekter på det sätt de behövde. DirectX 8-stödda versioner av Pixel Shader 1.0 till 1.3 och Vertex Shader 1.0. DirectX 8.1, en uppdaterad version av DirectX 8, fick Pixel Shader 1.4 och Vertex Shader 1.1.

I DirectX 9 kan du skapa ännu mer komplexa skuggningsprogram. DirectX 9 stöder Pixel Shader 2.0 och Vertex Shader 2.0. DirectX 9c, en uppdaterad version av DirectX 9, inkluderade Pixel Shader 3.0-specifikationen.

DirectX 10, den kommande API-versionen, kommer att följa med ny version Windows Vista. Du kan inte installera DirectX 10 på Windows XP.

HDR-belysning och OpenEXR HDR

HDR står för "High Dynamic Range". Ett spel med HDR-belysning kan producera en mycket mer realistisk bild än ett spel utan det, och alla grafikkort stöder inte HDR-belysning.

Innan DirectX 9-grafikkorten kom var GPU:er kraftigt begränsade av noggrannheten i deras belysningsberäkningar. Hittills har belysning endast kunnat beräknas med 256 (8 bitar) interna nivåer.

När DirectX 9-klass grafikkort dök upp kunde de producera belysning med hög noggrannhet – hela 24 bitar eller 16,7 miljoner nivåer.

Med 16,7 miljoner nivåer, och efter att ha tagit nästa steg i DirectX 9/Shader Model 2.0-klassens grafikkortprestanda, är HDR-belysning även möjlig på datorer. Detta är en ganska komplex teknik, och du måste titta på den i dynamik. Om vi ​​pratar med enkla ord, då ökar HDR-belysning kontrasten (mörka nyanser ser mörkare ut, ljusa nyanser ljusare), samtidigt som mängden ljusdetaljer ökar i mörka och ljusa områden. Spelet med HDR-belysning verkar mer levande och realistiskt än utan det.

GPU:er som överensstämmer med den senaste Pixel Shader 3.0-specifikationen möjliggör högre 32-bitars precisionsberäkningar samt flytande punktsblandning. Således kan SM 3.0-klassens grafikkort stödja OpenEXRs speciella HDR-ljusmetod, speciellt designad för filmindustrin.

Vissa spel som endast stöder OpenEXR HDR-belysning kommer inte att köras med HDR-belysning på Shader Model 2.0-grafikkort. Däremot kommer spel som inte förlitar sig på OpenEXR-metoden att fungera på alla DirectX 9-grafikkort. Till exempel använder Oblivion OpenEXR HDR-metoden och tillåter endast att HDR-belysning aktiveras på de senaste grafikkorten som stöder Shader Model 3.0-specifikationen. Till exempel nVidia GeForce 6800 eller ATi Radeon X1800. Spel som använder Half-Life 2 3D-motorn, som Counter-Strike: Source och kommande Half-Life 2: Aftermath, låter dig aktivera HDR-rendering på äldre DirectX 9-grafikkort som bara stöder Pixel Shader 2.0. Exempel inkluderar GeForce 5 eller ATi Radeon 9500-linjen.

Slutligen, kom ihåg att alla former av HDR-rendering kräver seriös processorkraft och kan få även de mest kraftfulla GPU:erna på knä. Om du vill spela de senaste spelen med HDR-belysning är högpresterande grafik ett måste.

Helskärmskantutjämning

Helskärmskantutjämning (förkortat AA) låter dig eliminera de karakteristiska "stegen" vid polygonernas gränser. Men kom ihåg att helskärmskantutjämning förbrukar mycket datorresurser, vilket leder till en minskning av bildhastigheten.

Kantutjämning är mycket beroende av videominnets prestanda, så ett snabbt grafikkort med snabbt minne kommer att kunna beräkna helskärmskantutjämning med mindre prestandapåverkan än ett billigt grafikkort. Kantutjämning kan aktiveras i olika lägen. Till exempel kommer 4x kantutjämning att ge en bättre bild än 2x kantutjämning, men det kommer att bli en stor prestandahit. Medan 2x kantutjämning fördubblar den horisontella och vertikala upplösningen, fyrdubblar 4x-läget den.

Texturfiltrering

Alla 3D-objekt i spelet är strukturerade, och ju större vinkeln på den visade ytan är, desto mer förvrängd kommer texturen att se ut. För att eliminera denna effekt använder GPU:er texturfiltrering.

Den första filtreringsmetoden kallades bilinjär och gav karakteristiska ränder som inte var särskilt tilltalande för ögat. Situationen förbättrades med införandet av trilinjär filtrering. Båda alternativen på moderna grafikkort fungerar med praktiskt taget ingen prestandaförsämring.

Dagens mest det bästa sättet Texturfiltrering är anisotropisk filtrering (AF). Liksom helskärmskantutjämning kan anisotropisk filtrering aktiveras på olika nivåer. Till exempel ger 8x AF mer hög kvalitet filtrering än 4x AF. Liksom helskärmskantutjämning kräver anisotrop filtrering en viss mängd processorkraft, som ökar när AF-nivån ökar.

Högupplösta texturer

Alla 3D-spel är byggda enligt specifika specifikationer, och ett av dessa krav bestämmer vilket texturminne som spelet behöver. Alla nödvändiga texturer måste passa in i grafikkortets minne under spelet, annars kommer prestandan att sjunka dramatiskt, eftersom åtkomst till texturen i RAM ger en avsevärd fördröjning, för att inte tala om sökningsfilen på hårddisken. Därför, om en spelutvecklare räknar med 128 MB videominne som minimikrav, bör uppsättningen aktiva texturer inte överstiga 128 MB vid något tillfälle.

Moderna spel har flera texturuppsättningar, så spelet kommer att fungera smidigt på äldre grafikkort med mindre VRAM, såväl som på nyare kort med mer VRAM. Till exempel kan ett spel innehålla tre texturuppsättningar: för 128 MB, 256 MB och 512 MB. Det finns väldigt få spel som stöder 512 MB videominne idag, men de är fortfarande den mest objektiva anledningen till att köpa ett grafikkort med denna mängd minne. Även om ökningen av minnet har liten eller ingen effekt på prestanda, kommer du att få en förbättring av visuell kvalitet om spelet stöder lämplig texturuppsättning.

Vad du behöver veta om grafikkort?

I kontakt med

Unified shader-enheter kombinerar de två typerna av enheter som anges ovan, de kan köra både vertex- och pixelprogram (liksom geometri, som dök upp i DirectX 10). Föreningen av skuggningsenheter innebär att koden för olika skuggningsprogram (vertex, pixel och geometri) är universell, och motsvarande enhetliga processorer kan köra vilket som helst av programmen som listas ovan. Följaktligen verkar antalet pixel-, vertex- och geometriskuggningsenheter i de nya arkitekturerna smälta samman till ett nummer - antalet universella processorer.

Textureringsenheter (tmu)

Dessa block fungerar tillsammans med shader-processorer av alla specificerade typer; de väljer ut och filtrerar texturdata som behövs för att konstruera scenen. Antalet texturenheter i videochippet bestämmer texturprestandan, samplingshastigheten från texturer. Och även om de flesta av beräkningarna nyligen utförs av skuggenheter, är belastningen på TMU:er fortfarande ganska hög, och med tanke på betoningen av vissa applikationer på prestandan hos textureringsenheter, kan vi säga att antalet TMU:er och motsvarande höga textur prestanda är en av de viktigaste parametrarna för videochips. Denna parameter har en särskild inverkan på hastigheten vid användning av trilinjär och anisotrop filtrering, vilket kräver ytterligare texturprover.

Rasteriseringsoperationsblock (rop)

Rasteriseringsenheter utför operationerna att skriva pixlar som beräknas av grafikkortet till buffertar och operationerna att blanda dem (blandning). Som nämnts ovan påverkar prestandan hos ROP-block fyllningsgraden och detta är en av de viktigaste egenskaperna hos grafikkort. Och även om dess betydelse har minskat något nyligen, finns det fortfarande fall där applikationsprestanda är starkt beroende av hastigheten och antalet ROP-block. Oftast beror detta på aktiv användning av efterbehandlingsfilter och kantutjämning aktiverad vid höga bildinställningar.

Videominneskapacitet

Eget minne används av videochips för att lagra nödvändiga data: texturer, hörn, buffertar, etc. Det verkar som att ju mer det finns, desto bättre. Men det är inte så enkelt; att uppskatta styrkan hos ett grafikkort baserat på mängden videominne är det vanligaste misstaget! Oerfarna användare överskattar oftast minnesvärdet och använder det för att jämföra olika modeller av grafikkort. Detta är förståeligt - eftersom parametern, en av de första som anges i alla källor, är dubbelt så stor, bör lösningens hastighet vara dubbelt så hög, tror de. Verkligheten skiljer sig från denna myt genom att produktivitetstillväxten växer upp till en viss volym och, efter att ha nått den, helt enkelt stannar.

Varje applikation har en viss mängd videominne, vilket räcker för all data, och även om du lägger 4 GB där, kommer det inte att finnas någon anledning för det att påskynda renderingen, hastigheten kommer att begränsas av exekveringsenheterna. Det är därför, i nästan alla fall, ett grafikkort med 320 MB videominne kommer att fungera i samma hastighet som ett kort med 640 MB (allt annat lika). Det finns situationer där mer minne leder till en synlig ökning av prestanda, det är mycket krävande applikationer med höga upplösningar och med maximala inställningar. Men sådana fall är mycket sällsynta, därför måste man naturligtvis ta hänsyn till mängden minne, men att inte glömma att prestandan helt enkelt inte ökar över en viss mängd, det finns viktigare parametrar, såsom bredden på minnesbussen och dess driftfrekvens.

På vårt forum varje dag ber dussintals människor om råd om att modernisera sina maskiner, med vilket vi gärna hjälper dem. Varje dag, när vi "utvärderade monteringen" och kontrollerade komponenterna som valts av våra kunder för kompatibilitet, började vi märka att användarna främst uppmärksammar andra, utan tvekan viktiga komponenter. Och sällan kommer någon ihåg att när man uppgraderar en dator är det nödvändigt att uppdatera en lika viktig del -. Och idag ska vi berätta och visa varför du inte bör glömma detta.

“...Jag vill uppgradera min dator så att allt flyger, jag köpte en i7-3970X och ett ASRock X79 Extreme6 moderkort, plus ett RADEON HD 7990 6GB grafikkort. Vad mer är nan????777"
- så här börjar ungefär hälften av alla meddelanden angående uppdateringen stationär dator. Baserat på sin eller familjens budget försöker användarna välja de snabbaste, snabbaste och vackraste minnesmodulerna. Samtidigt naivt att tro att deras gamla 450W kommer att klara av både ett strömkrävande grafikkort och en "het" processor under överklockning samtidigt.

Vi för vår del har redan skrivit mer än en gång om vikten av strömförsörjningen - men, vi erkänner, det var nog inte tillräckligt tydligt. Därför har vi idag rättat till oss och har förberett för dig en påminnelse om vad som kommer att hända om du glömmer det när du uppgraderar din PC - med bilder och detaljerade beskrivningar.

Så vi bestämde oss för att uppdatera konfigurationen...


För vårt experiment bestämde vi oss för att ta en helt ny genomsnittlig dator och uppgradera den till nivån "spelmaskin". Det finns ingen anledning att ändra konfigurationen mycket - det kommer att räcka med att byta minne och grafikkort så att vi har möjlighet att spela mer eller mindre moderna spel med hyfsade detaljinställningar. Den initiala konfigurationen av vår dator är som följer:

Kraftenhet: ATX 12V 400W

Det är tydligt att för spel är denna konfiguration milt uttryckt ganska svag. Så det är dags att ändra något! Vi börjar med samma sak där de flesta av de som är sugna på en "uppgradering" börjar - med. Vi kommer inte att byta moderkort – så länge det passar oss.

Eftersom vi bestämde oss för att inte röra moderkortet kommer vi att välja ett som är kompatibelt med FM2-uttaget (som tur är finns det en speciell knapp för detta på NICS hemsida på moderkortets beskrivningssida). Låt oss inte vara giriga – låt oss ta en prisvärd, men snabb och kraftfull processor med en frekvens på 4,1 GHz (upp till 4,4 GHz i Turbo CORE-läge) och en olåst multiplikator – vi älskar också att överklocka, inget mänskligt är främmande för oss. Här är egenskaperna hos processorn vi valde:

Egenskaper
CPU buss frekvens 5000 MHz Effektförlust 100 W Processorfrekvens 4,1 GHz eller upp till 4,4 GHz i Turbo CORE-läge Kärna Richland L1 cache 96 kB x2 L2 cache 2048 KB x2, körs med processorhastighet 64 bitars stöd Ja Antal kärnor 4 Multiplikation 41, olåst multiplikator Processor video kärna AMD Radeon HD 8670D med en frekvens på 844 MHz; Shader Model 5-stöd Max volym random access minne 64 GB Max. antal anslutna bildskärmar 3 direktanslutna eller upp till 4 skärmar med DisplayPort-delare

En bar för 4GB är inte vårt val. För det första vill vi ha 16 GB, och för det andra måste vi använda dual-channel driftläge, för vilket vi kommer att installera två minnesmoduler på 8 GB vardera i vår dator. Hög genomströmning, brist på radiatorer och ett anständigt pris gör dessa till det mest "läckra" valet för oss. Dessutom, från AMD-webbplatsen kan du ladda ner Radeon RAMDisk-programmet, vilket gör att vi kan skapa en supersnabb virtuell enhet upp till 6 GB helt gratis - och alla älskar gratis användbara saker.


Egenskaper
Minne 8 GB
Antal moduler 2
Minnesstandard PC3-10600 (DDR3 1333 MHz)
Arbetsfrekvens upp till 1333 MHz
Tider 9-9-9-24
Matningsspänning 1,5 V
Bandbredd 10667 Mbps

Du kan spela bekvämt på den inbyggda videon endast i "minsvepare". Därför, för att uppgradera din dator till en spelnivå, valde vi en modern och kraftfull, men inte den dyraste, .


Den kom med 2 GB videominne, stöd för DirectX 11 och OpenGL 4.x. och ett utmärkt Twin Frozr IV-kylsystem. Dess prestanda borde vara mer än tillräckligt för att vi ska kunna njuta av de senaste versionerna av de mest populära spelserierna, som Tomb Raider, Crysis, Hitman och Far Cry. Egenskaperna för den vi har valt är följande:


Egenskaper
GPU GeForce GTX 770
GPU-frekvens 1098 MHz eller upp till 1150 MHz i GPU Boost-läge
Antal shader-processorer 1536
videominne 2 GB
Videominnestyp GDDR5
Videominnes bussbredd 256 bitar
Videominnesfrekvens 1753 MHz (7,010 GHz QDR)
Antal pixlar pipelines 128, 32 texturprovtagningsenheter
Gränssnitt PCI Express 3.0 16x (kompatibel med PCI Express 2.x/1.x) med möjlighet att kombinera kort med SLI.
Hamnar DisplayPort, DVI-D, DVI-I, HDMI, D-Sub-adapter ingår
Kylning av grafikkortet Aktiv (kylfläns + 2 dubbla Frozr IV-fläktar på framsidan av brädan)
Strömkontakt 8 stift + 8 stift
API-stöd DirectX 11 och OpenGL 4.x
Videokorts längd (mätt i NICS) 263 mm
Stöd för generell GPU-beräkning DirectCompute 11, NVIDIA PhysX, CUDA, CUDA C++, OpenCL 1.0
Maximal strömförbrukning FurMark+WinRar 255 W
Prestandabetyg 61.5

Oväntade svårigheter

Nu har vi allt vi behöver för att uppgradera vår dator. Vi kommer att installera nya komponenter i vårt befintliga fodral.


Vi lanserar det och det fungerar inte. Och varför? Men eftersom budgetnätaggregat inte fysiskt kan köra en dator med någon kraft. Faktum är att i vårt fall kräver strömförsörjningen två 8-stiftskontakter, och strömförsörjningen har bara en 6-stifts strömkontakt för grafikkortet i sin bas. Med tanke på att många behöver ännu fler kontakter än i vårt fall blir det tydligt att strömförsörjningen behöver bytas.

Men det är inte så illa. Tänk bara, det finns ingen strömkontakt! I vårt testlaboratorium hittade vi ganska sällsynta adaptrar från 6-stift till 8-stift och från molex till 6-stift. Som dessa:


Det är värt att notera att även på budgetmoderna strömförsörjningar, med varje ny version av Molex-kontakter finns det färre och färre Molex-kontakter - så vi kan säga att vi har tur.

Vid första anblicken är allt bra, och med några knep kunde vi uppdatera systemenhet till "gamer"-konfigurationen. Låt oss nu simulera belastningen genom att köra Furmark-testet och 7Zip-arkivet i Xtreme Burning-läge samtidigt på vår nya speldator. Vi kunde starta datorn - redan bra. Systemet överlevde även lanseringen av Furmark. Vi lanserar arkivet - och vad är det?! Datorn stängdes av, vilket gläder oss med bruset från en fläkt som vrids upp till max. Den "blygsamma" standarden på 400W kunde, hur mycket han än försökte, inte mata grafikkortet och den kraftfulla processorn. Och på grund av det mediokra kylsystemet blev vårt väldigt varmt, och till och med den maximala fläkthastigheten tillät den inte att producera åtminstone de deklarerade 400W.

Det finns en utgång!

Vi har kommit. Vi köpte dyra komponenter för att montera en speldator, men det visar sig att vi inte kan spela på den. Det är synd. Slutsatsen är tydlig för alla: den gamla är inte lämplig för vår speldator, och den måste snarast bytas ut mot en ny. Men vilken exakt?

För vår uppgraderade dator valde vi enligt fyra huvudkriterier:

Det första är naturligtvis makt. Vi föredrog att välja med en reserv - vi skulle vilja överklocka processorn och få poäng i syntetiska tester. Med hänsyn till allt vi kan behöva i framtiden bestämde vi oss för att välja en effekt på minst 800W.

Det andra kriteriet är tillförlitlighet. Vi vill verkligen att den som tagits "med reserv" ska överleva nästa generations grafikkort och processorer, inte brinna ut av sig själv och samtidigt inte bränna dyra komponenter (tillsammans med testplattformen). Därför är vårt val endast japanska kondensatorer, endast kortslutningsskydd och pålitligt överbelastningsskydd av någon av utgångarna.

Den tredje punkten i våra krav är bekvämlighet och funktionalitet.. Till att börja med behöver vi - datorn kommer att fungera ofta, och särskilt bullriga nätaggregat, tillsammans med ett grafikkort och processorkylare, kommer att göra alla användare galen. Dessutom är vi inte främmande för känslan av skönhet, därför nytt block Strömförsörjningen till vår speldator ska vara modulär och ha löstagbara kablar och kontakter. Så att det inte är något överflödigt.

Och sist men inte minst är kriteriet energieffektivitet. Ja, vi bryr oss och miljö och elräkningar. Därför måste strömförsörjningen vi väljer uppfylla minst energieffektivitetsstandarden 80+ Bronze.

Efter att ha jämfört och analyserat alla krav, valde vi, bland de få sökande, den som bäst uppfyllde alla våra krav. Det blev en effekt på 850W. Observera att det i ett antal parametrar till och med överträffade våra krav. Låt oss se dess specifikation:

Strömförsörjningsegenskaper
Typ av utrustning Strömförsörjning med aktiv PFC-modul (Power Factor Correction).
Egenskaper Slingflätning, Japanska kondensatorer, Kortslutningsskydd (SCP), Överspänningsskydd (OVP), Överbelastningsskydd för någon av enhetens utgångar individuellt (OCP)
+3,3V - 24A, +5V - 24A, +12V - 70A, +5VSB - 3,0A, -12V - 0,5A
Löstagbara strömkablar Ja
Effektivitet 90 %, 80 PLUS guldcertifierad
Strömförsörjning ström 850 W
Moderkorts strömkontakt 24+8+8 stift, 24+8+4 stift, 24+8 stift, 24+4 stift, 20+4 stift (avtagbar 24-polig kontakt. 4-polig kan tas bort vid behov, löstagbar 8-polig kontakt)
Strömkontakt för grafikkort 6x 6/8-stifts kontakter (avtagbar 8-stiftskontakt - 2 stift löstagbar)
MTBF 100 tusen timmar
Kylning av strömförsörjningen 1 fläkt: 140 x 140 mm (på bottenvägg). Passivt kylsystem under belastning upp till 50 %.
Fläkthastighetskontroll Från temperatursensorn. Ändring av fläkthastighet beroende på temperaturen inuti strömförsörjningen. Manuellt val av fläktdriftsläge. I normalt läge roterar fläkten konstant och i tyst läge stannar den helt vid låg belastning.


, en av de bästa för pengarna. Låt oss installera det i vårt fall:


Sedan hände något som gjorde oss lite förvirrade. Det verkar som att allt var korrekt monterat, allt var anslutet, allt fungerade - men strömförsörjningen är tyst! Det vill säga i allmänhet: fläkten har stått stilla och står fortfarande, och systemet har startat ordentligt och fungerar. Faktum är att vid en belastning på upp till 50% fungerar strömförsörjningen i det så kallade tysta läget - utan att snurra upp kylsystemets fläkt. Fläkten kommer att brumma endast under tung belastning - samtidigt lansering av arkiveringsmaskiner och Furmark fick fortfarande kylaren att rotera.


Strömförsörjningen har så många som sex 8-stifts 6-stifts grafikkorts strömkontakter, som var och en är en hopfällbar 8-stifts kontakt, från vilken 2 stift kan lossas vid behov. Således kan den mata vilket grafikkort som helst utan krångel eller svårigheter. Och inte ens en.


Det modulära strömförsörjningssystemet låter dig lossa överflödiga och onödiga strömkablar, vilket förbättrar luftflödet i höljet, systemets stabilitet och, naturligtvis, förbättrar estetiken utseende internt utrymme, vilket gör att vi säkert kan rekommendera det till modders och fans av fall med fönster.
köp en pålitlig och kraftfull strömförsörjning. I vår recension blev det. - och som du kan se är det ingen slump. Genom att köpa en från NICS kan du vara säker på att alla komponenter i ditt högpresterande system kommer att förses med tillräcklig och oavbruten kraft, även under extrem överklockning.


Dessutom kommer strömförsörjningen att ha tillräckligt med ström i flera år framöver – det är bättre med en reserv ifall du ska uppdatera systemet med komponenter på hög nivå i framtiden.

Topp