Dom

Video kartice. Upoznavanje s GPU GP104 Pascal karticama

2016. se već bliži kraju, ali njegov doprinos industriji igara ostat će s nama još dugo. Prvo, video kartice iz crvenog tabora dobile su neočekivano uspješno ažuriranje u srednjem cjenovnom rangu, a drugo, NVIDIA je još jednom dokazala da nije uzalud zauzima 70% tržišta. Maxwellovi su bili dobri, GTX 970 se s pravom smatrala jednom od najboljih kartica za novac, ali Pascal je sasvim druga stvar.

Nova generacija hardvera pred GTX 1080 i 1070 doslovno je pokopala rezultate prošlogodišnjih sustava i vodećeg tržišta korištenog hardvera, dok su "mlađe" linije pred GTX 1060 i 1050 svoj uspjeh učvrstile u pristupačnijem segmentima. Vlasnici GTX980Ti i drugih Titana plaču s krokodilskim suzama: njihove uber-puške za više tisuća rubalja izgubile su 50% cijene i 100% pokazivanja odjednom. Sama NVIDIA tvrdi da je 1080 brži od prošlogodišnjeg TitanX-a, 1070 s lakoćom "nagomilava" 980Ti, a relativno proračunski 1060 će naštetiti vlasnicima svih ostalih kartica.

Je li tu doista rastu noge visokih performansi i što sa svime učiniti uoči blagdana i iznenadnih financijskih radosti, kao i čime se točno ugoditi, možete saznati u ovoj dugoj i pomalo dosadnoj članak.

Možete voljeti Nvidiju ili ... ne voljeti je, ali samo hit iz alternativnog svemira će poreći da je trenutno lider u području video inženjerstva. Budući da AMD-ova Vega još nije najavljena, još nismo vidjeli vodeći RX na Polarisu, a R9 Fury, sa svojih 4 GB eksperimentalne memorije, ne može se baš smatrati obećavajućom karticom (VR i 4K još uvijek žele malo više, nego što ona ima) - imamo što imamo. Dok su 1080 Ti i uvjetni RX 490, RX Fury i RX 580 samo glasine i očekivanja, imamo vremena srediti trenutnu NVIDIA liniju i vidjeti što je tvrtka postigla posljednjih godina.

Nered i povijest nastanka Pascala

NVIDIA redovito daje razloge da "ne volite sebe". Povijest GTX 970 i njegovih "3,5 GB memorije", "NVIDIA, jebi se!" od Linusa Torvaldsa, potpuna pornografija u crtama desktop grafike, odbijanje rada s besplatnim i mnogo češćim FreeSync sustavom u korist vlastitog ... Općenito, razloga ima dovoljno. Meni osobno jedna od najneugodnijih stvari je ono što se dogodilo s posljednje dvije generacije video kartica. Ako uzmemo grubi opis, onda "moderni" GPU-ovi potječu iz dana podrške za DX10. A ako danas tražite "djeda" 10. serije, onda će početak moderne arhitekture biti u području 400. serije video akceleratora i Fermijeve arhitekture. Upravo je u njemu nastala ideja "blok" dizajna iz tzv. "CUDA jezgre" u terminologiji NVIDIA.

Fermi

Ako su video kartice serije 8000., 9000. i 200. bile prvi koraci u svladavanju samog koncepta, "moderne arhitekture" s univerzalnim shader procesorima (poput AMD-a, da), onda je 400. serija već bila što sličnija onome što smo mi vidi u nekih 1070. Da, Fermi je još uvijek imao malu Legacy štaku iz prethodnih generacija: jedinica za sjenčanje radila je na dvostruko većoj frekvenciji od jezgre odgovorne za izračunavanje geometrije, ali cjelokupna slika nekih GTX 480 nije mnogo drugačija od nekih nekih 780., SM multiprocesori su grupirani, klasteri komuniciraju kroz zajedničku predmemoriju s memorijskim kontrolerima, a rezultati rada prikazani su blokom rasterizacije koji je zajednički za klaster:


Blok dijagram GF100 procesora koji se koristi u GTX 480.

U 500. seriji je još uvijek bio isti Fermi, malo poboljšan “iznutra” i s manje braka, pa su vrhunska rješenja dobila 512 CUDA jezgri umjesto 480 za prethodnu generaciju. Vizualno, dijagrami toka općenito izgledaju kao blizanci:


GF110 je srce GTX 580.

Na nekim mjestima su povećali frekvencije, malo promijenili dizajn samog čipa, nije bilo revolucije. Sve iste 40 nm procesne tehnologije i 1,5 GB video memorije na 384-bitnoj sabirnici.

Kepler

Pojavom Kepler arhitekture mnogo se toga promijenilo. Možemo reći da je upravo ova generacija dala NVIDIA video karticama vektor razvoja koji je doveo do pojave aktualnih modela. Nije se promijenila samo arhitektura GPU-a, već i kuhinja za razvoj novog hardvera unutar NVIDIA-e. Ako je Fermi bio usredotočen na pronalaženje rješenja koje će osigurati visoke performanse, onda se Kepler kladio na energetsku učinkovitost, razumnu upotrebu resursa, visoke frekvencije i jednostavnost optimizacije motora igre za mogućnosti arhitekture visokih performansi.

U dizajnu GPU-a napravljene su ozbiljne promjene: za osnovu nije uzet "vodeći" GF100 / GF110, već "proračunski" GF104 / GF114, koji je korišten u jednoj od najpopularnijih kartica tog vremena - GTX 460.


Cjelokupna arhitektura procesora je pojednostavljena korištenjem samo dva velika bloka s četiri unificirana višeprocesorska modula za sjenila. Izgled novih flagshipa izgledao je otprilike ovako:


GK104 instaliran u GTX 680.

Kao što vidite, svaka od računalnih jedinica značajno je dobila na težini u odnosu na prethodnu arhitekturu i dobila je naziv SMX. Usporedite strukturu bloka s onim što je prikazano gore u Fermijevom odjeljku.


Višeprocesorski SMX GPU GK104

Šeststota serija nije imala video kartice na punopravnom procesoru koji je sadržavao šest blokova računalnih modula, vodeći je bio GTX 680 s instaliranim GK104, a hladniji od njega bio je samo "dvoglavi" 690., na kojem je samo dva procesora su uzgojena sa svim potrebnim vezovima i memorijom. Godinu dana kasnije, vodeći GTX 680 s manjim promjenama pretvorio se u GTX 770, a kruna evolucije Kepler arhitekture bile su video kartice bazirane na kristalu GK110: GTX Titan i Titan Z, 780Ti i uobičajeni 780. Unutra - sve istih 28 nanometara, jedino kvalitativno poboljšanje (koje NIJE išlo na potrošačke video kartice bazirane na GK110) - performanse s dvostrukom preciznošću operacija.

Maxwell

Prva video kartica bazirana na Maxwell arhitekturi bila je… NVIDIA GTX 750Ti. Nešto kasnije, njegovi su se rezovi pojavili u odnosu na GTX 750 i 745 (isporučuju se samo kao integrirano rješenje), a u trenutku pojavljivanja kartice niže klase doista su potresle tržište jeftinih video akceleratora. Nova arhitektura testirana je na GK107 čipu: maleni komad budućih flagshipa s ogromnim hladnjakom i zastrašujućom cijenom. Izgledalo je otprilike ovako:


Da, postoji samo jedna računalna jedinica, ali koliko je ona složenija od prethodnika, usporedite sami:


Umjesto velikog bloka SMX, koji je korišten kao osnovna "građevinska cigla" u stvaranju GPU-a, koriste se novi, kompaktniji SMM blokovi. Keplerove osnovne računalne jedinice bile su dobre, ali su patile od loše iskorištenosti kapaciteta - banalne gladi za uputama: sustav nije mogao raspršiti upute po velikom broju aktuatora. Pentium 4 je imao približno iste probleme: napajanje je bilo u stanju mirovanja, a pogreška u predviđanju grananja bila je vrlo skupa. U Maxwellu je svaki računalni modul bio podijeljen na četiri dijela, od kojih je svaki dobio vlastiti međuspremnik instrukcija i warp planer - ista vrsta operacija na skupini niti. Kao rezultat toga, učinkovitost se povećala, a sami GPU-ovi postali su fleksibilniji od svojih prethodnika, i što je najvažnije, po cijenu malo krvi i prilično jednostavnog kristala, razradili su novu arhitekturu. Priča ide spiralno, hehe.

Najviše od svega, mobilna rješenja profitirala su od inovacija: površina kristala porasla je za četvrtinu, a broj izvršnih jedinica višeprocesora gotovo se udvostručio. Srećom, upravo su 700. i 800. serije napravile glavnu zbrku u poretku. Samo unutar 700 bile su video kartice bazirane na Kepler, Maxwell, pa čak i Fermi arhitekturama! Zato su stolni Maxwelli, kako bi se odmaknuli od šljunka prethodnih generacija, dobili uobičajenu seriju 900, iz koje su se naknadno odvojile GTX 9xx M mobilne kartice.

Pascal - logičan razvoj Maxwellove arhitekture

Ono što je položeno u Kepleru i nastavljeno u Maxwell generaciji, ostalo je u Pascalima: prve potrošačke video kartice su puštene u prodaju na temelju ne baš velikog GP104 čipa, koji se sastoji od četiri klastera za grafičku obradu. GP100 pune veličine sa šest klastera otišao je u skupi poluprofesionalni GPU pod markom TITAN X. Međutim, čak i "ošišani" 1080 svijetli tako da se prošlim generacijama muka.

Poboljšanje performansi

temelj temelja

Maxwell je postao temelj nove arhitekture, dijagram usporedivih procesora (GM104 i GP104) izgleda gotovo isto, glavna razlika je broj višeprocesora upakiranih u klastere. Kepler (700. generacija) imao je dva velika SMX multiprocesora, koji su u Maxwellu bili podijeljeni na 4 dijela, osiguravajući potrebnu vezu (promjenom naziva u SMM). U Pascalu su na postojećih osam u bloku dodana još dva, tako da ih je bilo 10, a skraćenica je još jednom prekinuta: sada se pojedinačni multiprocesori ponovno zovu SM.


Ostalo je potpuna vizualna sličnost. Istina, unutra je bilo još više promjena.

Motor napretka

Unutar višeprocesorskog bloka ima nepristojno mnogo promjena. Kako ne bih ulazio u vrlo dosadne detalje što je preuređeno, kako je optimizirano i kako je bilo prije, vrlo ću kratko opisati promjene, inače neki već zijevaju.

Prije svega, Pascal je ispravio dio koji je odgovoran za geometrijsku komponentu slike. To je neophodno za konfiguracije s više monitora i rad s VR kacigama: uz odgovarajuću podršku od strane game engine-a (a ta će se podrška uskoro pojaviti kroz napore NVIDIA-e), video kartica može izračunati geometriju jednom i dobiti nekoliko projekcija geometrije za svaku od ekrana. To značajno smanjuje opterećenje u VR-u ne samo u području rada s trokutima (ovdje je povećanje samo dvostruko), već i u radu s komponentom piksela.

Uvjetni 980Ti će dvaput pročitati geometriju (za svako oko), a zatim je ispuniti teksturama i izvršiti naknadnu obradu za svaku od slika, obrađujući ukupno oko 4,2 milijuna točaka, od kojih će se oko 70% stvarno koristiti, ostatak će biti odrezan ili pasti u područje , koje jednostavno nije prikazano za svako od očiju.

1080 će obraditi geometriju jednom, a pikseli koji ne padaju u konačnu sliku jednostavno neće biti izračunati.


S komponentom piksela sve je, zapravo, još hladnije. Budući da se povećanje propusnosti memorije može izvršiti samo na dva fronta (povećanje frekvencije i propusnosti po taktu), a obje metode koštaju, a “glad” GPU-a u smislu memorije s godinama je sve izraženija zbog rast rezolucije i razvoj VR-a i dalje poboljšavaju "besplatne" metode za povećanje propusnosti. Ako ne možete proširiti sabirnicu i podići frekvenciju - trebate komprimirati podatke. U prethodnim generacijama hardverska kompresija je već bila implementirana, no u Pascalu je podignuta na novu razinu. Opet ćemo bez dosadne matematike i uzeti gotov primjer iz NVIDIA-e. S lijeve strane - Maxwell, s desne strane - Pascal, one točke čija je komponenta boje bila podvrgnuta kompresiji bez gubitaka ispunjene su ružičastom bojom.


Umjesto prijenosa određenih pločica od 8x8 točaka, memorija sadrži "prosječnu" boju + matricu odstupanja od nje, takvi podaci zauzimaju od ½ do ⅛ izvornog volumena. U stvarnim zadacima opterećenje memorijskog podsustava smanjeno je s 10 na 30%, ovisno o broju gradijenta i ujednačenosti ispuna u složenim scenama na ekranu.


Inženjerima se to činilo nedovoljno, a za vodeću video karticu (GTX 1080) korištena je memorija povećane propusnosti: GDDR5X prenosi dvostruko više bitova podataka (ne instrukcija) po taktu i proizvodi više od 10 Gb/s na vrh. Prijenos podataka tako ludom brzinom zahtijevao je potpuno novi memorijski raspored na ploči, a u ukupnoj učinkovitosti memorije povećana je za 60-70% u odnosu na flagshipe prethodne generacije.

Smanjite kašnjenja i zastoje

Video kartice se već dugo bave ne samo grafičkom obradom, već i povezanim izračunima. Fizika je često vezana uz okvire animacije i izvanredno je paralelna, što znači da je mnogo učinkovitije izračunati na GPU-u. No, najveći generator problema u posljednje vrijeme postala je VR industrija. Mnogi game engines, razvojne metodologije i hrpa drugih tehnologija koje se koriste za rad s grafikom jednostavno nisu bile dizajnirane za VR, slučaj pomicanja kamere ili promjene položaja glave korisnika tijekom renderiranja okvira jednostavno nije obrađen. Ako sve ostavite kako jest, onda će desinhronizacija video streama i vaši pokreti uzrokovati napade morske bolesti i jednostavno ometati uranjanje u svijet igre, što znači da se "pogrešni" okviri jednostavno moraju baciti nakon renderiranja i pokrenuti ponovno radi. A to su nova kašnjenja u prikazivanju slike na zaslonu. Nema pozitivan učinak na performanse.

Pascal je ovaj problem uzeo u obzir i uveo dinamičko balansiranje opterećenja i mogućnost asinkronih prekida: sada izvršne jedinice mogu ili prekinuti trenutni zadatak (spremajući rezultate rada u predmemoriju) kako bi obradili hitnije zadatke ili jednostavno resetirali nedovoljno nacrtani okvir i započeti novi, značajno smanjujući kašnjenja u formiranju slike. Glavni korisnik ovdje je, naravno, VR i igre, ali ova tehnologija također može pomoći u izračunima opće namjene: simulacija sudara čestica dobila je povećanje performansi od 10-20%.

Boost 3.0

NVIDIA video kartice su odavno dobile automatski overclocking, još u 700. generaciji temeljenoj na Kepler arhitekturi. U Maxwellu je overclocking poboljšan, ali je i dalje bio, blago rečeno, tako-tako: da, video kartica je radila malo brže, sve dok je toplinski paket to dozvoljavao, dodatnih 20-30 megaherca za jezgru i 50 -100 za memoriju, ožičenu iz tvornice, dalo je povećanje, ali malo. Radilo je ovako:


Čak i ako je postojala margina za temperaturu GPU-a, performanse se nisu povećale. Pojavom Pascala, inženjeri su protresli ovu prašnjavu močvaru. Boost 3.0 radi na tri fronta: analiza temperature, povećanje brzine takta i povećanje napona na čipu. Sada se svi sokovi istiskuju iz GPU-a: standardni NVIDIA upravljački programi to ne rade, ali softver dobavljača omogućuje vam da jednim klikom izgradite krivulju profiliranja, koja će uzeti u obzir kvalitetu vaše specifične instance video kartice.

EVGA je bio jedan od prvih na ovom polju, njegov Precision XOC uslužni program ima NVIDIA certificirani skener koji uzastopno prolazi kroz cijeli raspon temperatura, frekvencija i napona, postižući maksimalnu učinkovitost u svim načinima rada.

Dodajte ovdje novu procesnu tehnologiju, brzu memoriju, sve vrste optimizacija i smanjenje toplinskog paketa čipova, a rezultat će biti jednostavno nepristojan. Od 1500 "baznih" MHz GTX 1060 se može istisnuti i više od 2000 MHz ako naiđe dobar primjerak, a dobavljač ne zajebava hlađenje.

Poboljšanje kvalitete slike i percepcije svijeta igre

Performanse su povećane na svim frontama, ali postoji niz točaka u kojima već nekoliko godina nije bilo kvalitativnih promjena: u kvaliteti prikazane slike. I ovdje se ne radi o grafičkim efektima, njih daju programeri igara, već o tome što točno vidimo na monitoru i kako igra izgleda krajnjem korisniku.

Brza vertikalna sinkronizacija

Pascalova najvažnija značajka je trostruki međuspremnik za izlaz okvira, koji istovremeno osigurava ultra-niska kašnjenja u renderiranju i osigurava vertikalnu sinkronizaciju. Izlazna slika pohranjuje se u jedan međuspremnik, posljednji renderirani okvir pohranjuje se u drugi, a trenutni se crta u trećem. Zbogom horizontalne pruge i trganje, zdravo visoke performanse. Nema kašnjenja koje ovdje odgovara klasični V-Sync (budući da nitko ne sputava performanse video kartice i uvijek crta pri najvećoj mogućoj brzini kadrova), a na monitor se šalju samo potpuno oblikovani okviri. Mislim da ću nakon nove godine napisati poseban veliki post o V-Sync, G-Sync, Free-Sync i ovom novom algoritmu brze sinkronizacije od Nvidie, previše je detalja.

Normalne snimke zaslona

Ne, te snimke zaslona koje su sada samo su šteta. Gotovo sve igre koriste puno tehnologije kako bi slika u pokretu bila nevjerojatna i oduzima dah, a snimke zaslona postale su prava noćna mora: umjesto zapanjujuće realistične slike koja se sastoji od animacije, specijalnih efekata koji iskorištavaju osobitosti ljudskog vida, vidite neke nekako uglato ne razumijem što sa čudnim bojama i apsolutno beživotnom slikom.

Nova NVIDIA Ansel tehnologija rješava problem sa snimkama zaslona. Da, njegova implementacija zahtijeva integraciju posebnog koda od programera igara, ali postoji minimum stvarnih manipulacija, ali profit je ogroman. Ansel zna pauzirati igru, prebacuje kontrolu nad kamerom u vaše ruke, a onda – prostor za kreativnost. Možete jednostavno snimiti sliku bez GUI-ja i svog omiljenog kuta.


Možete renderirati postojeću scenu u ultra-visokoj rezoluciji, snimati panorame od 360 stupnjeva, spojiti ih u ravninu ili ih ostaviti u trodimenzionalnom obliku za gledanje u VR kacigi. Snimite fotografiju sa 16 bita po kanalu, spremite je kao neku vrstu RAW datoteke, a zatim se igrajte s ekspozicijom, balansom bijele i ostalim postavkama kako bi snimke zaslona ponovno postale atraktivne. Očekujemo tone cool sadržaja od obožavatelja igara za godinu ili dvije.

Obrada video zvuka

Nove NVIDIA Gameworks biblioteke dodaju puno značajki dostupnih programerima. Uglavnom su usmjereni na VR i ubrzavanje raznih izračuna, kao i na poboljšanje kvalitete slike, no jedna od značajki je najzanimljivija i vrijedna spomena. VRWorks Audio podiže rad sa zvukom na temeljno novu razinu, brojeći zvuk ne po banalnim prosječnim formulama ovisno o udaljenosti i debljini prepreke, već izvodi kompletno praćenje audio signala, sa svim refleksijama iz okoline, odjekom i apsorpcijom zvuka u raznim materijala. NVIDIA ima dobar video primjer kako ova tehnologija radi:


Gledajte bolje sa slušalicama

Čisto teoretski, ništa ne sprječava pokretanje takve simulacije na Maxwellu, ali optimizacije u smislu asinkronog izvršavanja instrukcija i novog sustava prekida ugrađenog u Pascals omogućuju vam izračune bez značajnog utjecaja na brzinu kadrova.

Pascal ukupno

Zapravo, ima još više promjena, a mnoge od njih su toliko duboko u arhitekturi da bi se o svakoj od njih mogao napisati veliki članak. Ključne inovacije su poboljšani dizajn samih čipova, optimizacija na najnižoj razini u smislu geometrije i asinkronog rada s potpunim rukovanjem prekidima, mnoštvo značajki prilagođenih radu s visokim razlučivostima i VR-om te, naravno, sulude frekvencije koje prethodne generacije video kartica nisu mogle sanjati. Prije dvije godine, 780 Ti jedva je prešao prag od 1 GHz, danas 1080 u nekim slučajevima radi na dva: i tu zasluga nije samo u smanjenoj tehnologiji procesa sa 28 nm na 16 ili 14 nm: mnoge stvari su optimizirane na najniža razina, počevši od dizajna tranzistora, završavajući s njihovom topologijom i vezivanjem unutar samog čipa.

Za svaki pojedinačni slučaj

Linija NVIDIA 10-serije video kartica pokazala se uistinu uravnoteženom i prilično gusto pokriva sve slučajeve korisnika gaminga, od opcije “igrati strategiju i diablo” do “želim vrhunske igre u 4k”. Testovi igre odabrani su prema jednoj jednostavnoj tehnici: da se pokrije što širi raspon testova s ​​najmanjim mogućim skupom testova. BF1 je izvrstan primjer dobre optimizacije i omogućuje vam usporedbu performansi DX11 i DX12 pod istim uvjetima. DOOM je odabran iz istog razloga, samo za usporedbu OpenGL-a i Vulkana. Treći "Witcher" ovdje djeluje kao tako-tako optimizirana igračka, u kojoj maksimalne grafičke postavke dopuštaju da se bilo koji flagship zezne jednostavno zahvaljujući šifri sranja. Koristi klasični DX11, koji je vremenski testiran i savršeno razrađen u upravljačkim programima te je poznat programerima igara. Overwatch uzima rap za sve "turnirske" igre koje imaju dobro optimiziran kod, zapravo je zanimljivo koliko je visok prosječan FPS u igri koja nije baš teška s grafičkog gledišta, izoštrena za rad u " prosječna" konfiguracija dostupna u cijelom svijetu.

Odmah ću dati neke općenite komentare: Vulkan je vrlo proždrljiv u pogledu video memorije, za njega je ova karakteristika jedan od glavnih pokazatelja, a ovu tezu ćete vidjeti u benchmarkovima. DX12 na AMD karticama se ponaša puno bolje nego na NVIDIA-i, ako "zeleni" pokazuju prosječni pad FPS-a na novim API-jima, onda oni "crveni", naprotiv, pokazuju povećanje.

juniorska divizija

GTX 1050

Mlađa NVIDIA (bez slova Ti) nije zanimljiva kao njena nabijena sestra sa slovima Ti. Njegova je sudbina gaming rješenje za MOBA igre, strategije, turnirske pucačine i druge igre u kojima detalji i kvaliteta slike malo zanimaju nikoga, a stabilan frame rate za minimalan novac je ono što je liječnik naručio.


Na svim slikama nema jezgrene frekvencije, jer je individualna za svaki slučaj: 1050 bez dodatnih. snaga možda neće juriti, a njezina sestra sa 6-pinskim konektorom lako će uzeti uvjetnih 1,9 GHz. Što se tiče snage i duljine, prikazane su najpopularnije opcije, uvijek možete pronaći video karticu s drugim krugom ili drugim hlađenjem koji se ne uklapa u navedene "standarde".

DOOM 2016 (1080p, ULTRA): OpenGL - 68 FPS, Vulkan - 55 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 38 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 49 FPS, DX12 - 40 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS;

GTX 1050 ima grafički procesor GP107, naslijeđen od starije kartice s blagim podrezivanjem funkcionalnih blokova. 2 GB video memorije neće vas pustiti da divljate, ali za e-sportske discipline i igranje nekakvih tenkova savršeno je, budući da cijena juniorske kartice počinje od 9,5 tisuća rubalja. Dodatno napajanje nije potrebno, video kartici je potrebno samo 75 W od matične ploče preko PCI-Express utora. Istina, u ovom cjenovnom segmentu nalazi se i AMD Radeon RX460, koji je s istih 2 GB memorije jeftiniji, a kvalitetom gotovo da nije lošiji, a za otprilike isti novac možete dobiti RX460, ali u 4 GB verzija. Ne da su mu puno pomogli, nego nekakva rezerva za budućnost. Izbor dobavljača nije toliko važan, možete uzeti ono što je dostupno i ne izvlačite džep s dodatnih tisuću rubalja, što je bolje potrošiti na njegovana slova Ti.

GTX 1050 Ti

Oko 10 tisuća za uobičajeni 1050 nije loše, ali za napunjenu (ili punu, zovite kako hoćete) verziju traže malo više (u prosjeku 1-1,5 tisuća više), ali puno je zanimljivije njeno punjenje . Inače, cijela serija 1050 proizvodi se ne od rezanja / odbijanja "velikih" čipova koji nisu prikladni za 1060, već kao potpuno neovisan proizvod. Ima manji proces proizvodnje (14 nm), drugačiju biljku (kristali su uzgojeni u tvornici Samsung), a ima i iznimno zanimljivih primjeraka s dodatnim. napajanje: toplinski paket i osnovna potrošnja su i dalje istih 75 W, ali potencijal overclockinga i mogućnost da se ide dalje od dopuštenog potpuno su različiti.


Ako nastavite igrati u FullHD rezoluciji (1920x1080), nemojte planirati nadogradnju, a ostatak hardvera vam je prije 3-5 godina, to je sjajan način za povećanje performansi u igračkama uz male gubitke. Treba se fokusirati na ASUS i MSI rješenja s dodatnim 6-pinskim napajanjem, opcije iz Gigabytea nisu loše, ali cijena nije toliko ohrabrujuća.

DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 44 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.

Srednja divizija

Video kartice 60. linije dugo su se smatrale najboljim izborom za one koji ne žele trošiti puno novca, a pritom igrati na visokim grafičkim postavkama u svemu što će biti objavljeno u sljedećih nekoliko godina. Počelo je s GTX 260, koji je imao dvije verzije (jednostavniji, 192 stream procesora i masniji, 216 "kamenčića"), nastavilo se u 400., 500. i 700. generaciji, a sada je NVIDIA opet ušla u gotovo savršenu kombinaciju cijena i kvaliteta. Ponovno su dostupne dvije “srednje” verzije: GTX 1060 s 3 i 6 GB video memorije razlikuju se ne samo po količini dostupne RAM-a, već i po performansama.

GTX 1060 3GB

Kraljica esporta. Razumna cijena, nevjerojatne performanse za FullHD (a u eSportu rijetko koriste višu rezoluciju: rezultati su važniji od lijepih stvari), razumna količina memorije (3 GB, na minutu, bilo je prije dvije godine u vodećoj GTX 780 Ti, što košta nepristojan novac). Što se performansi tiče, mlađi 1060 lako nadmašuje prošlogodišnji GTX 970 s nezaboravnih 3,5 GB memorije, a pretprošlogodišnji super-flagship 780 Ti lako vuče za uši.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 70 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 92 FPS, DX12 - 85 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS.

Ovdje je apsolutni favorit po pitanju cijene i ispuha verzija iz MSI-ja. Dobre frekvencije, tihi sustav hlađenja i razumne dimenzije. Za nju ne traže baš ništa, u regiji od 15 tisuća rubalja.

GTX 1060 6GB

Verzija od 6 GB proračunska je ulaznica za VR i visoke rezolucije. Neće gladovati za memorijom, malo je brži u svim testovima i pouzdano će nadmašiti GTX 980 gdje prošlogodišnja video kartica neće imati dovoljno 4 GB video memorije.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 73 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 94 FPS, DX12 - 90 FPS;
Overwatch (1080p, ULTRA): DX11 - 166 FPS.

Želio bih još jednom primijetiti ponašanje video kartica pri korištenju Vulkan API-ja. 1050 s 2 GB memorije - FPS pad. 1050 Ti s 4 GB - gotovo na razini. 1060 3 GB - povlačenje. 1060 6 GB - rast rezultata. Trend je, mislim, jasan: Vulkanu treba 4+ GB video memorije.

Problem je što obje 1060 nisu male video kartice. Čini se da je toplinski paket razuman, a ploča je stvarno mala, ali mnogi su dobavljači odlučili jednostavno objediniti sustav hlađenja između 1080, 1070 i 1060. Netko ima video kartice visoke 2 utora, ali duge 28+ centimetara, netko je napravio kraći su, ali deblji (2,5 utora). Birajte pažljivo.

Nažalost, dodatnih 3 GB video memorije i otključana računalna jedinica koštat će vas ~ 5-6 tisuća rubalja povrh cijene verzije od 3 koncerta. U ovom slučaju, Palit ima najzanimljivije opcije za cijenu i kvalitetu. ASUS je izbacio monstruozne rashladne sustave od 28 cm, koji su isklesani na 1080, 1070 i 1060, a takva video kartica neće nigdje stati, verzije bez tvorničkog overclockanja koštaju gotovo isto, a ispuh je manji, a traže više za relativno kompaktan MSI od konkurenata na približno istoj razini kvalitete i tvorničkom overclockanju.

Glavna liga

Igrati za sav novac u 2016. je teško. Da, 1080 je ludo cool, ali perfekcionisti i hardverski momci znaju da NVIDIA KRIJE postojanje super-flagshipa 1080 Ti, koji bi trebao biti nevjerojatno cool. Prve specifikacije već cure na internetu i jasno je da zeleni čekaju da crveno-bijeli uskoče: neka vrsta uber pištolja koji može odmah postaviti na svoje mjesto novi kralj 3D grafike, veliki i moćni GTX 1080 Ti. Pa, za sada imamo što imamo.

GTX 1070

Prošlogodišnje avanture megapopularnog GTX 970 i njegove ne baš iskrene memorije od 4 gigabajta aktivno su se sređivale i usisavale po cijelom Internetu. To ju nije spriječilo da postane najpopularnija grafička kartica za igre na svijetu. Uoči promjene godine u kalendaru, drži prvo mjesto u Steam Hardware & Software Survey. To je razumljivo: kombinacija cijene i performansi bila je jednostavno savršena. A ako ste propustili prošlogodišnju nadogradnju i 1060 vam se ne čini dovoljno lošim, GTX 1070 je vaš izbor.

Rezolucije od 2560x1440 i 3840x2160 video kartica probavlja s praskom. Sustav za overclocking Boost 3.0 pokušat će baciti drva za ogrjev kada se opterećenje GPU-a poveća (to jest, u najtežim scenama, kada FPS padne pod naletom specijalnih efekata), overklokirajući procesor video kartice na neverovatnih 2100+ MHz. Memorija lako dobiva 15-18% efektivne frekvencije iznad tvorničkih vrijednosti. Čudovište.


Pažnja, svi testovi se provode u 2.5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks isključen): DX11 - 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.

Naravno, nemoguće je izvući ultra-postavke u 4k i nikada ne padati ispod 60 sličica u sekundi bilo ovom karticom ili 1080, ali možete igrati na uvjetno "visokim" postavkama, isključivanjem ili lagano spuštanjem najproždrljivijih značajki u potpunosti razlučivosti, a po stvarnim performansama grafička kartica lako nadmašuje čak i prošlogodišnji 980 Ti koji je koštao gotovo duplo skuplje. Gigabyte ima najzanimljiviju opciju: uspjeli su ugurati punopravni 1070 u ITX standardno kućište. Zahvaljujući skromnom toplinskom paketu i energetski učinkovitom dizajnu. Cijene kartica počinju od 29-30 tisuća rubalja za ukusne opcije.

GTX 1080

Da, flagship nema slova Ti. Da, ne koristi najveći GPU dostupan od NVIDIA-e. Da, ovdje nema cool HBM 2 memorije, a grafička kartica ne izgleda kao Death Star ili, u krajnjem slučaju, Imperial kruzer klase Star Destroyer. I da, to je trenutno najbolja grafička kartica za igranje. Jedan po jedan snima i pokreće DOOM u rezoluciji 5k3k pri 60fps na ultra postavkama. Sve nove igračke podliježu tome, a sljedećih godinu-dvije neće imati problema: dok nove tehnologije ugrađene u Pascal ne postanu široko rasprostranjene, dok motori za igre ne nauče kako učinkovito učitavati dostupne resurse... Da, za nekoliko godine reći ćemo: “Evo, pogledajte GTX 1260, prije nekoliko godina vam je trebao flagship za igranje na tim postavkama”, ali za sada su najbolje od najboljih grafičkih kartica dostupne prije nove godine po vrlo razumnoj cijeni cijena.


Pažnja, svi testovi se izvode u 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks isključen): DX11 - 55 FPS;
Battlefield 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.

Ostaje samo odlučiti: trebate ga ili možete uštedjeti novac i uzeti 1070. Nema velike razlike između igranja na "ultra" ili "visokim" postavkama, budući da moderni motori savršeno crtaju sliku u visokoj rezoluciji čak i na srednjim postavkama : na kraju krajeva, mi imamo da niste sapunaste konzole koje ne mogu pružiti dovoljne performanse za iskrene 4k i stabilne 60fps.

Ako odbacimo najjeftinije opcije, Palit će opet imati najbolju kombinaciju cijene i kvalitete u verziji GameRock (oko 43-45 tisuća rubalja): da, sustav hlađenja je "debeo", 2,5 utora, ali video kartica kraći je od konkurenata, a par 1080 se rijetko instalira. SLI polako umire, a ni životvorna injekcija brzih mostova mu ne pomaže puno. Opcija ASUS ROG nije loša ako imate instalirano puno dodataka. ne želite pokriti dodatne utore za proširenje: njihova je video kartica debela točno 2 utora, ali zahtijeva 29 centimetara slobodnog prostora od stražnjeg zida do košare tvrdog diska. Pitam se hoće li Gigabyte uspjeti pustiti ovo čudovište u ITX formatu?

Rezultati

Nove NVIDIA video kartice upravo su zatrpale tržište rabljenog hardvera. Na njemu preživljava samo GTX 970, koji se može ugrabiti za 10-12 tisuća rubalja. Potencijalni kupci rabljenih 7970 i R9 280 često ga nemaju gdje staviti i jednostavno ga ne hrane, a mnoge opcije sa sekundarnog tržišta jednostavno su neperspektivne, a kao jeftina nadogradnja za par godina unaprijed nisu dobre: ​​malo je memorije, nove tehnologije nisu podržane. Ljepota nove generacije video kartica je u tome što čak i igre koje nisu optimizirane za njih rade puno vedrije nego na veteranskim GPU ljestvicama prošlih godina, a teško je zamisliti što će se dogoditi za godinu dana, kada motori za igre nauče koristiti punu moć novih tehnologija.

GTX 1050 i 1050Ti

Jao, ne mogu preporučiti kupnju najjeftinijeg Pascala. RX 460 se obično prodaje za tisuću-dvije manje, a ako vam je budžet toliko ograničen da uzmete video karticu “za najnoviju”, onda je Radeon objektivno zanimljivija investicija. S druge strane, 1050 je malo brži, a ako su cijene u vašem gradu za ove dvije video kartice gotovo iste, uzmite ga.

1050Ti je, pak, odlična opcija za one koji više cijene priču i igru ​​od zviždaljki i realističnih dlačica u nosu. Nema usko grlo u vidu 2 GB video memorije, neće se “spustiti” nakon godinu dana. Možete staviti novac na to - učinite to. The Witcher na visokim postavkama, GTA V, DOOM, BF 1 - nema problema. Da, morat ćete odustati od brojnih poboljšanja, kao što su ekstra duge sjene, složena teselacija ili "skupo" izračunavanje samosjenčajućih modela s ograničenim praćenjem zraka, ali u žaru borbe zaboravit ćete na ove ljepote nakon 10 minuta igre, a stabilnih 50-60 sličica u sekundi dat će puno više imerzivnog efekta nego živčani skokovi s 25 na 40, ali s postavkama na "maksimum".

Ako imate bilo koju Radeon 7850, GTX 760 ili mlađu, video karticu s 2 GB video memorije ili manje, možete sigurno mijenjati.

GTX 1060

Mlađi 1060 će se svidjeti onima kojima je brzina kadrova od 100 FPS važnija od grafičkih zvona i zviždaljki. Ujedno će vam omogućiti udobno igranje svih objavljenih igrica u FullHD rezoluciji s visokim ili maksimalnim postavkama i stabilnih 60 sličica u sekundi, a cijena se jako razlikuje od svega što dolazi nakon nje. Stariji 1060 sa 6 gigabajta memorije beskompromisno je rješenje za FullHD s marginom performansi na godinu-dvije, poznavanjem VR-a i potpuno prihvatljiv kandidat za igranje u visokim rezolucijama na srednjim postavkama.

Nema smisla mijenjati GTX 970 u GTX 1060, trebat će još godinu dana. Ali dosadne 960, 770, 780, R9 280X i starije jedinice mogu se sigurno ažurirati na 1060.

Gornji segment: GTX 1070 i 1080

1070 vjerojatno neće postati popularan kao GTX 970 (ipak, većina korisnika ima ciklus ažuriranja željeza svake dvije godine), ali po cijeni i kvaliteti svakako je dostojan nastavak 70. linije. Samo grije igre na mainstream 1080p, lako se nosi s 2560x1440, podnosi iskušenje neoptimiziranih 21 do 9 i sasvim je sposoban prikazati 4k, iako ne na maksimalnim postavkama.


Da, i SLI može biti takav.

Pozdravljamo se sa svakim 780 Ti, R9 390X i ostalim prošlogodišnjim 980-ima, pogotovo ako želimo igrati u visokoj razlučivosti. I, da, ovo je najbolja opcija za one koji vole napraviti paklenu kutiju u Mini-ITX formatu i plašiti goste 4k igricama na TV-u od 60-70 inča koje rade na računalu veličine aparata za kavu.
Povijest grafičke kartice gtx 1050 Dodaj oznake

Prema nedavno objavljenim anegdotskim dokazima, obitelj GPU-a bazirana na Pascalu mogla bi postati jedna od najcjelovitijih NVIDIA-inih linija posljednjih godina. U samo nekoliko mjeseci tvrtka je predstavila četiri GPU-a bazirana na Pascalu i tu neće stati. Prema riječima čelnika tvrtke, predstavljeni su daleko od svih Pascal čipova, a da ne spominjemo prave proizvode. Navodno, u bliskoj budućnosti čekamo nove objave.

NVIDIA Pascal: osam proizvoda u četiri mjeseca

Od travnja ove godine, NVIDIA je predstavila četiri čipa bazirana na Pascalu: GP100 sa 16 GB HBM2 memorije, GP102 s podrškom za GDDR5X, GP104 i GP106. Istovremeno, tvrtka je najavila osam proizvoda baziranih na ovim GPU-ovima (isključujući pojedinačne proizvode raznih vrsta posebnih izdanja, kao i specijalizirane uređaje poput DGX-1): GeForce GTX 1080/1070 (GP104), GeForce GTX 1060 (GP106), TITAN X (GP102 + 12GB GDDR5X), Quadro P5000 (GP104GL + 16GB GDDR5X), Quadro P6000 (GP102GL + 24GB GDDR5X), Tesla P100 SXM i Tesla P100 na bazi HMGP 100 + 16GB.

Iako je četiri GPU-a i osam proizvoda u četiri mjeseca izvanredan uspjeh, primjetno je da tvrtka nije predstavila niti jedno novo rješenje za prijenosno računalo, niti jednu novu grafičku karticu ispod 250 dolara. Prema riječima čelnika NVIDIA-e, tvrtka priprema nove GPU-ove bazirane na Pascalu, oni već postoje u siliciju, ali će na tržište ući tek nakon nekog vremena.

NVIDIA: Svi Pascalovi su spremni, ali nisu svi predstavljeni

“Sve smo dizajnirali, verificirali i pokrenuli proizvodnjuGPU baziran na arhitekturiPascal», rekao je Jen-Hsun Huang, izvršni direktor NVIDIA-e, tijekom konferencijskog poziva s investitorima i financijskim analitičarima. “Međutim, još nismo predstavili sve ove GPU-ove.”

Nove konfiguracije

Međutim, igrače i ljubitelje performansi ne zanimaju toliko interni dijelovi GP107, GP108 i GP102, već činjenica da će svaki Pascal čip postojati u najmanje dvije osnovne konfiguracije (u smislu PCIe ID-a koji NVIDIA drajver koristi ) . To otvara mogućnosti za stvaranje niza novih proizvoda temeljenih na čipovima GP100, GP102, GP104 i GP106.

Dakle, GP104 postoji u konfiguracijama GP104-A i GP104-B, kao i inačice s omogućenim ubrzanjem za profesionalne primjene - GP104GL-A i GP104GL-B. Ne znamo čemu točno odgovaraju slova "A" i "B", ali možemo pretpostaviti da "A" označava mikrosklop u maksimalnoj konfiguraciji. Dakle, GP104-A može odgovarati GeForce GTX 1080, a GP104-B može odgovarati GeForce GTX 1070.

S obzirom na to da mikrokrugovi GP102 i GP106 također postoje u dvije konfiguracije (u svakom slučaju, na to ukazuju baza podataka AIDA64 i NVIDIA drajveri), ali u isto vrijeme postoji samo jedan proizvod koji se temelji na njima (GeForce GTX 1060 i TITAN X) , možemo očekivati ​​pojavu novih rješenja temeljenih na njima. Hoće li ove kartice biti brže ili sporije od postojećih, vrijeme će pokazati. U svakom slučaju, GP102 može skalirati i "gore" (do 3840 stream procesora) i "dolje". Pritom se, naravno, ne može isključiti hipotetska mogućnost pojave treće verzije GP102-C, u slučaju da zatreba NVIDIA-i.

Na ovaj ili onaj način, očito je da NVIDIA planira proširiti obitelj grafičkih kartica baziranih na Pascalu. Iako bi neposredni planovi jasno trebali uključivati ​​mobilne i mainstream GPU-ove, vrlo je vjerojatno da ćemo u budućnosti imati nova rješenja za visokoučinkovita gaming računala.

ParametarZnačenje
Kodni naziv čipaGP104
Tehnologija proizvodnje16nm FinFET
Broj tranzistora7,2 milijarde
Područje jezgre314 mm²
Arhitektura
DirectX hardverska podrška
Sabirnica memorije
1607 (1733) MHz
Računalni blokovi20 multiprocesora za strujanje uključujući 2560 IEEE 754-2008 skalarnih ALU-ova s ​​pomičnim zarezom;
Teksturni blokovi160 jedinica za adresiranje i filtriranje teksture s podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture
Podrška za monitor
Specifikacije referentne grafike GeForce GTX 1080
ParametarZnačenje
Frekvencija jezgre1607 (1733) MHz
2560
Broj blokova teksture160
Broj blokova za miješanje64
Efektivna frekvencija memorije10000 (4×2500) MHz
Vrsta memorijeGDDR5X
Sabirnica memorije256-bitni
Memorija8 GB
320 GB/s
oko 9 teraflopsa
103 gigapiksela/s
257 gigateksela/s
GumaPCI Express 3.0
Priključci
potrošnja energijedo 180 W
Dodatna hranaJedan 8-pinski konektor
2
Preporučena cijena599-699 USD (SAD), 54990 RUB (Rusija)

Novi model grafičke kartice GeForce GTX 1080 dobio je logično ime za prvo rješenje nove GeForce serije - razlikuje se od svog izravnog prethodnika samo po promijenjenoj generacijskoj brojci. Novost ne samo da zamjenjuje vrhunska rješenja u trenutnoj liniji tvrtke, već je neko vrijeme postala i perjanica nove serije, sve dok Titan X nije pušten na još snažniji GPU. Ispod njega u hijerarhiji je također već najavljeni model GeForce GTX 1070, baziran na smanjenoj verziji GP104 čipa, koji ćemo razmotriti u nastavku.

Predložene cijene za Nvidijinu novu grafičku karticu su 599 USD i 699 USD za regularnu i Founders Edition (vidi dolje), što je prilično dobar posao s obzirom da je GTX 1080 ispred ne samo GTX 980 Ti, već i Titan X. Danas je novi proizvod bez ikakvih pitanja najbolje rješenje u pogledu performansi na tržištu single-chip video kartica, a ujedno je i jeftiniji od najmoćnijih video kartica prethodne generacije. Za sada GeForce GTX 1080 u biti nema konkurenta iz AMD-a, pa je Nvidia uspjela postaviti cijenu koja im odgovara.

Predmetna video kartica temelji se na GP104 čipu koji ima 256-bitnu memorijsku sabirnicu, ali nova vrsta GDDR5X memorije radi na vrlo visokoj efektivnoj frekvenciji od 10 GHz, što daje visoku vršnu propusnost od 320 GB/s. - što je gotovo izjednačeno s GTX 980 Ti s 384-bitnom sabirnicom. Količina memorije instalirane na video kartici s takvom sabirnicom mogla bi biti 4 ili 8 GB, ali bi bilo glupo postaviti manji iznos za tako moćno rješenje u modernim uvjetima, pa je GTX 1080 dobio 8 GB memorije, a ovaj iznos dovoljan je za pokretanje bilo koje 3D aplikacije s bilo kojim postavkama kvalitete u narednim godinama.

GeForce GTX 1080 PCB je razumljivo dosta drugačiji od prethodnih PCB-a tvrtke. Vrijednost tipične potrošnje energije za nove artikle je 180 vata – nešto više od GTX 980, ali osjetno niže od manje moćnih Titan X i GTX 980 Ti. Referentna ploča ima uobičajeni set konektora za spajanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort.

Referentni dizajn Founders Edition

Čak i uz najavu GeForce GTX 1080 početkom svibnja najavljeno je posebno izdanje video kartice pod nazivom Founders Edition, koja ima višu cijenu od običnih video kartica partnera tvrtke. Zapravo, ovo izdanje je referentni dizajn kartice i sustava hlađenja, a proizvodi ga sama Nvidia. Možete imati različite stavove prema takvim opcijama za video kartice, ali referentni dizajn koji su razvili inženjeri tvrtke i proizveden od visokokvalitetnih komponenti ima svoje obožavatelje.

No, hoće li platiti nekoliko tisuća rubalja više za video karticu same Nvidije, pitanje je na koje može odgovoriti samo praksa. U svakom slučaju, isprva će se u prodaji pojaviti referentne grafičke kartice iz Nvidie po povećanoj cijeni, i nema puno izbora - to se događa sa svakom najavom, no referentna GeForce GTX 1080 je drugačija po tome planira se prodavati u ovom obliku tijekom cijelog životnog vijeka, do izlaska rješenja sljedeće generacije.

Nvidia vjeruje da ovo izdanje ima svoje prednosti čak i nad najboljim radovima partnera. Na primjer, dizajn hladnjaka s dva utora olakšava sastavljanje kako igraćih računala relativno malog oblika, tako i videosustava s više čipova baziranih na ovoj moćnoj video kartici (čak i unatoč tome što se način rada s tri i četiri čipa ne preporučuje od strane tvrtke). GeForce GTX 1080 Founders Edition ima neke prednosti u obliku učinkovitog hladnjaka koji koristi komoru za isparavanje i ventilator koji gura zagrijani zrak iz kućišta – ovo je prvo takvo rješenje iz Nvidije koje troši manje od 250 vata energije.

U usporedbi s prethodnim referentnim dizajnom proizvoda tvrtke, strujni krug je nadograđen s četverofaznog na petfazni. Nvidia također govori o poboljšanim komponentama na kojima se temelji novi proizvod, smanjena je i električna buka kako bi se poboljšala stabilnost napona i potencijal za overclocking. Kao rezultat svih poboljšanja, energetska učinkovitost referentne ploče povećana je za 6% u odnosu na GeForce GTX 980.

A kako bi se razlikovali od "običnih" modela GeForce GTX 1080 i izvana, za Founders Edition je razvijen neobičan "usitnjeni" dizajn kućišta. Što je, međutim, vjerojatno dovelo i do kompliciranja oblika evaporacijske komore i radijatora (vidi fotografiju), što je možda bio jedan od razloga da se za ovako posebno izdanje doplati 100 dolara. Ponavljamo da na početku prodaje kupci neće imati puno izbora, no u budućnosti će biti moguće odabrati i rješenje s vlastitim dizajnom od jednog od partnera tvrtke, a u izvedbi same Nvidie.

Nova generacija Pascal grafičke arhitekture

GeForce GTX 1080 video kartica je prvo rješenje tvrtke bazirano na GP104 čipu, koji pripada novoj generaciji Nvidijine Pascal grafičke arhitekture. Iako se nova arhitektura temelji na rješenjima razrađenim u Maxwellu, ima i bitne funkcionalne razlike o kojima ćemo pisati kasnije. Glavna promjena s globalne točke gledišta bio je novi tehnološki proces prema kojem je napravljen novi grafički procesor.

Korištenje 16 nm FinFET procesne tehnologije u proizvodnji GP104 GPU-a u tvornicama tajvanske tvrtke TSMC omogućilo je značajno povećanje složenosti čipa uz zadržavanje relativno niske površine i cijene. Usporedite broj tranzistora i područje čipova GP104 i GM204 - oni su bliski po površini (čip novosti je još fizički manji), ali čip arhitekture Pascal ima znatno veći broj tranzistora, i, sukladno tome , izvedbene jedinice, uključujući one koje pružaju novu funkcionalnost.

Sa arhitektonske točke gledišta, prvi gaming Pascal vrlo je sličan sličnim rješenjima Maxwellove arhitekture, iako postoje neke razlike. Poput Maxwella, procesori Pascal arhitekture imat će različite konfiguracije klastera za grafičku obradu (GPC), višeprocesora za strujanje (SM) i memorijskih kontrolera. SM multiprocesor je vrlo paralelan multiprocesor koji raspoređuje i pokreće warps (warps, grupe od 32 toka instrukcija) na CUDA jezgri i drugim izvršnim jedinicama u multiprocesoru. Detaljne informacije o dizajnu svih ovih blokova možete pronaći u našim recenzijama prethodnih Nvidia rješenja.

Svaki od SM multiprocesora uparen je s PolyMorph Engineom, koji upravlja uzorkovanjem teksture, teselacijom, transformacijom, postavljanjem atributa vrha i korekcijom perspektive. Za razliku od prethodnih rješenja tvrtke, PolyMorph Engine u GP104 čipu također sadrži novi blok Simultaneous Multi-Projection, o kojem ćemo govoriti u nastavku. Kombinacija SM multiprocesora s jednim Polymorph Engineom tradicionalno se naziva TPC - Texture Processor Cluster za Nvidiju.

Ukupno, GP104 čip u GeForce GTX 1080 sadrži četiri GPC klastera i 20 SM multiprocesora, kao i osam memorijskih kontrolera u kombinaciji sa 64 ROP-a. Svaki GPC klaster ima namjenski stroj za rasterizaciju i uključuje pet SM-ova. Svaki se multiprocesor, pak, sastoji od 128 CUDA jezgri, 256 KB registarske datoteke, 96 KB dijeljene memorije, 48 KB L1 predmemorije i osam TMU teksturnih jedinica. To jest, ukupno GP104 sadrži 2560 CUDA jezgri i 160 TMU jedinica.

Također, grafički procesor na kojem se temelji GeForce GTX 1080 sadrži osam 32-bitnih (za razliku od prethodno korištenih 64-bitnih) memorijskih kontrolera, što nam daje konačnu 256-bitnu memorijsku sabirnicu. Osam ROP-ova i 256 KB L2 predmemorije vezano je za svaki od memorijskih kontrolera. To jest, ukupno GP104 čip sadrži 64 ROP-a i 2048 KB L2 predmemorije.

Zahvaljujući arhitektonskim optimizacijama i novoj tehnologiji procesa, prvi Pascal za igre postao je energetski najučinkovitiji GPU ikada. Štoviše, tome doprinosi kako jedan od najnaprednijih tehnoloških procesa 16 nm FinFET, tako i optimizacije arhitekture provedene u Pascalu, u usporedbi s Maxwellom. Nvidia je uspjela povećati brzinu takta čak i više nego što su očekivali prelaskom na novu procesnu tehnologiju. GP104 radi na višoj frekvenciji od hipotetskog GM204 izrađenog 16nm postupkom. Da bi to učinili, Nvidijini inženjeri morali su pažljivo provjeriti i optimizirati sva uska grla prethodnih rješenja koja sprječavaju overclockanje iznad određenog praga. Kao rezultat toga, nova GeForce GTX 1080 radi na preko 40% većim brzinama takta od GeForce GTX 980. Ali to nije sve što se tiče promjena takta GPU-a.

GPU Boost 3.0 tehnologija

Kao što dobro znamo iz prethodnih Nvidia grafičkih kartica, u svojim GPU-ovima koriste hardversku tehnologiju GPU Boost, dizajniranu da poveća radnu brzinu GPU-a u načinima u kojima još nije dosegao svoju potrošnju energije i toplinske granice. Tijekom godina ovaj algoritam je doživio mnoge promjene, a već se treća generacija ove tehnologije koristi u video čipu Pascal arhitekture – GPU Boost 3.0, čija je glavna inovacija finije podešavanje turbo frekvencija, ovisno o naponu.

Ako se sjećate principa rada prethodnih verzija tehnologije, tada je razlika između osnovne frekvencije (zajamčena minimalna vrijednost frekvencije ispod koje GPU ne pada, barem u igrama) i turbo frekvencije bila fiksna. Odnosno, turbo frekvencija je uvijek bila određeni broj megaherca iznad baze. GPU Boost 3.0 uveo je mogućnost postavljanja pomaka turbo frekvencije za svaki napon zasebno. Najlakši način da to shvatite je pomoću ilustracije:

S lijeve strane je GPU Boost druge verzije, s desne strane - treća, koja se pojavila u Pascalu. Fiksna razlika između osnovne i turbo frekvencije nije dopuštala da se otkriju pune mogućnosti GPU-a, u nekim slučajevima GPU-ovi prethodnih generacija mogli su raditi brže na zadanom naponu, ali fiksni višak turbo frekvencije to nije dopuštao. U GPU Boostu 3.0 pojavila se ova značajka, a turbo frekvencija se može postaviti za svaku od pojedinačnih vrijednosti napona, potpuno istiskujući sav sok iz GPU-a.

Za upravljanje overclockingom i postavljanje krivulje turbo frekvencije potrebni su praktični uslužni programi. Sama Nvidia to ne čini, ali pomaže svojim partnerima da kreiraju takve uslužne programe kako bi olakšali overclocking (naravno, u razumnim granicama). Na primjer, nova funkcionalnost GPU Boost 3.0 već je otkrivena u EVGA Precision XOC, koja uključuje namjenski skener za overclocking koji automatski pronalazi i postavlja nelinearnu razliku između osnovne frekvencije i turbo frekvencije pri različitim naponima pokretanjem ugrađenog test performansi i stabilnosti. Kao rezultat, korisnik dobiva turbo frekvencijsku krivulju koja savršeno odgovara mogućnostima određenog čipa. Što se, osim toga, može mijenjati kako želite u ručnom načinu rada.

Kao što možete vidjeti na snimci zaslona uslužnog programa, osim informacija o GPU-u i sustavu, tu su i postavke za overclocking: Power Target (definira tipičnu potrošnju energije tijekom overclockanja, kao postotak standarda), GPU Temp Target (maksimalna dopuštena temperatura jezgre), GPU Clock Offset (premašavanje osnovne frekvencije za sve vrijednosti napona), Memory Offset (premašavanje frekvencije video memorije iznad zadane vrijednosti), Overvoltage (dodatna prilika za povećanje napona).

Uslužni program Precision XOC uključuje tri načina overclockinga: Osnovni, Linearni i Ručni. U glavnom načinu rada možete postaviti jednu vrijednost overclocka (fiksnu turbo frekvenciju) u odnosu na osnovnu, kao što je bio slučaj s prethodnim GPU-ovima. Linearni način rada omogućuje vam postavljanje frekvencijske rampe od minimalnih do maksimalnih vrijednosti napona za GPU. Pa, u ručnom načinu rada, možete postaviti jedinstvene vrijednosti frekvencije GPU-a za svaku točku napona na grafikonu.

Uslužni program također uključuje poseban skener za automatski overclocking. Možete postaviti vlastite razine frekvencije ili dopustiti Precision XOC da skenira GPU na svim naponima i potpuno automatski pronađe najstabilnije frekvencije za svaku točku na krivulji napona i frekvencije. Tijekom procesa skeniranja, Precision XOC postepeno povećava frekvenciju GPU-a i provjerava stabilnost ili artefakte u njegovom radu, stvarajući idealnu krivulju frekvencije i napona koja će biti jedinstvena za svaki pojedini čip.

Ovaj skener se može prilagoditi vašim vlastitim zahtjevima postavljanjem vremenskog intervala za testiranje svake vrijednosti napona, minimalne i maksimalne frekvencije koja se testira i koraka. Jasno je da bi za postizanje stabilnih rezultata bilo bolje postaviti mali korak i pristojno trajanje testiranja. Tijekom testiranja može se primijetiti nestabilan rad video drajvera i sustava, ali ako se skener ne zamrzne, vratit će rad i nastaviti pronalaziti optimalne frekvencije.

Nova vrsta video memorije GDDR5X i poboljšana kompresija

Dakle, snaga GPU-a je značajno porasla, a memorijska sabirnica je ostala samo 256-bitna – hoće li memorijski pojas ograničiti ukupne performanse i što se može učiniti po tom pitanju? Čini se da je obećavajuća druga generacija HBM-a još uvijek preskupa za proizvodnju, pa je trebalo tražiti druge opcije. Još od uvođenja GDDR5 memorije 2009. godine, Nvidijini inženjeri istražuju mogućnosti korištenja novih vrsta memorije. Kao rezultat toga, razvoj je došao do uvođenja novog memorijskog standarda GDDR5X - najsloženijeg i najnaprednijeg standarda do sada, koji daje brzinu prijenosa od 10 Gbps.

Nvidia daje zanimljiv primjer koliko je ovo brzo. Prođe samo 100 pikosekundi između odaslanih bitova - za to vrijeme će snop svjetlosti putovati na udaljenosti od samo jednog inča (oko 2,5 cm). A kada se koristi GDDR5X memorija, sklopovi za primanje podataka moraju odabrati vrijednost odaslanog bita u manje od polovice ovog vremena prije nego se sljedeći pošalje - ovo je samo da shvatite do čega je moderna tehnologija došla.

Postizanje ove brzine zahtijevalo je razvoj nove arhitekture I/O sustava koja je zahtijevala nekoliko godina zajedničkog razvoja s proizvođačima memorijskih čipova. Uz povećanu brzinu prijenosa podataka, povećana je i energetska učinkovitost – GDDR5X memorijski čipovi koriste niži napon od 1,35 V i proizvedeni su po novim tehnologijama, što daje istu potrošnju energije na 43% višoj frekvenciji.

Inženjeri tvrtke morali su preraditi vodove za prijenos podataka između jezgre GPU-a i memorijskih čipova, obraćajući više pažnje na sprječavanje gubitka signala i degradacije signala sve od memorije do GPU-a i natrag. Dakle, na gornjoj ilustraciji uhvaćeni signal je prikazan kao veliko simetrično "oko", što ukazuje na dobru optimizaciju cijelog kruga i relativnu lakoću hvatanja podataka iz signala. Štoviše, gore opisane promjene dovele su ne samo do mogućnosti korištenja GDDR5X na 10 GHz, već bi također trebale pomoći u dobivanju velike propusnosti memorije na budućim proizvodima koji koriste poznatiju GDDR5 memoriju.

Pa, dobili smo više od 40% povećanja memorijskog pojasa korištenjem nove memorije. Ali zar to nije dovoljno? Kako bi dodatno povećala učinkovitost memorijskog pojasa, Nvidia je nastavila poboljšavati naprednu kompresiju podataka uvedenu u prethodnim arhitekturama. Memorijski podsustav u GeForce GTX 1080 koristi poboljšane i nekoliko novih tehnika kompresije podataka bez gubitaka dizajniranih da smanje zahtjeve za širinom pojasa - već četvrtu generaciju kompresije na čipu.

Algoritmi za kompresiju podataka u memoriji donose nekoliko pozitivnih aspekata odjednom. Kompresija smanjuje količinu podataka upisanih u memoriju, isto vrijedi i za podatke koji se prenose iz video memorije u predmemoriju druge razine, što poboljšava učinkovitost korištenja L2 predmemorije, budući da komprimirana pločica (blok od nekoliko piksela međuspremnika okvira) ima manji veličine od nekomprimirane. Također smanjuje količinu podataka koji se šalju između različitih točaka, kao što su TMU modul teksture i framebuffer.

Cjevovod kompresije podataka u GPU-u koristi nekoliko algoritama, koji se određuju ovisno o "komprimibilnosti" podataka - za njih se odabire najbolji dostupni algoritam. Jedan od najvažnijih je algoritam delta kompresije boja. Ova metoda kompresije kodira podatke kao razliku između uzastopnih vrijednosti umjesto samih podataka. GPU izračunava razliku u vrijednostima boja između piksela u bloku (pločica) i pohranjuje blok kao neku prosječnu boju za cijeli blok plus podatke o razlici vrijednosti za svaki piksel. Za grafičke podatke ova metoda je obično prikladna, budući da se boja unutar malih pločica za sve piksele često ne razlikuje previše.

GP104 GPU u GeForce GTX 1080 podržava više algoritama kompresije od prethodnih čipova arhitekture Maxwell. Tako je algoritam kompresije 2:1 postao učinkovitiji, a osim njega pojavila su se dva nova algoritma: način kompresije 4:1, pogodan za slučajeve kada je razlika u vrijednosti boje piksela bloka vrlo velika. mali, i način rada 8:1, koji kombinira konstantnu kompresiju 4:1 blokova 2×2 piksela s 2x delta kompresijom između blokova. Kada kompresija uopće nije moguća, ne koristi se.

Međutim, u stvarnosti, ovo drugo se događa vrlo rijetko. To se može vidjeti iz primjera snimki zaslona iz igre Project CARS, koje je Nvidia citirala kako bi ilustrirala povećani omjer kompresije u Pascalu. Na ilustracijama su one pločice međuspremnika okvira koje je GPU mogao komprimirati zasjenjene magentom, a one koje se nisu mogle komprimirati bez gubitka ostale su originalne boje (gore - Maxwell, dolje - Pascal).

Kao što vidite, novi algoritmi kompresije u GP104 stvarno rade puno bolje nego u Maxwellu. Iako je stara arhitektura također uspjela komprimirati većinu pločica u sceni, puno trave i drveća oko rubova, kao ni dijelovi automobila, ne podliježu starim algoritmima kompresije. Ali s uključivanjem novih tehnika u Pascal, vrlo mali broj područja slike ostao je nekomprimiran - vidljiva je poboljšana učinkovitost.

Kao rezultat poboljšanja kompresije podataka, GeForce GTX 1080 je u mogućnosti značajno smanjiti količinu podataka koji se šalju po kadru. U brojkama, poboljšana kompresija štedi dodatnih 20% efektivne memorijske propusnosti. Uz više od 40% povećanja memorijske propusnosti GeForce GTX 1080 u odnosu na GTX 980 korištenjem GDDR5X memorije, sve to zajedno daje oko 70% povećanje efektivne propusnosti memorije u odnosu na model prethodne generacije.

Podrška za Async Compute

Većina modernih igara osim grafike koristi složene izračune. Na primjer, proračuni pri izračunavanju ponašanja fizičkih tijela mogu se provoditi ne prije ili nakon grafičkih proračuna, već istovremeno s njima, budući da nisu međusobno povezani i ne ovise jedno o drugom unutar istog okvira. Drugi primjer je naknadna obrada već renderiranih okvira i obrada audio podataka, koja se također može izvoditi paralelno s renderiranjem.

Još jedan jasan primjer korištenja funkcionalnosti je tehnika asinkronog vremenskog iskrivljavanja koja se koristi u VR sustavima za promjenu izlaznog okvira u skladu s pomakom glave igrača neposredno prije izlaza, prekidajući renderiranje sljedećeg. Takvo asinkrono učitavanje GPU kapaciteta omogućuje povećanje učinkovitosti korištenja njegovih izvršnih jedinica.

Ova radna opterećenja stvaraju dva nova scenarija upotrebe GPU-a. Prvi od njih uključuje opterećenja koja se preklapaju, budući da mnoge vrste zadataka ne koriste u potpunosti mogućnosti GPU-a, a neki resursi su neaktivni. U takvim slučajevima možete jednostavno pokrenuti dva različita zadatka na istom GPU-u, odvajajući njegove izvršne jedinice kako biste dobili učinkovitiju upotrebu - na primjer, PhysX efekte koji se pokreću zajedno s 3D prikazivanjem okvira.

Kako bi poboljšala performanse ovog scenarija, Pascal arhitektura je uvela dinamičko balansiranje opterećenja. U prethodnoj arhitekturi Maxwella, preklapajuća radna opterećenja implementirana su kao statička distribucija GPU resursa između grafike i računala. Ovaj pristup je učinkovit pod uvjetom da ravnoteža između dvaju radnih opterećenja otprilike odgovara podjeli resursa i da se zadaci odvijaju jednako u vremenu. Ako negrafički izračuni traju dulje od grafičkih, a oba čekaju završetak zajedničkog posla, tada će dio GPU-a biti neaktivan preostalo vrijeme, što će uzrokovati smanjenje ukupne performanse i poništiti sve prednosti. Hardversko dinamičko balansiranje opterećenja, s druge strane, omogućuje vam korištenje oslobođenih GPU resursa čim postanu dostupni - radi razumijevanja, dat ćemo ilustraciju.

Postoje i zadaci koji su vremenski kritični, a ovo je drugi scenarij za asinkrono računanje. Na primjer, izvođenje algoritma asinkronog izobličenja vremena u VR-u mora biti dovršeno prije skeniranja ili će okvir biti odbačen. U takvom slučaju, GPU mora podržati vrlo brz prekid zadatka i prebacivanje na drugi zadatak kako bi preuzeo manje kritičan zadatak od izvršenja na GPU-u, oslobađajući svoje resurse za kritične zadatke - to se zove preemption.

Jedna naredba renderiranja iz motora igre može sadržavati stotine poziva za crtanje, svaki poziv za crtanje zauzvrat sadrži stotine renderiranih trokuta, od kojih svaki sadrži stotine piksela koje treba izračunati i nacrtati. Tradicionalni GPU pristup koristi samo prekid zadatka na visokoj razini, a grafički cjevovod mora čekati da se sav taj posao dovrši prije prebacivanja zadataka, što rezultira vrlo velikom latencijom.

Da bi se to popravilo, Pascal arhitektura je najprije uvela mogućnost prekidanja zadatka na razini piksela - Pixel Level Preemption. Izvršne jedinice Pascal GPU-a mogu stalno pratiti napredak zadataka renderiranja, a kada se zatraži prekid, mogu zaustaviti izvršenje, spremajući kontekst za kasniji završetak brzim prebacivanjem na drugi zadatak.

Prekid i preklop na razini niti za računske operacije funkcioniraju slično kao prekid na razini piksela za grafičko računanje. Računalna opterećenja sastoje se od više mreža, od kojih svaka sadrži više niti. Kada se primi zahtjev za prekid, niti koje se izvode na višeprocesoru prekidaju svoje izvođenje. Drugi blokovi spremaju svoje vlastito stanje kako bi nastavili s iste točke u budućnosti, a GPU se prebacuje na drugi zadatak. Cijeli proces prebacivanja zadataka traje manje od 100 mikrosekundi nakon izlaska pokrenutih niti.

Za radna opterećenja igranja, kombinacija prekida na razini piksela za grafiku i prekida na razini niti za računalne zadatke daje GPU-ovima Pascal arhitekture mogućnost brzog prebacivanja između zadataka uz minimalan gubitak vremena. A za računalne zadatke na CUDA-i također je moguće prekinuti s minimalnom granularnošću - na razini instrukcija. U ovom načinu rada sve niti odjednom zaustavljaju izvršavanje, odmah se prebacujući na drugi zadatak. Ovaj pristup zahtijeva spremanje više informacija o stanju svih registara svake niti, ali je u nekim slučajevima negrafičkih izračuna sasvim opravdano.

Korištenje brzog prekida i prebacivanja zadataka u grafičkim i računskim zadacima dodano je Pascal arhitekturi kako bi se grafički i negrafički zadaci mogli prekinuti na razini pojedinačnih instrukcija, a ne cijelih niti, kao što je bio slučaj s Maxwellom i Keplerom. . Ove tehnologije mogu poboljšati asinkrono izvršavanje različitih GPU radnih opterećenja i poboljšati odziv pri pokretanju više zadataka u isto vrijeme. Na Nvidia eventu pokazali su demonstraciju rada asinkronih proračuna na primjeru izračunavanja fizičkih efekata. Ako je bez asinkronih izračuna izvedba bila na razini od 77-79 FPS, tada se s uključivanjem ovih značajki brzina kadrova povećala na 93-94 FPS.

Već smo dali primjer jedne od mogućnosti korištenja ove funkcionalnosti u igrama u obliku asinkronog izobličenja vremena u VR-u. Ilustracija prikazuje rad ove tehnologije s tradicionalnim prekidom (preuzimanjem) i brzo. U prvom slučaju, proces asinkronog vremenskog izobličenja pokušava se provesti što je kasnije moguće, ali prije početka ažuriranja slike na zaslonu. No, rad algoritma mora se dati na izvršenje u GPU-u nekoliko milisekundi ranije, budući da bez brzog prekida nema načina da se točno izvrši rad u pravo vrijeme, a GPU neko vrijeme miruje.

U slučaju preciznog prekida na razini piksela i niti (prikazano desno), ova mogućnost daje veću točnost u određivanju trenutka prekida, a asinkrono vremensko iskrivljenje može se započeti mnogo kasnije s povjerenjem u završetak posla prije počinje ažuriranje informacija na zaslonu. I u mirovanju neko vrijeme u prvom slučaju, GPU se može opteretiti dodatnim grafičkim radom.

Tehnologija simultane višestruke projekcije

Novi GPU GP104 dodaje podršku za novu tehnologiju simultane višestruke projekcije (SMP) koja omogućuje GPU-u učinkovitije prikazivanje podataka na modernim sustavima prikaza. SMP omogućuje video čipu da istovremeno prikazuje podatke u nekoliko projekcija, što je zahtijevalo uvođenje novog hardverskog bloka u GPU kao dio PolyMorph motora na kraju geometrijskog cjevovoda prije bloka rasterizacije. Ovaj blok je odgovoran za rad s višestrukim projekcijama za jedan geometrijski tok.

Motor za više projekcija simultano obrađuje geometrijske podatke za 16 unaprijed konfiguriranih projekcija koje kombiniraju točku projekcije (kamere), te se projekcije mogu neovisno rotirati ili naginjati. Budući da se svaki primitiv geometrije može pojaviti istovremeno u više projekcija, SMP motor pruža ovu funkcionalnost, dopuštajući aplikaciji da uputi video čipu da replicira geometriju do 32 puta (16 projekcija u dva projekcijska centra) bez dodatne obrade.

Cijeli proces obrade je hardverski ubrzan, a budući da multiprojekcija radi nakon geometrijskog motora, ne treba više puta ponavljati sve faze obrade geometrije. Ušteđeni resursi važni su kada je brzina renderiranja ograničena izvedbom obrade geometrije, kao što je teselacija, kada se isti geometrijski rad izvodi nekoliko puta za svaku projekciju. Sukladno tome, u vršnom slučaju, višestruka projekcija može smanjiti potrebu za obradom geometrije do 32 puta.

Ali zašto je sve to potrebno? Postoji nekoliko dobrih primjera u kojima tehnologija višestrukih projekcija može biti korisna. Na primjer, sustav s više monitora od tri zaslona postavljena pod kutom jedan prema drugome dovoljno blizu korisniku (surround konfiguracija). U tipičnoj situaciji, scena je prikazana u jednoj projekciji, što dovodi do geometrijskih izobličenja i pogrešnog renderiranja geometrije. Ispravan način su tri različite projekcije za svaki od monitora, prema kutu pod kojim se nalaze.

S video karticom na čipu s Pascal arhitekturom, to se može učiniti u jednom geometrijskom prolazu, navodeći tri različite projekcije, svaka za drugi monitor. A korisnik će, tako, moći promijeniti kut pod kojim se monitori nalaze jedan prema drugome ne samo fizički, već i virtualno - rotirajući projekcije za bočne monitore kako bi dobio ispravnu perspektivu u 3D sceni s osjetno širi kut gledanja (FOV). Istina, ovdje postoji ograničenje - za takvu podršku, aplikacija mora biti u mogućnosti renderirati scenu sa širokim FOV i koristiti posebne SMP API pozive za postavljanje. To jest, ne možete to učiniti u svakoj igri, potrebna vam je posebna podrška.

U svakom slučaju, dani jedne projekcije na jednom ravnom monitoru su prošli, sada postoje mnoge konfiguracije s više monitora i zakrivljeni zasloni koji također mogu koristiti ovu tehnologiju. Da ne spominjemo sustave virtualne stvarnosti koji koriste posebne leće između ekrana i očiju korisnika, a koji zahtijevaju nove tehnike projiciranja 3D slike u 2D sliku. Mnoge od ovih tehnologija i tehnika još su u ranom razvoju, glavna stvar je da stariji GPU-ovi ne mogu učinkovito koristiti više od jedne ravninske projekcije. Zahtijevaju višestruke prolaze renderiranja, višestruku obradu iste geometrije i tako dalje.

Maxwell čipovi su imali ograničenu podršku za više rezolucija kako bi se povećala učinkovitost, ali Pascalov SMP može učiniti mnogo više. Maxwell je mogao rotirati projekciju za 90 stupnjeva za mapiranje kocke ili različite rezolucije projekcije, ali to je bilo korisno samo u ograničenom rasponu aplikacija kao što je VXGI.

Ostale mogućnosti za korištenje SMP-a uključuju renderiranje u različitim razlučivostima i stereo renderiranje u jednom prolazu. Na primjer, renderiranje u različitim razlučivostima (Multi-Res Shading) može se koristiti u igrama za optimizaciju performansi. Kada se primjenjuje, u središtu okvira koristi se viša razlučivost, a na periferiji se smanjuje kako bi se postigla brža brzina renderiranja.

Stereo renderiranje u jednom prolazu koristi se u VR-u, već je dodano u VRWorks paket i koristi značajku višestruke projekcije kako bi se smanjila količina geometrijskog rada potrebnog u VR renderiranju. Ako se koristi ova značajka, GeForce GTX 1080 GPU obrađuje geometriju scene samo jednom, generirajući dvije projekcije za svako oko odjednom, što smanjuje geometrijsko opterećenje GPU-a za polovicu, a također smanjuje i gubitke od drajvera i OS-a.

Još naprednija tehnika za poboljšanje učinkovitosti VR renderiranja je Sjenčanje s podudarnim objektivom, koja koristi višestruke projekcije za simulaciju geometrijskih izobličenja potrebnih za VR renderiranje. Ova metoda koristi višestruku projekciju za renderiranje 3D scene na površinu koja je približna površini prilagođenoj leći kada se renderira za izlaz VR slušalica, izbjegavajući mnoge dodatne piksele na periferiji koji bi bili odbačeni. Suštinu metode najlakše je razumjeti ilustracijom - četiri blago proširene projekcije koriste se ispred svakog oka (u Pascalu možete koristiti 16 projekcija za svako oko - za točniju simulaciju zakrivljene leće) umjesto jedne:

Ovaj pristup može dovesti do značajnih ušteda performansi. Na primjer, tipična Oculus Rift slika po oku je 1,1 megapiksela. Ali zbog razlike u projekcijama, za renderiranje originalna slika je 2,1 megapiksela - 86% više nego što je potrebno! Korištenje višestruke projekcije, implementirane u Pascal arhitekturi, omogućuje smanjenje razlučivosti prikazane slike na 1,4 megapiksela, postižući 1,5-struku uštedu u brzini obrade piksela, a također štedi propusnost memorije.

Uz dvostruku uštedu u brzini obrade geometrije zbog stereo renderiranja u jednom prolazu, grafički procesor GeForce GTX 1080 može pružiti značajno povećanje performansi VR renderiranja, što je vrlo zahtjevno za brzinu obrade geometrije, pa čak i više od toga. obrada piksela.

Poboljšanja video izlaza i blokova obrade

Uz performanse i nove funkcionalnosti vezane uz 3D renderiranje, potrebno je održavati i dobru razinu izlazne slike, kao i video dekodiranje i kodiranje. I prvi grafički procesor Pascal arhitekture nije razočarao - podržava sve moderne standarde u tom smislu, uključujući hardversko dekodiranje HEVC formata, neophodnog za gledanje 4K videa na računalu. Također, budući vlasnici GeForce GTX 1080 grafičkih kartica uskoro će moći uživati ​​u streamingu 4K videa s Netflixa i drugih provajdera na svojim sustavima.

Što se tiče izlaznog prikaza, GeForce GTX 1080 ima podršku za HDMI 2.0b s HDCP 2.2 kao i DisplayPort. Do sada je certificirana verzija DP 1.2, no GPU je spreman za certifikaciju za novije verzije standarda: DP 1.3 Ready i DP 1.4 Ready. Potonji omogućuje prikaz 4K zaslona na 120Hz, a 5K i 8K prikaza na 60Hz pomoću para DisplayPort 1.3 kabela. Ako je za GTX 980 maksimalna podržana rezolucija bila 5120x3200 na 60Hz, onda je za novi GTX 1080 model narasla na 7680x4320 na istih 60Hz. Referentni GeForce GTX 1080 ima tri DisplayPort izlaza, jedan HDMI 2.0b i jedan digitalni Dual-Link DVI.

Novi model Nvidia video kartice također je dobio poboljšani blok za dekodiranje i kodiranje video podataka. Dakle, GP104 čip je u skladu s visokim standardima PlayReady 3.0 (SL3000) za streaming video reprodukciju, što vam omogućuje da budete sigurni da će reprodukcija visokokvalitetnog sadržaja poznatih pružatelja usluga kao što je Netflix biti najviše kvalitete i energetski učinkovita . Pojedinosti o podršci za različite video formate tijekom kodiranja i dekodiranja dane su u tablici, novi proizvod se jasno razlikuje od prethodnih rješenja na bolje:

No, još zanimljivija novost je podrška za takozvani High Dynamic Range (HDR) zaslone koji će uskoro postati široko rasprostranjeni na tržištu. Televizori su u prodaji već 2016. (s četiri milijuna HDR televizora koji će se prodati u samo jednoj godini), a monitori iduće godine. HDR je najveći napredak u tehnologiji zaslona posljednjih godina, pružajući dvostruko bolje tonove boja (75% vidljivog spektra naspram 33% za RGB), svjetlije zaslone (1000 nita) s većim kontrastom (10000:1) i bogatim bojama.

Pojava mogućnosti reprodukcije sadržaja s većom razlikom u svjetlini te bogatijim i zasićenijim bojama približit će sliku na ekranu stvarnosti, crna boja će postati dublja, jako svjetlo će zaslijepiti, baš kao u stvarnom svijetu . Sukladno tome, korisnici će vidjeti više detalja u svijetlim i tamnim područjima slike u usporedbi sa standardnim monitorima i televizorima.

Za podršku HDR zaslonima, GeForce GTX 1080 ima sve što vam je potrebno - 12-bitni izlaz u boji, podršku za standarde BT.2020 i SMPTE 2084 te HDMI 2.0b 10/12-bitni 4K HDR izlaz. rezoluciju, što je bio slučaj s Maxwell. Osim toga, Pascal je dodao podršku za dekodiranje HEVC formata u 4K rezoluciji pri 60 Hz i 10- ili 12-bitnoj boji, koja se koristi za HDR video, kao i kodiranje istog formata s istim parametrima, ali samo u 10 -bit za HDR video snimanje ili streaming. Također, novitet je spreman za DisplayPort 1.4 standardizaciju za HDR prijenos podataka preko ovog konektora.

Inače, HDR video kodiranje bi moglo biti potrebno u budućnosti kako bi se takvi podaci prenijeli s kućnog računala na SHIELD igraću konzolu koja može igrati 10-bitni HEVC. Odnosno, korisnik će moći emitirati igru ​​s računala u HDR formatu. Čekaj, gdje mogu nabaviti igre s takvom podrškom? Nvidia stalno radi s programerima igara na implementaciji ove podrške, dajući im sve što im je potrebno (podršku za drajvere, uzorke koda, itd.) za ispravan prikaz HDR slika koje su kompatibilne s postojećim zaslonima.

U vrijeme izlaska video kartice, GeForce GTX 1080, igre kao što su Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle i Shadow Warrior 2 imaju podršku za HDR izlaz. Ali ovaj popis je očekuje se da će se napuniti u bliskoj budućnosti.

Promjene u multi-chip SLI renderiranju

Bilo je i nekih promjena vezanih uz vlasničku SLI tehnologiju multi-chip renderiranja, iako to nitko nije očekivao. SLI koriste entuzijasti PC igara za povećanje performansi bilo do ekstrema pokretanjem najmoćnijih grafičkih kartica s jednim čipom u tandemu, ili za postizanje vrlo visoke brzine kadrova ograničavajući se na nekoliko rješenja srednjeg ranga koja su ponekad jeftinija od jedna vrhunska (kontroverzna odluka, ali oni to rade). Uz 4K monitore, igrači nemaju gotovo nikakve druge mogućnosti osim instaliranja par video kartica, jer čak ni vrhunski modeli često ne mogu pružiti ugodnu igru ​​na maksimalnim postavkama u takvim uvjetima.

Jedna od važnih komponenti Nvidia SLI su mostovi koji povezuju video kartice u zajednički video podsustav i služe za organiziranje digitalnog kanala za prijenos podataka između njih. GeForce grafičke kartice tradicionalno imaju dvostruke SLI konektore, koji služe za povezivanje između dvije ili četiri grafičke kartice u 3-Way i 4-Way SLI konfiguracijama. Svaka od video kartica morala je biti spojena na svaku, budući da su svi GPU-ovi slali okvire koje su renderirali glavnom GPU-u, zbog čega su na svakoj ploči bila potrebna dva sučelja.

Počevši od GeForce GTX 1080, sve Nvidia grafičke kartice temeljene na Pascal arhitekturi imaju dva SLI sučelja povezana zajedno radi povećanja performansi prijenosa podataka između grafičkih kartica, a ovaj novi dvokanalni SLI način rada poboljšava performanse i udobnost pri prikazivanju vizualnih informacija na zasloni vrlo visoke razlučivosti ili sustavi s više monitora.

Za ovaj način rada bili su potrebni i novi mostovi, nazvani SLI HB. Kombiniraju par GeForce GTX 1080 video kartica preko dva SLI kanala odjednom, iako su nove video kartice kompatibilne i sa starijim mostovima. Za rezolucije od 1920×1080 i 2560×1440 piksela pri brzini osvježavanja od 60 Hz mogu se koristiti standardni mostovi, ali u zahtjevnijim načinima rada (4K, 5K i sustavi s više monitora) samo će novi mostovi dati bolje rezultate u smislu glatke promjene okvira, iako će stari raditi, ali nešto lošije.

Također, kada se koriste SLI HB mostovi, podatkovno sučelje GeForce GTX 1080 radi na 650 MHz, u usporedbi s 400 MHz za konvencionalne SLI mostove na starijim GPU-ovima. Štoviše, za neke od teških starih mostova, viša brzina prijenosa podataka također je dostupna s video čipovima Pascal arhitekture. Uz povećanje brzine prijenosa podataka između GPU-a putem udvostručenog SLI sučelja s povećanom frekvencijom rada, omogućen je i glatkiji prikaz okvira na ekranu u odnosu na prijašnja rješenja:

Također treba napomenuti da je podrška za multi-chip renderiranje u DirectX 12 donekle drugačija od onoga što je bilo uobičajeno prije. U posljednjoj verziji grafičkog API-ja, Microsoft je napravio mnoge promjene vezane za rad takvih video sustava. Postoje dvije opcije s više GPU-a koje su dostupne programerima u DX12: Multi Display Adapter (MDA) i Linked Display Adapter (LDA) načini rada.

Štoviše, LDA način rada ima dva oblika: Implicit LDA (koji Nvidia koristi za SLI) i Eksplicitni LDA (kada programer igre preuzme zadatak upravljanja multi-chip renderiranjem. MDA i Explicit LDA načini su upravo implementirani u DirectX 12 u kako bi programeri igara imali više slobode i mogućnosti pri korištenju videosustava s više čipova. Razlika između načina rada jasno je vidljiva u sljedećoj tablici:

U LDA modu, memorija svakog GPU-a može se spojiti na memoriju drugog i prikazati kao veliki ukupni volumen, naravno, uz sva ograničenja performansi kada se podaci preuzimaju iz "strane" memorije. U MDA načinu rada memorija svakog GPU-a radi zasebno, a različiti GPU-ovi ne mogu izravno pristupiti podacima iz memorije drugog GPU-a. LDA način rada dizajniran je za sustave s više čipova sličnih performansi, dok je MDA način manje restriktivan i može raditi zajedno s diskretnim i integriranim GPU-ovima ili diskretnim rješenjima s čipovima različitih proizvođača. Ali ovaj način također zahtijeva više pažnje i rada od programera prilikom programiranja suradnje kako bi GPU-ovi mogli međusobno komunicirati.

Prema zadanim postavkama, SLI sustav baziran na GeForce GTX 1080 podržava samo dva GPU-a, a konfiguracije s tri i četiri GPU-a službeno su zastarjele, jer modernim igrama postaje sve teže postići povećanje performansi dodavanjem trećeg i četvrtog GPU-a. Primjerice, mnoge igre se oslanjaju na mogućnosti središnjeg procesora sustava pri radu videosustava s više čipova, a nove igre sve više koriste vremenske (vremenske) tehnike koje koriste podatke iz prethodnih okvira, u kojima je učinkovit rad nekoliko GPU-a odjednom jednostavno nemoguće.

Međutim, rad sustava u drugim (ne-SLI) sustavima s više čipova ostaje moguć, kao što su MDA ili LDA eksplicitni načini u DirectX 12 ili SLI sustav s dva čipa s namjenskim trećim GPU-om za fizičke efekte PhysX. Ali što je s rekordima u benchmarkovima, je li ih Nvidia doista u potpunosti napuštala? Ne, naravno, ali budući da takve sustave u svijetu traži gotovo nekoliko korisnika, za takve je ultra-entuzijaste izmišljen poseban Enthusiast Key, koji se može preuzeti s web stranice Nvidia i otključati ovu značajku. Da biste to učinili, prvo morate dobiti jedinstveni GPU ID pokretanjem posebne aplikacije, zatim zatražiti Enthusiast Key na web stranici i nakon preuzimanja instalirati ključ u sustav, čime ćete otključati 3-Way i 4-Way SLI konfiguracije.

Tehnologija brze sinkronizacije

Došlo je do nekih promjena u tehnologijama sinkronizacije prilikom prikaza informacija na zaslonu. Gledajući unaprijed, nema ništa novo u G-Syncu, niti je podržana tehnologija Adaptive Sync. No, Nvidia je odlučila poboljšati glatkoću izlaza i sinkronizacije za igre koje pokazuju vrlo visoke performanse kada je brzina kadrova znatno veća od brzine osvježavanja monitora. To je posebno važno za igre koje zahtijevaju minimalno kašnjenje i brzu reakciju, a koje su multiplayer bitke i natjecanja.

Brza sinkronizacija nova je alternativa okomitoj sinkronizaciji koja nema vizualne artefakte kao što je trganje na slici i nije vezana uz fiksnu stopu osvježavanja, što povećava latenciju. Koji je problem s vertikalnom sinkronizacijom u igrama poput Counter-Strike: Global Offensive? Ova igra na snažnim modernim GPU-ima radi na nekoliko stotina sličica u sekundi, a igrač ima izbor hoće li omogućiti v-sync ili ne.

U igrama za više igrača, korisnici najčešće jure za minimalnim kašnjenjima i isključuju VSync, čime se jasno vidi trganje na slici, što je iznimno neugodno čak i pri velikom broju sličica. Međutim, ako uključite v-sync, tada će igrač doživjeti značajno povećanje kašnjenja između njegovih radnji i slike na zaslonu, kada se grafički cjevovod uspori do brzine osvježavanja monitora.

Ovako radi tradicionalni cjevovod. No, Nvidia je odlučila odvojiti proces renderiranja i prikazivanja slike na ekranu pomoću tehnologije Fast Sync. To omogućuje dijelu GPU-a koji prikazuje okvire punom brzinom da nastavi raditi s maksimalnom učinkovitošću pohranjivanjem tih okvira u poseban privremeni međuspremnik posljednjeg renderiranja.

Ova metoda vam omogućuje da promijenite način prikaza i iskoristite najbolje od načina rada VSync On i VSync Off, postižući nisko kašnjenje, ali bez artefakata slike. Uz Fast Sync, nema kontrole toka okvira, motor igre radi u sinkroniziranom načinu rada i nije mu rečeno da čeka da izvuče sljedeću, tako da su latencije gotovo jednako niske kao VSync Off modu. No budući da Fast Sync samostalno bira međuspremnik za prikaz na ekranu i prikazuje cijeli okvir, nema ni prekida slike.

Fast Sync koristi tri različita međuspremnika, od kojih prva dva rade slično dvostrukom međuspremniku u klasičnom cjevovodu. Primarni međuspremnik (Front Buffer - FB) je međuspremnik, informacije iz kojeg se prikazuju na zaslonu, potpuno renderirani okvir. Povratni međuspremnik (Back Buffer - BB) je međuspremnik koji prima informacije prilikom renderiranja.

Kada se koristi vertikalna sinkronizacija u uvjetima visoke brzine kadrova, igra čeka dok se ne dosegne interval osvježavanja kako bi zamijenila primarni međuspremnik sa sekundarnim kako bi se prikazala slika jednog okvira na zaslonu. To usporava stvari, a dodavanje dodatnih međuspremnika poput tradicionalnog trostrukog međuspremnika samo će povećati kašnjenje.

Uz Fast Sync, dodaje se treći zadnji renderirani međuspremnik (LRB), koji se koristi za pohranjivanje svih okvira koji su upravo renderirani u sekundarni međuspremnik. Naziv međuspremnika govori sam za sebe, sadrži kopiju posljednjeg potpuno renderiranog okvira. A kada dođe vrijeme za ažuriranje primarnog međuspremnika, ovaj LRB međuspremnik se kopira u primarni u cijelosti, a ne u dijelovima, kao iz sekundarnog s onemogućenom vertikalnom sinkronizacijom. Budući da je kopiranje informacija iz međuspremnika neučinkovito, oni se jednostavno zamjenjuju (ili preimenuju, kako će to biti praktičnije razumjeti), a nova logika zamjene međuspremnika, uvedena u GP104, upravlja ovim procesom.

U praksi, uključivanje nove metode sinkronizacije Fast Sync i dalje daje nešto veće kašnjenje u odnosu na potpuno onemogućenu vertikalnu sinkronizaciju – u prosjeku 8 ms više, ali prikazuje okvire na monitoru u cijelosti, bez neugodnih artefakata na ekranu koji poderati sliku. Nova metoda može se omogućiti iz grafičkih postavki Nvidia upravljačke ploče u odjeljku za kontrolu vertikalne sinkronizacije. Međutim, zadana vrijednost ostaje kontrola aplikacije i jednostavno ne morate omogućiti brzu sinkronizaciju u svim 3D aplikacijama, bolje je odabrati ovu metodu posebno za igre s visokim FPS-om.

Tehnologija virtualne stvarnosti Nvidia VRWorks

U ovom smo članku više puta dotaknuli vruću temu VR-a, ali se uglavnom radi o povećanju broja sličica u sekundi i osiguravanju niske latencije, što je vrlo važno za VR. Sve je to vrlo važno i napredak doista postoji, ali za sada VR igre ne izgledaju ni blizu tako impresivno kao najbolje od "običnih" modernih 3D igara. To se događa ne samo zato što se vodeći programeri igara još nisu posebno bavili VR aplikacijama, već i zato što je VR zahtjevniji za brzinu kadrova, što zbog velikih zahtjeva onemogućuje korištenje mnogih uobičajenih tehnika u takvim igrama.

Kako bi smanjila razliku u kvaliteti između VR i običnih igara, Nvidia je odlučila izdati cijeli paket povezanih VRWorks tehnologija, koji je uključivao veliki broj API-ja, knjižnica, motora i tehnologija koje mogu značajno poboljšati i kvalitetu i performanse VR aplikacije. Kako se to odnosi na najavu prvog gaming rješenja u Pascalu? Vrlo je jednostavno – u njega su uvedene neke tehnologije koje pomažu u povećanju produktivnosti i poboljšanju kvalitete, a o njima smo već pisali.

I iako se ne tiče samo grafike, prvo ćemo malo o tome. Skup VRWorks Graphics tehnologija uključuje prethodno spomenute tehnologije, kao što je Lens Matched Shading, koristeći značajku višestruke projekcije koja se pojavila u GeForce GTX 1080. Novi proizvod omogućuje povećanje performansi od 1,5-2 puta u odnosu na rješenja koja nemaju takvu podršku. Spomenuli smo i druge tehnologije, kao što je MultiRes Shading, dizajnirane za renderiranje u različitim razlučivostima u središtu okvira i na njegovoj periferiji.

No, puno neočekivanija je bila najava VRWorks Audio tehnologije, dizajnirane za visokokvalitetan izračun zvučnih podataka u 3D scenama, što je posebno važno u sustavima virtualne stvarnosti. U konvencionalnim motorima pozicioniranje izvora zvuka u virtualnom okruženju izračunato je sasvim ispravno, ako neprijatelj puca s desne strane, onda je zvuk glasniji s ove strane audiosustava, a takav izračun nije previše zahtjevan za računsku snagu .

Ali u stvarnosti, zvukovi ne idu samo prema igraču, već u svim smjerovima i odbijaju se od raznih materijala, slično kao što se odbijaju zrake svjetlosti. I u stvarnosti, čujemo te refleksije, iako ne tako jasno kao izravni zvučni valovi. Ove neizravne refleksije zvuka obično se simuliraju posebnim efektima reverbiranja, ali ovo je vrlo primitivan pristup zadatku.

VRWorks Audio koristi renderiranje zvučnih valova slično praćenju zraka u renderiranju, gdje se put svjetlosnih zraka prati do višestrukih refleksija od objekata u virtualnoj sceni. VRWorks Audio također simulira širenje zvučnih valova u okolišu kada se prate izravni i reflektirani valovi, ovisno o njihovu kutu upada i svojstvima reflektirajućih materijala. U svom radu VRWorks Audio koristi visokoučinkoviti Nvidia OptiX ray tracing engine poznat po grafičkim zadacima. OptiX se može koristiti za razne zadatke kao što su neizravni proračun rasvjete i mapiranje svjetla, a sada i za praćenje zvučnih valova VRWorks Audio.

Nvidia je ugradila točan izračun zvučnih valova u svoj VR Funhouse demo, koji koristi nekoliko tisuća zraka i izračunava do 12 refleksija od objekata. A kako biste naučili prednosti tehnologije koristeći jasan primjer, predlažemo da pogledate video o radu tehnologije na ruskom:

Važno je da se Nvidijin pristup razlikuje od tradicionalnih zvučnih motora, uključujući hardverski ubrzanu metodu glavnog konkurenta koristeći poseban blok u GPU-u. Sve ove metode daju samo točno pozicioniranje izvora zvuka, ali ne izračunavaju refleksije zvučnih valova od objekata u 3D sceni, iako to mogu simulirati pomoću efekta reverb. Međutim, korištenje tehnologije praćenja zraka može biti puno realnije, jer će samo takav pristup omogućiti točnu imitaciju različitih zvukova, uzimajući u obzir veličinu, oblik i materijale objekata u sceni. Teško je reći je li takva računalna točnost potrebna za tipičnog igrača, ali možemo sa sigurnošću reći: u VR-u, može dodati korisnicima sam realizam koji još uvijek nedostaje konvencionalnim igrama.

Pa, ostaje nam reći samo o VR SLI tehnologiji, koja radi i u OpenGL-u i u DirectX-u. Njegov princip je krajnje jednostavan: videosustav s dva GPU-a u VR aplikaciji će raditi na način da je svakom oku dodijeljen zaseban GPU, za razliku od AFR renderiranja poznatog SLI konfiguracijama. To uvelike poboljšava ukupnu izvedbu, što je toliko važno za sustave virtualne stvarnosti. Teoretski se može koristiti više GPU-ova, ali njihov broj mora biti paran.

Ovaj pristup je bio potreban jer AFR nije dobro prikladan za VR, jer će uz njegovu pomoć prvi GPU nacrtati paran okvir za oba oka, a drugi će prikazati neparan, što ne smanjuje kašnjenja koja su kritična za virtualno sustavi stvarnosti. Iako će brzina kadrova biti prilično visoka. Tako se uz pomoć VR SLI rad na svakom okviru dijeli na dva GPU-a – jedan radi na dijelu okvira za lijevo oko, drugi na desnom, a zatim se te polovice okvira spajaju u cjelinu.

Ovakvo dijeljenje rada između para GPU-a donosi 2x povećanje performansi, dopuštajući veću brzinu kadrova i nižu latenciju u usporedbi sa sustavima koji se temelje na jednom GPU-u. Istina, upotreba VR SLI zahtijeva posebnu podršku aplikacije kako bi se koristila ova metoda skaliranja. Ali VR SLI tehnologija je već ugrađena u VR demo aplikacije kao što su Valve's The Lab i ILMxLAB's Trials on Tatooine, a to je tek početak - Nvidia obećava da će uskoro doći i druge aplikacije, kao i da će tehnologiju donijeti na Unreal Engine 4, Unity i Max Igra.

Ansel Game Screenshot Platforma

Jedna od najzanimljivijih najava vezanih uz softver bilo je izdavanje tehnologije za snimanje visokokvalitetnih screenshotova u gaming aplikacijama, nazvane po jednom poznatom fotografu - Anselu. Igre odavno nisu samo igre, već i mjesto za korištenje razigranih ruku za razne kreativne ličnosti. Netko mijenja skripte za igre, netko izdaje visokokvalitetne setove tekstura za igre, a netko pravi prekrasne snimke zaslona.

Nvidia je odlučila pomoći potonjem uvođenjem nove platforme za kreiranje (naime, stvaranje, jer to nije tako jednostavan proces) kvalitetnih snimaka iz igara. Vjeruju da Ansel može pomoći u stvaranju nove vrste suvremene umjetnosti. Uostalom, već postoji dosta umjetnika koji većinu svog života provode na računalu, stvarajući prekrasne snimke zaslona iz igara, a još uvijek nisu imali prikladan alat za to.

Ansel vam omogućuje da ne samo snimite sliku u igri, već je promijenite prema potrebi. Koristeći ovu tehnologiju, možete pomicati kameru po sceni, rotirati je i naginjati u bilo kojem smjeru kako biste dobili željenu kompoziciju kadra. Na primjer, u igrama poput pucačina iz prvog lica, možete samo pomicati igrača, ne možete promijeniti ništa drugo, tako da su sve snimke zaslona prilično monotone. Uz besplatnu kameru u Anselu, možete ići daleko dalje od kamere za igranje odabirom kuta koji vam je potreban za dobru sliku ili čak snimiti punu stereo sliku od 360 stupnjeva od tražene točke iu visokoj razlučivosti za kasnije gledanje u VR kaciga.

Ansel radi prilično jednostavno - uz pomoć posebne biblioteke iz Nvidije, ova platforma je ugrađena u kod igre. Da bi to učinio, njegov programer treba samo dodati mali dio koda svom projektu kako bi omogućio Nvidia video drajveru da presreće podatke međuspremnika i shadera. Ima jako malo posla za napraviti, dovođenje Ansela u igru ​​traje manje od jednog dana za implementaciju. Dakle, uključivanje ove značajke u The Witness trebalo je oko 40 redaka koda, au The Witcher 3 - oko 150 redaka koda.

Ansel će doći s otvorenim razvojnim paketom - SDK. Glavna stvar je da korisnik sa sobom dobije standardni skup postavki koje mu omogućuju promjenu položaja i kuta kamere, dodavanje efekata itd. Ansel platforma radi ovako: pauzira igru, uključuje besplatnu kameru i omogućuje vam promjenu okvira u željeni prikaz snimanjem rezultata u obliku obične snimke zaslona, ​​slike od 360 stupnjeva, stereo para ili samo panorame visoke rezolucije.

Jedino upozorenje je da sve igre neće dobiti podršku za sve značajke platforme za snimke zaslona igre Ansel. Neki od programera igara iz ovih ili onih razloga ne žele u svoje igre uključiti potpuno besplatnu kameru – na primjer, zbog mogućnosti da varalice koriste ovu funkcionalnost. Ili žele ograničiti promjenu kuta gledanja iz istog razloga – kako nitko ne bi dobio nepravednu prednost. Pa, ili tako da korisnici ne vide mizerne spriteove u pozadini. Sve su to sasvim normalne želje kreatora igrica.

Jedna od najzanimljivijih značajki Ansela je stvaranje screenshot jednostavno ogromne rezolucije. Nema veze što igra podržava rezolucije do npr. 4K, a monitor korisnika je Full HD. Koristeći platformu za snimke zaslona, ​​možete snimiti mnogo kvalitetniju sliku, ograničenu veličinom i performansama pogona. Platforma s lakoćom snima snimke zaslona do 4,5 gigapiksela, spojene od 3600 komada!

Jasno je da se na takvim slikama mogu vidjeti svi detalji, do teksta na novinama koji leži u daljini, ako je takva razina detalja u principu predviđena u igri - Ansel također može kontrolirati razinu detalja, postavljanje maksimalnu razinu da biste dobili najbolju kvalitetu slike. Ali još uvijek možete omogućiti superuzorkovanje. Sve to omogućuje stvaranje slika iz igara koje možete sigurno ispisivati ​​na velikim bannerima i biti mirni u pogledu njihove kvalitete.

Zanimljivo je da se za spajanje velikih slika koristi poseban hardverski ubrzan kod baziran na CUDA-i. Uostalom, nijedna video kartica ne može prikazati sliku od više gigapiksela u cijelosti, ali to može učiniti u komadima, koje kasnije samo trebate kombinirati, uzimajući u obzir moguću razliku u osvjetljenju, boji i tako dalje.

Nakon spajanja takvih panorama, za cijeli okvir se koristi posebna naknadna obrada, također ubrzana na GPU-u. A za snimanje slika u većem dinamičkom rasponu, možete koristiti poseban format slike - EXR, otvoreni standard tvrtke Industrial Light and Magic, čija se vrijednosti boja ​​​​na svakom kanalu snimaju u 16-bitnom formatu s pomičnim zarezom. (FP16).

Ovaj format omogućuje promjenu svjetline i dinamičkog raspona slike u naknadnoj obradi, dovodeći je do željenog za svaki pojedini prikaz na isti način kao što se radi s RAW formatima s fotoaparata. A za naknadnu upotrebu filtara za naknadnu obradu u programima za obradu slika, ovaj je format vrlo koristan, jer sadrži mnogo više podataka od uobičajenih formata slika.

No, sama platforma Ansel sadrži puno filtera za naknadnu obradu, što je posebno važno jer ima pristup ne samo konačnoj slici, već i svim međuspremnicima koje igra koristi prilikom renderiranja, a koji se mogu koristiti za vrlo zanimljive efekte , poput dubine polja. Da bi to učinio, Ansel ima poseban API za naknadnu obradu, a bilo koji od efekata može biti uključen u igru ​​uz podršku za ovu platformu.

Ansel postfiltri uključuju: krivulje boja, prostor boja, transformaciju, desaturaciju, svjetlinu/kontrast, zrnatost filma, cvjetanje, odbljesak leće, anamorfni odsjaj, izobličenje, vrućinu, riblje oko, aberaciju boje, mapiranje tonova, prljavštinu leće, svjetlosne osovine, vinjetu, gama korekciju , konvolucija, izoštravanje, detekcija rubova, zamućenje, sepija, denoise, FXAA i drugi.

Što se tiče pojave Ansel podrške u igrama, onda ćemo morati malo pričekati dok je programeri implementiraju i testiraju. No, Nvidia obećava da će se takva podrška uskoro pojaviti u tako poznatim igrama kao što su The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament i druge.

Nova 16nm FinFET procesna tehnologija i optimizacije arhitekture omogućile su grafičkoj kartici GeForce GTX 1080 baziranoj na GPU-u GP104 postizanje visoke brzine takta od 1,6-1,7 GHz čak i u referentnom obliku, a nova generacija jamči najviše moguće frekvencije u igrama GPU Boost tehnologije. Zajedno s povećanim brojem izvršnih jedinica, ova poboljšanja čine je ne samo najučinkovitijom grafičkom karticom s jednim čipom svih vremena, već i energetski najučinkovitijim rješenjem na tržištu.

GeForce GTX 1080 je prva grafička kartica koja ima novu grafičku memoriju GDDR5X, novu generaciju brzih čipova koji postižu vrlo visoke brzine prijenosa podataka. U slučaju modificirane GeForce GTX 1080, ova vrsta memorije radi na efektivnoj frekvenciji od 10 GHz. U kombinaciji s poboljšanim algoritmima za kompresiju međuspremnika okvira, to je rezultiralo 1,7x povećanjem efektivne propusnosti memorije za ovaj GPU u usporedbi s njegovim izravnim prethodnikom, GeForce GTX 980.

Nvidia je mudro odlučila ne puštati radikalno novu arhitekturu na potpuno novu procesnu tehnologiju za sebe, kako ne bi naišla na nepotrebne probleme tijekom razvoja i proizvodnje. Umjesto toga, ozbiljno su poboljšali već dobru i vrlo učinkovitu Maxwell arhitekturu dodavanjem nekih značajki. Kao rezultat, sve je u redu s proizvodnjom novih GPU-a, a u slučaju modela GeForce GTX 1080, inženjeri su postigli vrlo visok frekvencijski potencijal – u overclockanim verzijama partnera očekuje se frekvencija GPU-a do 2 GHz! Tako impresivna frekvencija postala je stvarnost zahvaljujući savršenom tehničkom procesu i mukotrpnom radu Nvidijinih inženjera na razvoju Pascal GPU-a.

I dok je Pascal izravni sljedbenik Maxwella, a ove se grafičke arhitekture u osnovi nisu previše različite jedna od druge, Nvidia je uvela mnoge promjene i poboljšanja, uključujući mogućnosti prikaza, motor za kodiranje i dekodiranje videa, poboljšano asinkrono izvođenje različitih vrsta izračuna na GPU, unio je promjene u renderiranje s više čipova i uveo novu metodu sinkronizacije, Fast Sync.

Nemoguće je ne istaknuti tehnologiju Simultaneous Multi-Projection, koja pomaže poboljšati performanse u sustavima virtualne stvarnosti, dobiti ispravniji prikaz scena na sustavima s više monitora i uvesti nove tehnike optimizacije performansi. Ali VR aplikacije će doživjeti najveće povećanje brzine kada podržavaju tehnologiju višestrukih projekcija, koja pomaže uštedi GPU resursa za polovicu prilikom obrade geometrijskih podataka i jedan i pol puta u izračunima po pikselu.

Među čisto softverskim promjenama ističe se platforma za kreiranje snimki zaslona u igrama pod nazivom Ansel - bit će zanimljivo isprobati je u praksi ne samo onima koji se puno igraju, već i onima koji su jednostavno zainteresirani za visokokvalitetna 3D grafika . Novost vam omogućuje da unaprijedite umjetnost stvaranja i retuširanja screenshotova na novu razinu. Pa, takve pakete za programere igara kao što su GameWorks i VRWorks, Nvidia samo nastavlja poboljšavati korak po korak - pa se u potonjem pojavila zanimljiva mogućnost visokokvalitetnog proračuna zvuka, uzimajući u obzir brojne refleksije zvučnih valova pomoću hardverskih zraka trasiranjem.

Općenito, u obliku Nvidia GeForce GTX 1080 video kartice, na tržište je ušao pravi lider, koji ima sve potrebne kvalitete za to: visoke performanse i široku funkcionalnost, kao i podršku za nove značajke i algoritme. Prvi korisnici ove grafičke kartice moći će iskusiti mnoge od ovih prednosti odmah, dok će ostale značajke rješenja biti otkrivene nešto kasnije, kada postoji široka podrška softvera. Glavna stvar je da se GeForce GTX 1080 pokazao vrlo brzim i učinkovitim, a, kako se stvarno nadamo, Nvidijini inženjeri su uspjeli popraviti neka od problematičnih područja (isti asinkroni izračuni).

Grafički akcelerator GeForce GTX 1070

ParametarZnačenje
Kodni naziv čipaGP104
Tehnologija proizvodnje16nm FinFET
Broj tranzistora7,2 milijarde
Područje jezgre314 mm²
ArhitekturaUnificiran, s nizom uobičajenih procesora za tok obrade brojnih vrsta podataka: vrhova, piksela, itd.
DirectX hardverska podrškaDirectX 12, s podrškom za Feature Level 12_1
Sabirnica memorije256-bit: osam neovisnih 32-bitnih memorijskih kontrolera koji podržavaju GDDR5 i GDDR5X memoriju
GPU frekvencija1506 (1683) MHz
Računalni blokovi15 aktivnih (od 20 u čipu) streaming multiprocesora, uključujući 1920 (od 2560) skalarnih ALU-a za izračune s pomičnim zarezom u okviru standarda IEEE 754-2008;
Teksturni blokovi120 aktivnih (od 160 u čipu) jedinica za adresiranje i filtriranje teksture s podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture
Rasterske operativne jedinice (ROP)8 širokih ROP-ova (64 piksela) s podrškom za različite načine anti-aliasinga, uključujući programabilne i s formatom međuspremnika okvira FP16 ili FP32. Blokovi se sastoje od niza ALU-ova koji se mogu konfigurirati i odgovorni su za generiranje i usporedbu dubine, višestruko uzorkovanje i miješanje
Podrška za monitorIntegrirana podrška za do četiri monitora povezana putem Dual Link DVI, HDMI 2.0b i DisplayPort 1.2 (1.3/1.4 Ready)

Specifikacije referentne grafike GeForce GTX 1070
ParametarZnačenje
Frekvencija jezgre1506 (1683) MHz
Broj univerzalnih procesora1920
Broj blokova teksture120
Broj blokova za miješanje64
Efektivna frekvencija memorije8000 (4×2000) MHz
Vrsta memorijeGDDR5
Sabirnica memorije256-bitni
Memorija8 GB
Propusnost memorije256 GB/s
Računalne performanse (FP32)oko 6,5 teraflopsa
Teoretska maksimalna stopa punjenja96 gigapiksela/s
Teorijska brzina uzorkovanja teksture181 gigateksel/s
GumaPCI Express 3.0
PriključciJedan Dual Link DVI, jedan HDMI i tri DisplayPort
potrošnja energijedo 150 W
Dodatna hranaJedan 8-pinski konektor
Broj utora zauzetih u šasiji sustava2
Preporučena cijena379-449 USD (SAD), 34 990 (Rusija)

GeForce GTX 1070 video kartica također je dobila logično ime slično istom rješenju iz prethodne GeForce serije. Od svog izravnog prethodnika GeForce GTX 970 razlikuje se samo po promijenjenom broju generacije. Novost postaje korak ispod trenutnog vrhunskog rješenja GeForce GTX 1080 u trenutnoj liniji tvrtke, koja je postala privremena perjanica nove serije do izlaska još snažnijih GPU rješenja.

Preporučene cijene za Nvidijinu novu vrhunsku video karticu su 379 USD i 449 USD za standardno izdanje Nvidia Partners i Founders Edition. U usporedbi s vrhunskim modelom, ovo je vrlo dobra cijena s obzirom da GTX 1070 u najgorem slučaju zaostaje oko 25%. A u vrijeme najave i izlaska, GTX 1070 postaje najbolje izvedbeno rješenje u svojoj klasi. Kao i GeForce GTX 1080, GTX 1070 nema izravnih konkurenata iz AMD-a, a može se usporediti samo s Radeon R9 390X i Furyjem.

GPU GP104 u modifikaciji GeForce GTX 1070 odlučio je ostaviti punu 256-bitnu memorijsku sabirnicu, iako nisu koristili novi tip GDDR5X memorije, već vrlo brzi GDDR5, koji radi na visokoj efektivnoj frekvenciji od 8 GHz. Količina memorije instalirane na video kartici s takvom sabirnicom može biti 4 ili 8 GB, a kako bi se osigurale maksimalne performanse novog rješenja u uvjetima visokih postavki i rezolucija renderiranja, opremljen je i model grafičke kartice GeForce GTX 1070 s 8 GB video memorije, kao i njegova starija sestra. Ovaj volumen dovoljan je za pokretanje bilo koje 3D aplikacije s postavkama maksimalne kvalitete nekoliko godina.

GeForce GTX 1070 Founders Edition

S najavom GeForce GTX 1080 početkom svibnja najavljeno je posebno izdanje video kartice pod nazivom Founders Edition, koja ima višu cijenu od običnih video kartica partnera tvrtke. Isto vrijedi i za novitet. U ovom članku ponovno ćemo govoriti o posebnom izdanju GeForce GTX 1070 video kartice pod nazivom Founders Edition. Kao iu slučaju starijeg modela, Nvidia je odlučila izbaciti ovu verziju referentne video kartice proizvođača po višoj cijeni. Tvrde da mnogi igrači i entuzijasti koji kupuju skupe vrhunske grafičke kartice žele proizvod s odgovarajućim "premium" izgledom i dojmom.

U skladu s tim, upravo će za takve korisnike na tržište biti puštena grafička kartica GeForce GTX 1070 Founders Edition, koju dizajniraju i proizvode Nvidia inženjeri od vrhunskih materijala i komponenti, kao što je aluminijski poklopac GeForce GTX 1070 Founders Edition, kao i kao niskoprofilna stražnja ploča koja pokriva stražnju stranu PCB-a i prilično popularna među entuzijastima.

Kao što možete vidjeti iz fotografija ploče, GeForce GTX 1070 Founders Edition naslijedio je potpuno isti industrijski dizajn od referentne verzije GeForce GTX 1080 Founders Edition. Oba modela koriste radijalni ventilator koji ispuhuje zagrijani zrak, što je vrlo korisno i u malim kućištima i u SLI konfiguracijama s više čipova s ​​ograničenim fizičkim prostorom. Ispuhujući zagrijani zrak umjesto da ga cirkuliše unutar kućišta, možete smanjiti toplinski stres, poboljšati rezultate overkloka i produžiti život komponenti sustava.

Ispod poklopca referentnog sustava hlađenja GeForce GTX 1070 krije se posebno oblikovan aluminijski radijator s tri ugrađene bakrene toplinske cijevi koje odvode toplinu iz samog GPU-a. Toplinu koju raspršuju toplinske cijevi zatim raspršuje aluminijski hladnjak. Pa, niskoprofilna metalna ploča na stražnjoj strani ploče također je dizajnirana da pruži bolje toplinske performanse. Također sadrži dio koji se može uvući za bolji protok zraka između više grafičkih kartica u SLI konfiguracijama.

Što se tiče sustava napajanja ploče, GeForce GTX 1070 Founders Edition ima četverofazni sustav napajanja optimiziran za stabilno napajanje. Nvidia tvrdi da korištenje posebnih komponenti u GTX 1070 Founders Edition poboljšava energetsku učinkovitost, stabilnost i pouzdanost u odnosu na GeForce GTX 970, pružajući bolje performanse overkloka. U vlastitim testovima tvrtke GeForce GTX 1070 GPU-ovi lako su premašili 1,9 GHz, što je blizu rezultatima starijeg GTX 1080 modela.

Nvidia GeForce GTX 1070 grafička kartica bit će dostupna u maloprodajnim trgovinama od 10. lipnja. Preporučene cijene za GeForce GTX 1070 Founders Edition i partnerska rješenja su različite, a to je glavno pitanje za ovo posebno izdanje. Ako Nvidia partneri prodaju svoje GeForce GTX 1070 grafičke kartice počevši od 379 USD (na američkom tržištu), tada će Nvidijin referentni dizajn Founders Edition koštati samo 449 USD. Ima li mnogo entuzijasta koji su spremni preplatiti, da se razumijemo, sumnjive prednosti referentne verzije? Vrijeme će pokazati, ali vjerujemo da je referentna naknada zanimljivija kao opcija dostupna za kupnju na samom početku prodaje, a kasnije je točka kupnje (pa čak i po visokoj cijeni!) već svedena na nulu.

Ostaje dodati da je tiskana ploča referentne GeForce GTX 1070 slična onoj kod starije video kartice, a obje se razlikuju od uređaja prijašnjih firminih ploča. Tipična vrijednost potrošnje energije za novi proizvod je 150 W, što je gotovo 20% manje od vrijednosti za GTX 1080 i blizu potrošnje energije prethodne generacije GeForce GTX 970 video kartice. Nvidia referentna ploča ima poznati set konektora za povezivanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort. Štoviše, postoji podrška za nove verzije HDMI i DisplayPort-a, o čemu smo pisali gore u recenziji GTX 1080 modela.

Arhitektonske promjene

GeForce GTX 1070 temelji se na GP104 čipu, prvom u novoj generaciji Nvidijine Pascal grafičke arhitekture. Ova arhitektura se temeljila na rješenjima razvijenim još u Maxwellu, ali ima i neke funkcionalne razlike, o čemu smo detaljno pisali gore - u dijelu posvećenom vrhunskoj GeForce GTX 1080 video kartici.

Glavna promjena nove arhitekture bio je tehnološki proces kojim će se izvoditi svi novi GPU-ovi. Korištenje 16 nm FinFET proizvodnog procesa u proizvodnji GP104 omogućilo je značajno povećanje složenosti čipa uz zadržavanje relativno niske površine i cijene, a prvi čip Pascal arhitekture ima znatno veći broj izvođenja jedinice, uključujući one koje pružaju novu funkcionalnost, u usporedbi s Maxwell čipovima sličnog pozicioniranja.

GP104 video čip je svojim dizajnom sličan sličnim rješenjima arhitekture Maxwell, a detaljne informacije o dizajnu modernih GPU-a možete pronaći u našim recenzijama prethodnih Nvidia rješenja. Kao i prethodni GPU-ovi, čipovi nove arhitekture imat će drugačiju konfiguraciju Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) i memorijski kontroleri, a neke promjene su se već dogodile i na GeForce GTX 1070 - dio čipa je zaključan i neaktivan (označen sivom bojom):

Iako GP104 GPU uključuje četiri GPC klastera i 20 SM multiprocesora, u verziji za GeForce GTX 1070 dobio je smanjenu modifikaciju s jednim GPC klasterom koji je hardverski onemogućio. Budući da svaki GPC klaster ima namjenski motor za rasterizaciju i uključuje pet SM-ova, a svaki se multiprocesor sastoji od 128 CUDA jezgri i osam teksturnih TMU-ova, 1920 CUDA jezgri i 120 TMU-a od 2560 stream procesora aktivno je u ovoj verziji GP104 i 160 jedinica fizičke teksture.

Grafički procesor na kojem se temelji GeForce GTX 1070 sadrži osam 32-bitnih memorijskih kontrolera, što rezultira ukupno 256-bitnom memorijskom sabirnicom - točno kao u slučaju starijeg modela GTX 1080. Memorijski podsustav nije izrezan po redu osigurati dovoljno visoku propusnost memorije uz uvjet korištenja GDDR5 memorije u GeForce GTX 1070. Svaki od memorijskih kontrolera ima osam ROP-ova i 256 KB L2 cachea, tako da GP104 čip u ovoj modifikaciji također sadrži 64 ROP-a i 2048 KB L2 razina predmemorije.

Zahvaljujući arhitektonskim optimizacijama i novoj tehnologiji procesa, GP104 GPU je postao energetski najučinkovitiji GPU do sada. Nvidijini inženjeri uspjeli su povećati brzinu takta više nego što su očekivali pri prelasku na novi proces, za što su se morali dobro pomučiti, pažljivo provjeravajući i optimizirajući sva uska grla prijašnjih rješenja koja im nisu dopuštala rad na višoj frekvenciji. U skladu s tim, GeForce GTX 1070 također radi na vrlo visokoj frekvenciji, više od 40% više od referentne vrijednosti za GeForce GTX 970.

Budući da je GeForce GTX 1070, u biti, samo nešto manje produktivna GTX 1080 s GDDR5 memorijom, podržava apsolutno sve tehnologije koje smo opisali u prethodnom odjeljku. Za više detalja o Pascal arhitekturi, kao i tehnologijama koje podržava, kao što su poboljšane jedinice za obradu izlaza i videa, podrška za Async Compute, tehnologija simultane višestruke projekcije, promjene u SLI renderiranju s više čipova i nova vrsta sinkronizacije Fast Sync , vrijedi pročitati s odjeljkom o GTX 1080.

GDDR5 memorija visokih performansi i njezino učinkovito korištenje

Gore smo pisali o promjenama u memorijskom podsustavu GPU-a GP104, na kojem se temelje modeli GeForce GTX 1080 i GTX 1070 - memorijski kontroleri uključeni u ovaj GPU podržavaju i novi tip GDDR5X video memorije, što je detaljno opisano u GTX 1080 recenzija, kao i dobra stara GDDR5 memorija koju poznajemo već nekoliko godina.

Kako se kod mlađeg GTX 1070 u usporedbi sa starijim GTX 1080 ne izgubi previše u memorijskoj širini, u njemu je ostalo aktivnih svih osam 32-bitnih memorijskih kontrolera, čime je dobilo puno 256-bitno zajedničko video memorijsko sučelje. Osim toga, video kartica je bila opremljena najbržom GDDR5 memorijom dostupnom na tržištu – efektivne radne frekvencije od 8 GHz. Sve je to osiguravalo memorijsku propusnost od 256 GB/s, za razliku od 320 GB/s kod starijeg rješenja – otprilike za isti iznos smanjene su i računalne sposobnosti, tako da je ravnoteža zadržana.

Imajte na umu da, iako je vršna teoretska propusnost važna za performanse GPU-a, morate obratiti pažnju i na njegovu učinkovitost. Tijekom procesa renderiranja, mnoga različita uska grla mogu ograničiti ukupnu izvedbu, sprječavajući korištenje sve dostupne memorijske propusnosti. Kako bi smanjili ta uska grla, GPU-ovi koriste posebnu kompresiju podataka bez gubitaka kako bi poboljšali učinkovitost čitanja i pisanja podataka.

Četvrta generacija delta kompresije informacija međuspremnika već je uvedena u Pascal arhitekturu, što omogućuje GPU-u učinkovitije korištenje dostupnih mogućnosti sabirnice video memorije. Memorijski podsustav u GeForce GTX 1070 i GTX 1080 koristi poboljšane stare i nekoliko novih tehnika kompresije podataka bez gubitaka dizajniranih za smanjenje zahtjeva za propusnošću. To smanjuje količinu podataka upisanih u memoriju, poboljšava učinkovitost L2 predmemorije i smanjuje količinu podataka koji se šalju između različitih točaka na GPU-u, kao što su TMU i framebuffer.

GPU Boost 3.0 i značajke overclockinga

Većina Nvidijinih partnera već je najavila tvornički overclockana rješenja temeljena na GeForce GTX 1080 i GTX 1070. Mnogi proizvođači video kartica također kreiraju posebne uslužne programe za overclocking koji vam omogućuju korištenje nove funkcionalnosti GPU Boost 3.0 tehnologije. Jedan primjer takvih uslužnih programa je EVGA Precision XOC, koji uključuje automatski skener za određivanje krivulje napon-frekvencija - u ovom načinu rada, za svaki napon, izvođenjem testa stabilnosti, nalazi se stabilna frekvencija na kojoj GPU daje povećanje performansi. Međutim, ova se krivulja može mijenjati i ručno.

Tehnologiju GPU Boost dobro poznajemo s prethodnih Nvidia grafičkih kartica. U svojim GPU-ovima koriste ovu hardversku značajku koja je dizajnirana da poveća radnu brzinu GPU-a u načinima u kojima još nije dosegao granice potrošnje energije i odvođenja topline. U Pascal GPU-ovima ovaj algoritam je doživio nekoliko promjena, od kojih je glavna finije podešavanje turbo frekvencija, ovisno o naponu.

Ako je ranije razlika između osnovne frekvencije i turbo frekvencije bila fiksna, tada je u GPU Boost 3.0 postalo moguće postaviti pomake turbo frekvencije za svaki napon zasebno. Sada se turbo frekvencija može postaviti za svaku od pojedinačnih vrijednosti napona, što vam omogućuje da u potpunosti istisnete sve mogućnosti overkloka iz GPU-a. O ovoj značajci smo detaljno pisali u recenziji GeForce GTX 1080, a za to možete koristiti uslužne programe EVGA Precision XOC i MSI Afterburner.

Budući da su se neki detalji u metodologiji overclockanja promijenili s izlaskom video kartica s podrškom za GPU Boost 3.0, Nvidia je morala dati dodatna objašnjenja u uputama za overclocking novih proizvoda. Postoje različite tehnike overkloka s različitim varijabilnim karakteristikama koje utječu na konačni rezultat. Za svaki pojedini sustav određena metoda može biti prikladnija, ali osnove su uvijek približno iste.

Mnogi overklokeri koriste Unigine Heaven 4.0 benchmark za provjeru stabilnosti sustava, koji dobro opterećuje GPU, ima fleksibilne postavke i može se pokrenuti u prozorskom načinu rada zajedno s prozorom uslužnog programa za overklok i nadzor u blizini, poput EVGA Precision ili MSI Afterburnera. Međutim, takva je provjera dovoljna samo za početne procjene, a da bi se čvrsto potvrdila stabilnost overclockanja, mora se provjeriti u nekoliko aplikacija za igre, jer različite igre zahtijevaju različita opterećenja na različitim funkcionalnim jedinicama GPU-a: matematička, teksturna, geometrijska. Heaven 4.0 benchmark je također zgodan za overclocking jer ima petljasti način rada, u kojem je zgodno mijenjati postavke overkloka, a postoji i benchmark za procjenu povećanja brzine.

Nvidia savjetuje pokretanje Heaven 4.0 i EVGA Precision XOC prozora zajedno kada overclockate nove GeForce GTX 1080 i GTX 1070 grafičke kartice. U početku je poželjno odmah povećati brzinu ventilatora. A za ozbiljan overclocking možete odmah postaviti vrijednost brzine na 100%, što će video karticu učiniti vrlo glasnom, ali će hladiti GPU i ostale komponente video kartice što je više moguće snižavanjem temperature na najnižu moguću razini, sprječavajući prigušivanje (smanjenje frekvencija zbog povećanja temperature GPU-a iznad određene vrijednosti).

Zatim morate postaviti ciljnu vrijednost snage (Power Target) također na maksimum. Ova postavka će GPU-u osigurati maksimalnu moguću količinu energije povećanjem razine potrošnje energije i ciljne temperature GPU-a (GPU Temp Target). Za neke svrhe, druga vrijednost se može odvojiti od promjene Power Target-a, a zatim se te postavke mogu individualno podešavati - kako bi se postiglo manje zagrijavanje video čipa, na primjer.

Sljedeći korak je povećanje vrijednosti GPU Clock Offseta – to znači koliko će turbo frekvencija biti veća tijekom rada. Ova vrijednost povećava frekvenciju za sve napone i rezultira boljom izvedbom. Kao i obično, pri overclockingu morate provjeriti stabilnost kada povećavate frekvenciju GPU-a u malim koracima - od 10 MHz do 50 MHz po koraku prije nego što primijetite visi, pogrešku drajvera ili aplikacije, ili čak vizualne artefakte. Kada se ova granica dosegne, trebali biste smanjiti vrijednost frekvencije za korak prema dolje i još jednom provjeriti stabilnost i performanse tijekom overclockanja.

Osim GPU frekvencije, možete povećati i frekvenciju video memorije (Memory Clock Offset), što je posebno važno u slučaju GeForce GTX 1070 opremljene GDDR5 memorijom, koja inače dobro overclocka. Proces u slučaju memorijske frekvencije točno ponavlja ono što se radi pri pronalaženju stabilne GPU frekvencije, jedina razlika je što se koraci mogu povećati - dodajte 50-100 MHz osnovnoj frekvenciji odjednom.

Osim gore navedenih koraka, možete povećati i Overvoltage limit jer se pri povećanom naponu često postiže veća frekvencija GPU-a, kada nestabilni dijelovi GPU-a dobivaju dodatnu snagu. Istina, potencijalni nedostatak povećanja ove vrijednosti je mogućnost oštećenja video čipa i njegovog ubrzanog kvara, pa morate s velikim oprezom koristiti povećanje napona.

Ljubitelji overclockinga koriste nešto drugačije tehnike, mijenjajući parametre drugim redoslijedom. Primjerice, neki overklokeri dijele eksperimente u pronalaženju stabilne frekvencije GPU-a i memorije kako ne bi ometali jedni druge, a zatim testiraju kombinirani overclocking i video čipa i memorijskih čipova, ali to su već beznačajni detalji individualnog pristupa .

Sudeći po mišljenjima na forumima i komentarima na članke, nekim korisnicima se nije svidio novi algoritam rada GPU Boost 3.0, kada frekvencija GPU-a prvo raste vrlo visoko, često više od turbo frekvencije, ali onda pod utjecajem povećanja u temperaturi GPU-a ili povećanoj potrošnji energije iznad postavljene granice, može pasti na puno niže vrijednosti. Ovo su samo specifičnosti ažuriranog algoritma, morate se naviknuti na novo ponašanje dinamički promjenjive frekvencije GPU-a, ali to nema negativnih posljedica.

GeForce GTX 1070 je drugi model nakon GTX 1080 u novoj liniji Nvidijinih grafičkih procesora baziranih na Pascal obitelji. Novi 16nm FinFET proizvodni proces i optimizacije arhitekture omogućili su ovoj grafičkoj kartici postizanje visokih brzina takta, što je podržano novom generacijom GPU Boost tehnologije. Iako je smanjen broj funkcionalnih blokova u obliku stream procesora i teksturnih modula, njihov broj ostaje dovoljan da GTX 1070 postane najisplativije i energetski najučinkovitije rješenje.

Instaliranje GDDR5 memorije na najmlađi od par objavljenih modela Nvidia video kartica na GP104 čipu, za razliku od novog tipa GDDR5X koji razlikuje GTX 1080, ne sprječava ga u postizanju visokih performansi. Prvo, Nvidia je odlučila ne rezati memorijsku sabirnicu modela GeForce GTX 1070, a kao drugo, na nju su stavili najbržu GDDR5 memoriju s efektivnom frekvencijom od 8 GHz, što je tek nešto niže od 10 GHz za GDDR5X koji se koristi u stariji model. Osim toga, s poboljšanim algoritmima delta kompresije, efektivna propusnost memorije GPU-a postala je veća od istog parametra za sličan model prethodne generacije GeForce GTX 970.

GeForce GTX 1070 je dobar po tome što nudi vrlo visoke performanse i podršku za nove značajke i algoritme po znatno nižoj cijeni u odnosu na stariji model najavljen nešto ranije. Ako si nekolicina entuzijasta može priuštiti kupnju GTX 1080 za 55.000, onda će puno veći krug potencijalnih kupaca moći platiti 35.000 samo za četvrtinu manje produktivnog rješenja s potpuno istim mogućnostima. Upravo je kombinacija relativno niske cijene i visokih performansi GeForce GTX 1070 učinila možda najprofitabilnijom kupnjom u trenutku izlaska.

Grafički akcelerator GeForce GTX 1060

ParametarZnačenje
Kodni naziv čipaGP106
Tehnologija proizvodnje16nm FinFET
Broj tranzistora4,4 milijarde
Područje jezgre200 mm²
ArhitekturaUnificiran, s nizom uobičajenih procesora za tok obrade brojnih vrsta podataka: vrhova, piksela, itd.
DirectX hardverska podrškaDirectX 12, s podrškom za Feature Level 12_1
Sabirnica memorije192-bitni: šest neovisnih 32-bitnih memorijskih kontrolera koji podržavaju GDDR5 memoriju
GPU frekvencija1506 (1708) MHz
Računalni blokovi10 streaming multiprocesora, uključujući 1280 skalarnih ALU-a za izračune s pomičnim zarezom unutar standarda IEEE 754-2008;
Teksturni blokovi80 jedinica za adresiranje i filtriranje teksture s podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture
Rasterske operativne jedinice (ROP)6 širokih ROP-ova (48 piksela) s podrškom za različite načine anti-aliasinga, uključujući programabilne i s formatom međuspremnika okvira FP16 ili FP32. Blokovi se sastoje od niza ALU-ova koji se mogu konfigurirati i odgovorni su za generiranje i usporedbu dubine, višestruko uzorkovanje i miješanje
Podrška za monitorIntegrirana podrška za do četiri monitora povezana putem Dual Link DVI, HDMI 2.0b i DisplayPort 1.2 (1.3/1.4 Ready)

Specifikacije referentne grafike GeForce GTX 1060
ParametarZnačenje
Frekvencija jezgre1506 (1708) MHz
Broj univerzalnih procesora1280
Broj blokova teksture80
Broj blokova za miješanje48
Efektivna frekvencija memorije8000 (4×2000) MHz
Vrsta memorijeGDDR5
Sabirnica memorije192-bitni
Memorija6 GB
Propusnost memorije192 GB/s
Računalne performanse (FP32)oko 4 teraflopsa
Teoretska maksimalna stopa punjenja72 gigapiksela/s
Teorijska brzina uzorkovanja teksture121 gigateksel/s
GumaPCI Express 3.0
PriključciJedan Dual Link DVI, jedan HDMI i tri DisplayPort
Tipična potrošnja energije120 W
Dodatna hranaJedan 6-pinski konektor
Broj utora zauzetih u šasiji sustava2
Preporučena cijena249 dolara (299 dolara) u SAD-u i 18.990 u Rusiji

Video kartica GeForce GTX 1060 također je dobila naziv slično istom rješenju iz prethodne GeForce serije, koji se od imena svog izravnog prethodnika GeForce GTX 960 razlikuje samo po promijenjenoj prvoj znamenki generacije. Novost je u trenutnoj liniji tvrtke postala korak niža od prethodno izdanog GeForce GTX 1070 rješenja, koje je prosječno po brzini u novoj seriji.

Preporučene cijene za novu Nvidijinu video karticu su 249 dolara i 299 dolara za redovne verzije partnera tvrtke, odnosno za posebno Founder's Edition. U usporedbi s dva starija modela, ovo je vrlo povoljna cijena, budući da novi model GTX 1060, iako inferioran u odnosu na vrhunske matične ploče, nije ni blizu koliko je jeftiniji. U trenutku objave, novitet je definitivno postao najbolje izvedbeno rješenje u svojoj klasi i jedna od najisplativijih ponuda u ovom cjenovnom rangu.

Ovaj model Nvidijine obiteljske video kartice Pascal izašao je nasuprot svježoj odluci konkurentske tvrtke AMD, koja je nešto ranije objavila Radeon RX 480. Novu Nvidia video karticu možete usporediti s ovom video karticom, iako ne baš izravno, jer još uvijek se prilično značajno razlikuju u cijeni . GeForce GTX 1060 je skuplji (249-299 USD u odnosu na 199-229 USD), ali je također očito brži od svog konkurenta.

Grafički procesor GP106 ima 192-bitnu memorijsku sabirnicu, tako da količina memorije instalirane na video kartici s takvom sabirnicom može biti 3 ili 6 GB. Manja vrijednost u modernim uvjetima, iskreno, nije dovoljna, a mnogi projekti igara, čak i u Full HD rezoluciji, naići će na nedostatak video memorije, što će ozbiljno utjecati na glatkoću renderiranja. Kako bi se osigurale maksimalne performanse novog rješenja pri visokim postavkama, model GeForce GTX 1060 opremljen je sa 6 GB video memorije, što je dovoljno za pokretanje bilo koje 3D aplikacije s bilo kojim postavkama kvalitete. Štoviše, danas jednostavno nema razlike između 6 i 8 GB, a takvo rješenje će uštedjeti nešto novca.

Tipična vrijednost potrošnje energije za novi proizvod je 120 W, što je 20% manje od vrijednosti za GTX 1070 i jednako je potrošnji energije prethodne generacije GeForce GTX 960 grafičke kartice, koja ima puno manje performanse i mogućnosti. Referentna ploča ima uobičajeni set konektora za spajanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort. Štoviše, postojala je podrška za nove verzije HDMI-ja i DisplayPort-a, o čemu smo pisali u recenziji modela GTX 1080.

Duljina referentne ploče GeForce GTX 1060 je 9,8 inča (25 cm), a iz razlika u odnosu na starije opcije, posebno napominjemo da GeForce GTX 1060 ne podržava SLI multi-chip konfiguraciju renderiranja, te nema poseban konektor za to. Budući da ploča troši manje energije od starijih modela, jedan 6-pinski PCI-E vanjski priključak za napajanje je instaliran na ploču za dodatno napajanje.

GeForce GTX 1060 video kartice su se pojavile na tržištu od dana objave u obliku proizvoda partnera tvrtke: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Posebno izdanje GeForce GTX 1060 Founder’s Edition, koje proizvodi sama Nvidia, bit će objavljeno u ograničenim količinama, koje će se prodavati po cijeni od 299 dolara isključivo na web stranici Nvidia i neće biti službeno predstavljeno u Rusiji. Founder's Edition odlikuje se činjenicom da je izrađen od visokokvalitetnih materijala i komponenti, uključujući aluminijsko kućište, te koristi učinkovit sustav hlađenja, kao i strujne krugove niskog otpora i posebno dizajnirane regulatore napona.

Arhitektonske promjene

GeForce GTX 1060 video kartica temelji se na potpuno novom grafičkom procesoru modela GP106, koji se funkcionalno ne razlikuje od prvenca Pascal arhitekture u obliku GP104 čipa, na kojem su opisani modeli GeForce GTX 1080 i GTX 1070 Ova arhitektura se temeljila na rješenjima razrađenim još u Maxwellu, ali ima i neke funkcionalne razlike o kojima smo ranije detaljno pisali.

GP106 video čip je po svom dizajnu sličan vrhunskom Pascal čipu i sličnim rješenjima Maxwell arhitekture, a detaljne informacije o dizajnu modernih GPU-a možete pronaći u našim recenzijama prethodnih Nvidia rješenja. Kao i prethodni GPU-ovi, čipovi nove arhitekture imaju drugačiju konfiguraciju klastera za grafičku obradu (GPC), višeprocesora za strujanje (SM) i memorijskih kontrolera:

Grafički procesor GP106 uključuje dva GPC klastera, koji se sastoje od 10 streaming multiprocesora (Streaming Multiprocessor - SM), odnosno točno polovica GP104. Kao i kod starijeg GPU-a, svaki od multiprocesora sadrži 128 jezgri, 8 TMU teksturnih jedinica, 256 KB registarske memorije, 96 KB dijeljene memorije i 48 KB L1 predmemorije. Kao rezultat toga, GeForce GTX 1060 sadrži ukupno 1.280 računalnih jezgri i 80 teksturnih jedinica, upola manje od GTX 1080.

No, memorijski podsustav GeForce GTX 1060 nije prepolovljen u odnosu na vrhunsko rješenje, on sadrži šest 32-bitnih memorijskih kontrolera, dajući konačnu 192-bitnu memorijsku sabirnicu. Uz efektivnu frekvenciju GDDR5 video memorije za GeForce GTX 1060 koja je jednaka 8 GHz, propusnost doseže 192 GB/s, što je sasvim dobro za rješenje u ovom cjenovnom segmentu, posebno s obzirom na visoku učinkovitost korištenja u Pascalu. Svaki od memorijskih kontrolera ima osam ROP-ova i 256 KB L2 predmemorije povezane s njim, tako da ukupno puna verzija GP106 GPU-a sadrži 48 ROP-ova i 1536 KB L2 predmemorije.

Kako bi se smanjili zahtjevi za propusnost memorije i učinila učinkovitija upotreba dostupne Pascal arhitekture, dodatno je poboljšana kompresija podataka na čipu bez gubitaka, koja je sposobna komprimirati podatke u međuspremnicima, postižući učinkovitost i povećanje performansi. Konkretno, nove metode delta kompresije s omjerima 4:1 i 8:1 dodane su čipovima nove obitelji, čime se osigurava dodatnih 20% učinkovitosti memorijskog pojasa u usporedbi s prethodnim rješenjima obitelji Maxwell.

Osnovna frekvencija novog GPU-a je 1506 MHz – frekvencija u principu ne bi trebala pasti ispod ove oznake. Tipični turbo takt (Boost Clock) je puno veći na 1708 MHz, što je prosjek stvarne frekvencije na kojoj grafički čip GeForce GTX 1060 radi u širokom rasponu igara i 3D aplikacija. Stvarna učestalost pojačanja ovisi o igri i uvjetima u kojima se test odvija.

Kao i ostatak Pascal obitelji, GeForce GTX 1060 ne samo da radi na visokoj brzini, pružajući visoke performanse, već ima i pristojnu marginu za overclocking. Prvi eksperimenti ukazuju na mogućnost postizanja frekvencija reda veličine 2 GHz. Ne čudi što partneri tvrtke pripremaju i tvornički overclockane verzije GTX 1060 video kartice.

Dakle, glavna promjena u novoj arhitekturi bio je 16 nm FinFET proces, čija je upotreba u proizvodnji GP106 omogućila značajno povećanje složenosti čipa uz zadržavanje relativno niske površine od ​​​​​​​pa ovaj čip arhitekture Pascal ima znatno veći broj izvršnih jedinica u usporedbi s Maxwell čipom sličnog pozicioniranja proizvedenom 28 nm procesnom tehnologijom.

Ako je GM206 (GTX 960) s površinom od ​​​​227 mm² imao 3 milijarde tranzistora i 1024 ALU-a, 64 TMU-a, 32 ROP-a i 128-bitnu sabirnicu, tada je novi GPU sadržavao 4,4 milijarde tranzistora, 1280 ALU-a, u 200 mm², 80 TMU-a i 48 ROP-a sa 192-bitnom sabirnicom. Štoviše, na gotovo jedan i pol puta višoj frekvenciji: 1506 (1708) naspram 1126 (1178) MHz. I to s istom potrošnjom energije od 120 vata! Kao rezultat toga, GP106 GPU je postao jedan od energetski najučinkovitijih GPU-a, zajedno s GP104.

Nove Nvidia tehnologije

Jedna od najzanimljivijih tehnologija tvrtke, koju podržava GeForce GTX 1060 i druga rješenja Pascal obitelji, je tehnologija Nvidia simultana višestruka projekcija. O ovoj tehnologiji smo već pisali u pregledu GeForce GTX 1080, ona vam omogućuje korištenje nekoliko novih tehnika za optimizaciju renderiranja. Konkretno - istovremeno projicirati VR sliku za dva oka odjednom, značajno povećavajući učinkovitost korištenja GPU-a u virtualnoj stvarnosti.

Za podršku SMP-a, svi GPU-ovi Pascal obitelji imaju poseban motor, koji se nalazi u PolyMorph Engine-u na kraju geometrijskog cjevovoda prije rasterizatora. S njim GPU može istovremeno projicirati geometrijski primitiv na nekoliko projekcija iz jedne točke, dok te projekcije mogu biti stereo (tj. istovremeno su podržane do 16 ili 32 projekcije). Ova mogućnost omogućuje Pascal GPU-ima da precizno reproduciraju zakrivljenu površinu za VR renderiranje, kao i da se ispravno prikazuju na sustavima s više monitora.

Važno je da se tehnologija Simultaneous Multi-Projection već integrira u popularne motore za igre (Unreal Engine i Unity) i igre, a do danas je najavljena podrška za tehnologiju za više od 30 igara u razvoju, uključujući i takve dobro poznate projekti kao što su Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft i Raw Data. Zanimljivo, iako Unreal Tournament nije VR igra, koristi SMP za postizanje boljih vizuala i performansi.

Još jedna dugo očekivana tehnologija moćan je alat za stvaranje snimki zaslona u igrama. Nvidia Ansel. Ovaj alat vam omogućuje da kreirate neobične i vrlo kvalitetne snimke zaslona iz igara, s prethodno nedostupnim značajkama, spremate ih u vrlo visokoj rezoluciji i nadopunjujete raznim efektima te dijelite svoje kreacije. Ansel vam omogućuje da doslovno napravite snimku zaslona na način na koji umjetnik to želi, omogućujući vam da instalirate kameru s bilo kojim parametrima bilo gdje u sceni, primijenite snažne naknadne filtre na sliku ili čak napravite snimak od 360 stupnjeva za gledanje u kaciga za virtualnu stvarnost.

Nvidia je standardizirala integraciju Ansel korisničkog sučelja u igre, a to je jednostavno kao dodavanje nekoliko redaka koda. Više nije potrebno čekati da se ova značajka pojavi u igrama, Anselove sposobnosti možete procijeniti već sada u Mirror's Edge: Catalyst, a nešto kasnije će postati dostupna u Witcher 3: Wild Hunt. Osim toga, u razvoju su mnogi projekti igara s omogućenim Anselom, uključujući igre kao što su Fortnite, Paragon i Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky i još mnogo toga.

Novi GeForce GTX 1060 GPU također podržava set alata Nvidia VRWorks, koji programerima pomaže u stvaranju impresivnih projekata za virtualnu stvarnost. Ovaj paket uključuje mnoge uslužne programe i alate za razvojne programere, uključujući VRWorks Audio, koji vam omogućuje vrlo precizan izračun refleksije zvučnih valova od objekata scene koristeći praćenje GPU zraka. Paket također uključuje integraciju u VR i PhysX fizičke efekte kako bi se osiguralo fizički ispravno ponašanje objekata u sceni.

Jedna od najuzbudljivijih VR igara koje imaju koristi od VRWorksa je VR Funhouse, Nvidijina vlastita VR igra, dostupna besplatno na Valveovoj Steam usluzi. Ovu igru ​​pokreće Unreal Engine 4 (Epic Games) i radi na grafičkim karticama GeForce GTX 1080, 1070 i 1060 u kombinaciji s HTC Vive VR slušalicama. Štoviše, izvorni kod ove igre bit će javno dostupan, što će drugim programerima omogućiti korištenje gotovih ideja i koda koji su već u svojim VR atrakcijama. Vjerujte nam na riječ, ovo je jedna od najimpresivnijih demonstracija mogućnosti virtualne stvarnosti.

Uključujući i zahvaljujući SMP i VRWorks tehnologijama, korištenje GeForce GTX 1060 GPU-a u VR aplikacijama pruža performanse koje su sasvim dovoljne za početnu virtualnu stvarnost, a dotični GPU zadovoljava minimalnu potrebnu razinu hardvera, uključujući i za SteamVR, postajući jedna od najuspješnijih akvizicija za korištenje u sustavima sa službenom podrškom za VR.

Budući da se model GeForce GTX 1060 temelji na čipu GP106, koji ni na koji način nije inferioran u odnosu na grafički procesor GP104, koji je postao osnova za starije modifikacije, podržava apsolutno sve gore opisane tehnologije.

GeForce GTX 1060 treći je model u Nvidijinoj novoj liniji grafičkih procesora baziranih na Pascal obitelji. Nova 16nm FinFET procesna tehnologija i optimizacije arhitekture omogućile su svim novim grafičkim karticama postizanje visokih brzina takta i postavljanje više funkcionalnih blokova u GPU u obliku stream procesora, teksturnih modula i drugih, u usporedbi s video čipovima prethodne generacije. Zato je GTX 1060 postao najisplativije i energetski najučinkovitije rješenje u svojoj klasi i općenito.

Posebno je važno da GeForce GTX 1060 nudi dovoljno visoke performanse i podršku za nove značajke i algoritme po znatno nižoj cijeni u odnosu na starija rješenja bazirana na GP104. Grafički čip GP106 korišten u novom modelu pruža najbolje performanse i energetsku učinkovitost u klasi. GeForce GTX 1060 je posebno dizajniran i savršeno prikladan za sve moderne igre na visokim i maksimalnim grafičkim postavkama pri rezoluciji od 1920x1080, pa čak i sa anti-aliasingom preko cijelog zaslona omogućenim raznim metodama (FXAA, MFAA ili MSAA).

A za one koji žele još više performansi s zaslonima ultra visoke razlučivosti, Nvidia ima vrhunske grafičke kartice GeForce GTX 1070 i GTX 1080 koje su također prilično dobre u pogledu performansi i energetske učinkovitosti. Pa ipak, kombinacija niske cijene i dovoljnih performansi prilično povoljno izdvaja GeForce GTX 1060 od pozadine starijih rješenja. U usporedbi s konkurentskim Radeon RX 480, Nvidijino rješenje je nešto brže s manje složenosti i GPU-a, te ima znatno bolju energetsku učinkovitost. Istina, prodaje se malo skuplje, tako da svaka video kartica ima svoju nišu.

Prelazimo na još jednu značajku GeForce GTX 1080 koja ju je učinila prvom takve vrste - podršku za GDDR5X memoriju. U tom svojstvu, GTX 1080 će neko vrijeme biti jedini proizvod na tržištu, budući da je već poznato da će GeForce GTX 1070 biti opremljen standardnim GDDR5 čipovima. U kombinaciji s novim algoritmima kompresije boja (više o tome kasnije), velika propusnost memorije omogućit će GP104 učinkovitije upravljanje dostupnim računalnim resursima nego što to mogu priuštiti proizvodi bazirani na GM104 i GM200 čipovima.

JEDEC je konačne specifikacije novog standarda objavio tek u siječnju ove godine, a jedini proizvođač GDDR5X u ovom trenutku je Micron. Na 3DNews nije postojao poseban članak o ovoj tehnologiji pa ćemo u ovoj recenziji ukratko opisati inovacije koje donosi GDDR5X.

GDDR5X protokol ima mnogo zajedničkog s GDDR5 (iako se oba čipa razlikuju električni i fizički) – za razliku od HBM memorije, koja je bitno drugačijeg tipa, što čini suživot s GDDR5 (X) sučeljem u jednom GPU-u praktički nemogućim. Iz tog razloga se tako zove GDDR5X, a ne npr. GDDR6.

Jedna od ključnih razlika između GDDR5X i GDDR5 je mogućnost prijenosa četiri bita podataka po ciklusu signala (QDR - Quad Data Rate) za razliku od dva bita (DDR - Double Data Rate), kao što je bio slučaj u svim prethodnim modifikacijama DDR SDRAM memorija. Fizičke frekvencije memorijskih jezgri i sučelja za prijenos podataka nalaze se približno u istom rasponu kao i kod GDDR5 čipova.

A kako bi povećao propusnost čipova zasitio podacima, GDDR5X koristi prethodno dohvaćanje podataka povećano s 8n na 16n. Uz 32-bitno sučelje zasebnog čipa, to znači da kontroler odabire ne 32, već 64 bajta podataka u jednom ciklusu pristupa memoriji. Kao rezultat toga, rezultirajuća propusnost sučelja doseže 10-14 Gb / s po pinu na frekvenciji CK (naredbenog takta) od 1250-1750 MHz - to je frekvencija koju uslužni programi za praćenje i overclocking video kartica, kao što je GPU-Z, pokazati. Barem za sada, takve brojke su uključene u standard, ali u budućnosti Micron planira doseći brojke do 16 Gb / s.

Sljedeća prednost GDDR5X je povećani volumen čipa - s 8 na 16 Gb. GeForce GTX 1080 dolazi s osam 8Gb čipova, ali u budućnosti će proizvođači grafičkih kartica moći udvostručiti količinu RAM-a kako čipovi postaju dostupniji. Kao i GDDR5, GDDR5X omogućuje korištenje dva čipa na jednom 32-bitnom kontroleru u takozvanom clamshell načinu rada, što omogućuje adresiranje 32 GB memorije na 256-bitnoj GP104 sabirnici. Osim toga, standard GDDR5X, uz jednake snage dvojke, opisuje volumen čipa od 6 i 12 Gb, što će vam omogućiti da "djelomično" mijenjate ukupnu količinu ugrađene memorije video kartica - na primjer, opremite kartica s 384-bitnom RAM sabirnicom s čipovima za ukupno 9 GB.

Suprotno očekivanjima koja su pratila prve informacije o GDDR5X, koje su se pojavile u javnosti, potrošnja energije nove vrste memorije usporediva je s GDDR5 ili tek nešto veća od potonje. Kako bi kompenzirali povećanu snagu pri velikim propusnim opsegima, kreatori standarda su smanjili napon napajanja jezgri sa 1,5 V, standardnog za GDDR5, na 1,35 V. Osim toga, standard uvodi kontrolu frekvencije čipa kao obveznu mjeru ovisno o senzor temperature. Još uvijek nije poznato koliko nova memorija doista ovisi o kvaliteti odvođenja topline, no moguće je da ćemo sada češće viđati sustave hlađenja na video karticama koje služe ne samo GPU-ima, već i RAM čipovima, dok proizvođači GDDR5 baziranih na kartice većinom zanemaruju ovu mogućnost.

Moglo bi se steći dojam da je prijelaz s GDDR5 na GDDR5X bio lak zadatak za NVIDIA zbog povezanosti ovih tehnologija. Osim toga, GeForce GTX 1080 opremljen je najnižom propusnošću memorije definiranom standardom - 10 Gb / s po pinu. Međutim, praktična implementacija novog sučelja povezana je s nizom inženjerskih poteškoća. Prijenos podataka na tako visokim frekvencijama zahtijevao je pažljiv dizajn topologije sabirnice podataka na ploči kako bi se smetnje i slabljenje signala u vodičima minimizirali.

Rezultirajuća propusnost sabirnice od 256-bita u GeForce GTX 1080 je 320 GB/s, što nije značajno manje od brzine od 336 GB/s, koju karakterizira GeForce GTX 980 Ti (TITAN X) sa svojim 384-bitnim GDDR5 sabirnica pri 7 Gb/s po pinu.

Sada PolyMorph Engine može kreirati do 16 projekcija (viewports) u isto vrijeme, proizvoljno postavljenih i fokusiranih na jednu ili dvije točke, pomaknute duž horizontalne osi jedna u odnosu na drugu. Ove se pretvorbe u potpunosti izvode u hardveru i ne uzrokuju nikakvu degradaciju performansi same po sebi.

Ova tehnologija ima dvije prilično predvidljive primjene. Prvi su VR kacige. Zbog dva projekcijska centra, Pascal može stvoriti stereo sliku u jednom prolazu (međutim, ovdje se radi samo o geometriji – GPU ipak mora obaviti dvostruko više posla kako bi rasterirao teksture u dva okvira).

Osim toga, SMP omogućuje na razini geometrije kompenzaciju izobličenja slike, koju unose leće kacige. Za to se slika za svako oko formira od četiri odvojene projekcije, koje se zatim lijepe u ravninu pomoću filtera za naknadnu obradu. Time se postiže ne samo geometrijska točnost konačne slike, već i potreba za obradom 1/3 piksela, koji bi inače bili izgubljeni tijekom završne korekcije standardne ravne projekcije za zakrivljenost leća. eliminiran.

Jedina optimizacija za VR koju je Maxwell imao bila je da se periferna područja slike, koja su najjače komprimirana za izlaz kroz leće, mogu prikazati u nižoj razlučivosti, što je rezultiralo uštedom propusnosti od samo 10-15%.

Sljedeće područje u kojem je značajka SMP tražena je u konfiguracijama s više monitora. Bez SMP-a, slika na više usidrenih zaslona je ravnina s gledišta GPU-a i izgleda geometrijski ispravno pod uvjetom da su ekrani ispred gledatelja poredani, ali pristajanje pod kutom više ne izgleda ispravno - kao da jednostavno ste savili veliku fotografiju na nekoliko mjesta . Da ne spominjemo da u svakom slučaju gledatelj vidi točno ravnu sliku, a ne prozor u virtualni svijet: ako okrenete glavu prema bočnom ekranu, objekti u njemu će ostati rastegnuti, jer virtualna kamera još uvijek gleda u središnjoj točki.

Uz pomoć SMP-a, upravljački program grafičke kartice može dobiti informacije o fizičkoj lokaciji nekoliko ekrana kako bi projicirao sliku za svaki od njih kroz vlastiti okvir za prikaz, što u konačnici funkcionalno približava sklop više monitora punopravnom "prozor".

Ukratko, svrha trostrukog međuspremnika je odvojiti proces generiranja novih okvira u GPU cjevovodu od skeniranja slike iz međuspremnika okvira dopuštajući grafičkoj kartici da kreira nove okvire proizvoljno velikom brzinom, zapisujući ih u dva rotirajuća okvira tamponima. U tom slučaju, sadržaj posljednjeg okvira s frekvencijom koja je višekratnik brzine osvježavanja zaslona kopira se u treći međuspremnik, odakle ga monitor može pokupiti bez prekida slike. Dakle, okvir koji udari na zaslon u trenutku kada skeniranje počinje uvijek sadrži najnovije informacije koje je proizveo GPU.

Trostruko međuspremnik je najkorisniji na monitorima sa stopom osvježavanja od 50-60Hz. Na frekvencijama od 120-144 Hz, kao što smo već pisali u članku o G-Sync-u, uključivanje vertikalne sinkronizacije već, u principu, neznatno povećava latenciju, ali Fast Sync će je ukloniti na minimum.

Ako se pitate kako se Fast Sync uspoređuje s G-Sync (i AMD-ovim kolegom Free Sync - ali to je čisto teorijsko pitanje jer NVIDIA podržava samo svoju varijantu), onda G-Sync smanjuje kašnjenje kada GPU nema vremena za proizvodnju novi okvir do trenutka kada skeniranje započne, a Fast Sync, naprotiv, smanjuje kašnjenje kada je stopa osvježavanja okvira u cjevovodu renderiranja veća od brzine osvježavanja zaslona. Osim toga, ove tehnologije mogu raditi zajedno.

GeForce GTX 1080 Founder's Edition:oblikovati

Ovo pompozno ime sada je referentna verzija GeForce GTX 1080. Počevši od GeForce GTX 690, NVIDIA je puno pažnje posvetila obliku u kojem njihovi novi proizvodi izlaze na tržište. Referentni uzorci modernih video kartica pod markom GeForce daleko su od svojih neupadljivih prethodnika, opremljeni relativno neučinkovitim i bučnim sustavima hlađenja.

GeForce GTX 1080 Founder's Edition uključuje najbolje značajke dizajna Kepler i Maxwell grafičkih kartica: aluminijski pokrov turbine, propeler hladnjaka izrađen od niskošumnog materijala i masivni aluminijski okvir koji dodaje krutost strukturi i uklanja toplinu iz RAM čipovi.


Kao dio GTX 1080, postoje dvije komponente u isto vrijeme koje se povremeno pojavljuju i nestaju s NVIDIA referentnih video kartica - GPU hladnjak s parnom komorom i stražnjom pločom. Potonji se djelomično demontira bez odvijača kako bi se omogućio protok zraka do hladnjaka susjedne video kartice u SLI načinu rada.

Uz njegovu reprezentativnu funkciju, potreban je referentni uzorak video kartice kako bi je proizvođači krajnjih kartica mogli kupiti - u ovom slučaju od NVIDIA-e - i zadovoljiti potražnju dok uređaji originalnog dizajna na istom GPU-u ne budu spremni. No ovoga puta NVIDIA planira zadržati referentnu verziju u prodaji tijekom cijelog vijeka trajanja modela i distribuirati, između ostalog, putem svoje službene web stranice. To motivira 100$ višu cijenu GTX 1080 FE u odnosu na preporučenih 599$ za sve ostale. Uostalom, Founder's Edition ne izgleda niti se osjeća kao jeftin proizvod.

Istodobno, video kartica ima referentne frekvencije ispod kojih, kao i obično, neće pasti niti jedan proizvođač kartica izvornog dizajna. Također nema govora o bilo kakvom izboru GPU-a za GTX 1080 FE u smislu overclocking potencijala. Stoga u cijeloj masi implementacija GeForce GTX 1080 može biti i skupljih. No, neko vrijeme će Founder's Edition biti prevladavajuća, pa čak i jedina verzija vodećeg Pascala, koji automatski podiže svoje maloprodajne cijene za 100 dolara iznad NVIDIA-ine "preporuke".

GeForce GTX 1080 Ti ima 11 GB GDDR5X memorije, GPU od 1583 MHz (overclockati na 2000 MHz uz standardno hlađenje), 11 GHz QDR memoriju i 35% bolje performanse od GeForce GTX 1080. I to po sniženoj cijeni od 699 dolara.

Nova grafička kartica istiskuje GeForce GTX 1080 s pozicije flagshipa u GeForce liniji i postaje najbrži grafička kartica koja danas postoji, kao i najmoćnija kartica na Pascal arhitekturi.

Najsnažnija NVIDIA GeForce GTX 1080 Ti igraća kartica

NVIDIA GeForce GTX 1080 Ti je san igrača, koji konačno može uživati ​​u najnovijim igrama AAA klase, igrati se u kacigama za virtualnu stvarnost visoke razlučivosti, uživati ​​u jasnoći i točnosti grafike.

GTX 1080 Ti je dizajnirana da bude prva potpuna grafička kartica za 4K igranje. Opremljena je najnovijim i tehnološki najnaprednijim hardverom kojim se danas ne može pohvaliti nijedna druga video kartica.

Ovdje službeno predstavljanje NVIDIA GeForce GTX 1080 Ti

“Vrijeme je za nešto novo. Onaj koji je 35% brži od GTX 1080. On koji je brži od Titana X. Nazovimo ga ultimativnim…

Iz godine u godinu videoigre su sve ljepše i ljepše, stoga predstavljamo vrhunski proizvod sljedeće generacije kako biste mogli uživati ​​u igrama sljedeće generacije.”

Jen-Xun

Specifikacije NVIDIA GeForce GTX 1080 Ti

NVIDIA nije štedjela na nadjevu za svoju novu i super-moćnu video karticu.

Opremljen je istim GPU Pascal GP102 GPU, poput Titana X (P), ali superiorniji od potonjeg u svim aspektima.

Procesor je opremljen s 12 milijardi tranzistora i ima šest klastera za obradu grafike, od kojih su dva blokirana. Ovo daje ukupno 28 višenitnih procesora 128 jezgri svaka.

Dakle, grafička kartica GeForce GTX 1080 Ti ima 3584 CUDA jezgri, 224 jedinice za mapiranje tekstura i 88 ROP-ova (jedinica odgovornih za z-buffering, anti-aliasing, pisanje konačne slike u međuspremnik okvira video memorije).

Raspon overclockinga kreće se od 1582 MHz do 2 GHz. Pascal arhitektura je stvorena uglavnom za overclockanje u referentnim i ekstremnije overclockanje u nestandardnim modelima.

GeForce GTX 1080 Ti također ima 11 GB GDDR5X memorije, radeći kroz 352-bitnu sabirnicu. Vodeći model također ima najbrže G5X rješenje do sada.

S novim sustavom kompresije i predmemoriranjem pločica, propusnost grafičke kartice GTX 1080 Ti može se povećati do 1200 Gb/s, što je superiornije od AMD-ove HBM2 tehnologije.

Specifikacije NVIDIA GeForce GTX 1080 Ti:

Karakteristike GTX TItan X Pascal GTX 1080 Ti GTX 1080
Procesna tehnologija 16 nm 16 nm 16 nm
tranzistori 12 milijardi 12 milijardi 7,2 milijarde
Kristalno područje 471 mm² 471 mm² 314 mm²
Memorija 12 GB GDDR5X 11 GB GDDR5X 8GB GDDR5X
Brzina memorije 10 Gb/s 11 Gb/s 11 Gb/s
Memorijsko sučelje 384-bitni 352-bitni 256-bitni
Širina pojasa 480 GB/s 484 GB/s 320 GB/s
CUDA jezgre 3584 3584 2560
bazna frekvencija 1417 1607
Učestalost ubrzanja 1530MHz 1583 MHz 1730 MHz
Računalna snaga 11 teraflopsa 11,5 teraflopsa 9 teraflopsa
Toplinska snaga 250W 250W 180W
Cijena 1200$ 699 američkih dolara 499$

Hlađenje NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders ima novo rješenje za protok zraka koje omogućuje bolje hlađenje ploče i također je tiše od prethodnih dizajna. Sve to omogućuje više overclocking video kartice i postizanje još veće brzine. Osim toga, učinkovitost hlađenja je poboljšana 7-fazno napajanje na 14 visokoučinkovitih dualFET tranzistora.

GeForce GTX 1080 Ti dolazi s najnovijim NVTTM dizajnom, koji uvodi novu komoru za hlađenje parom koja ima dvostruko veće područje hlađenja od Titan X (P). Ovaj novi toplinski dizajn pomaže u postizanju optimalnog hlađenja i ubrzava GPU vaše grafičke kartice iznad specifikacije uz GPU Boost 3.0 tehnologiju.

NVIDIA GeForce GTX 1080 Ti san je overklokera

Dakle, što da radimo s ovom impresivnom snagom video kartice? Odgovor je očigledan - overclock do krajnjih granica. Tijekom događaja, NVIDIA je demonstrirala izniman overclocking potencijal svoje GTX 1080 Ti grafičke kartice. Podsjetimo, uspjeli su postići frekvenciju procesora od 2,03 GHz pri blokiranih 60 FPS.



Što još čitati