Dom

Video kartice. Upoznavanje sa GPU GP104 Pascal karticama

2016. se već bliži kraju, ali njegov doprinos industriji igara na sreću ostat će s nama još dugo. Prvo, video kartice iz crvenog tabora su dobile neočekivano uspješno ažuriranje u srednjem cjenovnom rangu, a drugo, NVIDIA je još jednom dokazala da nije uzalud zauzima 70% tržišta. Maxwellovi su bili dobri, GTX 970 se s pravom smatrala jednom od najboljih kartica za novac, ali Pascal je sasvim druga stvar.

Nova generacija hardvera pred GTX 1080 i 1070 bukvalno je pokopala rezultate prošlogodišnjih sistema i vodećeg tržišta korišćenog hardvera, dok su "mlađe" linije pred GTX 1060 i 1050 svoj uspeh učvrstile u pristupačnijem segmentima. Vlasnici GTX980Ti i drugih Titana plaču s krokodilskim suzama: njihove uber-puške za više hiljada rubalja izgubile su 50% cijene i 100% pokazivanja odjednom. Sama NVIDIA tvrdi da je 1080 brži od prošlogodišnjeg TitanX-a, 1070 lako "nagomilava" 980Ti, a relativno budžetski 1060 će naštetiti vlasnicima svih ostalih kartica.

Da li odatle zaista rastu noge visokih performansi i šta sa svime raditi uoči praznika i iznenadnih finansijskih radosti, kao i čime se tačno ugoditi, saznajte u ovom dugom i pomalo dosadnom članak.

Možete voljeti Nvidiju ili... ne voljeti je, ali poricati da je ona trenutno lider u oblasti video inženjeringa bit će samo hit iz alternativnog univerzuma. Budući da AMD-ova Vega još nije najavljena, još nismo vidjeli vodeći RX na Polarisu, a R9 Fury, sa svojih 4 GB eksperimentalne memorije, ne može se smatrati obećavajućom karticom (VR i 4K još uvijek žele malo više, nego što ona ima) - imamo ono što imamo. Dok su 1080 Ti i uslovni RX 490, RX Fury i RX 580 samo glasine i očekivanja, imamo vremena da sredimo trenutnu NVIDIA liniju i vidimo šta je kompanija postigla poslednjih godina.

Nered i istorija nastanka Pascala

NVIDIA redovno daje razloge da "ne volite sebe". Istorija GTX 970 i njegovih "3,5 GB memorije", "NVIDIA, jebi se!" od Linusa Torvaldsa, kompletna pornografija u linijama desktop grafike, odbijanje rada sa besplatnim i mnogo češćim FreeSync sistemom u korist sopstvenog vlasničkog... Generalno, razloga ima dovoljno. Jedna od najneugodnijih stvari za mene lično je ono što se dogodilo sa posljednje dvije generacije video kartica. Ako uzmemo grubi opis, onda "moderni" GPU-ovi potiču iz dana podrške za DX10. A ako danas tražite "djeda" 10. serije, onda će početak moderne arhitekture biti u području 400. serije video akceleratora i Fermi arhitekture. Upravo u njemu je nastala ideja o "blok" dizajnu iz tzv. "CUDA jezgre" u NVIDIA terminologiji.

Fermi

Ako su video kartice serije 8000, 9000 i 200 bile prvi koraci u savladavanju samog koncepta, "moderne arhitekture" sa univerzalnim shader procesorima (kao AMD, da), onda je 400. serija već bila što sličnija onome što smo mi vidi u nekih 1070. Da, Fermi je još uvijek imao malu Legacy štaku iz prethodnih generacija: shader jedinica je radila na dvostruko većoj frekvenciji od jezgre odgovornog za izračunavanje geometrije, ali ukupna slika nekih GTX 480 se ne razlikuje mnogo od nekih nekih 780., SM multiprocesori su grupirani, klasteri komuniciraju kroz zajedničku keš memoriju sa memorijskim kontrolerima, a rezultati rada se prikazuju blokom rasterizacije koji je zajednički za klaster:


Blok dijagram GF100 procesora koji se koristi u GTX 480.

U 500. seriji je i dalje bio isti Fermi, malo poboljšan “iznutra” i sa manje brakova, pa su vrhunska rješenja dobila 512 CUDA jezgri umjesto 480 za prethodnu generaciju. Vizualno, dijagrami toka općenito izgledaju kao blizanci:


GF110 je srce GTX 580.

Na nekim mjestima su povećali frekvencije, malo promijenili dizajn samog čipa, nije bilo revolucije. Sve iste 40 nm procesne tehnologije i 1,5 GB video memorije na 384-bitnoj magistrali.

Kepler

Sa pojavom Kepler arhitekture, mnogo se toga promijenilo. Možemo reći da je upravo ova generacija dala NVIDIA video karticama vektor razvoja koji je doveo do pojave aktuelnih modela. Nije se promijenila samo arhitektura GPU-a, već i kuhinja za razvoj novog hardvera unutar NVIDIA-e. Ako je Fermi bio fokusiran na pronalaženje rješenja koje bi pružilo visoke performanse, onda se Kepler kladio na energetsku efikasnost, razumno korištenje resursa, visoke frekvencije i lakoću optimizacije motora igre za mogućnosti arhitekture visokih performansi.

Ozbiljne promjene napravljene su u dizajnu GPU-a: za osnovu nije uzet "vodeći" GF100 / GF110, već "budžetski" GF104 / GF114, koji se koristio u jednoj od najpopularnijih kartica tog vremena - GTX 460.


Ukupna arhitektura procesora je pojednostavljena korištenjem samo dva velika bloka sa četiri unificirana multiprocesorska modula shadera. Izgled novih vodećih modela izgledao je otprilike ovako:


GK104 instaliran u GTX 680.

Kao što vidite, svaka od računarskih jedinica je značajno dobila na težini u odnosu na prethodnu arhitekturu i dobila je naziv SMX. Uporedite strukturu bloka sa onim što je prikazano iznad u Fermijevom delu.


Višeprocesorski SMX GPU GK104

Šeststota serija nije imala video kartice na punopravnom procesoru koji je sadržavao šest blokova računarskih modula, vodeći je bio GTX 680 sa instaliranim GK104, a hladniji od njega bio je samo "dvoglavi" 690. na kojem je samo dva procesora su uzgajana sa svim potrebnim vezama i memorijom. Godinu dana kasnije, vodeći GTX 680 s manjim promjenama pretvorio se u GTX 770, a kruna evolucije Kepler arhitekture bile su video kartice bazirane na GK110 kristalu: GTX Titan i Titan Z, 780Ti i uobičajeni 780. Unutra - svejedno 28 nanometara, jedino kvalitativno poboljšanje (koje NIJE išlo na potrošačke video kartice bazirane na GK110) - performanse sa dvostrukom preciznošću operacija.

Maxwell

Prva video kartica bazirana na Maxwell arhitekturi bila je… NVIDIA GTX 750Ti. Nešto kasnije, njegovi rezovi su se pojavili u odnosu na GTX 750 i 745 (isporučuju se samo kao integrisano rješenje), a u vrijeme njihovog pojavljivanja, kartice niže klase su zaista uzdrmale tržište jeftinih video akceleratora. Nova arhitektura je testirana na GK107 čipu: mali komad budućih vodećih modela sa ogromnim hladnjakom i zastrašujućom cijenom. Izgledalo je otprilike ovako:


Da, postoji samo jedna računarska jedinica, ali koliko je komplikovanija od svog prethodnika, uporedite sami:


Umjesto velikog SMX bloka, koji je korišten kao osnovna "građevinska cigla", stvaranje GPU-a koristi nove, kompaktnije SMM blokove. Keplerove osnovne računarske jedinice bile su dobre, ali su patile od lošeg iskorišćenja kapaciteta - banalne gladi za instrukcijama: sistem nije mogao da rasprši instrukcije po velikom broju aktuatora. Pentium 4 je imao približno iste probleme: napajanje je bilo neaktivno, a greška u predviđanju grananja bila je veoma skupa. U Maxwellu, svaki računarski modul bio je podijeljen na četiri dijela, svaki sa svojim vlastitim baferom instrukcija i warp planerom - istim tipom operacija na grupi niti. Kao rezultat toga, efikasnost je povećana, a sami GPU-ovi su postali fleksibilniji od svojih prethodnika, i što je najvažnije, po cijenu malo krvi i prilično jednostavnog kristala, razvili su novu arhitekturu. Priča ide spiralno, hehe.

Od inovacija su najviše profitirala mobilna rješenja: površina kristala porasla je za četvrtinu, a broj izvršnih jedinica multiprocesora gotovo se udvostručio. Srećom, upravo su 700. i 800. serije napravile glavni nered u klasifikaciji. Samo unutar 700, postojale su video kartice zasnovane na Kepler, Maxwell, pa čak i Fermi arhitekturi! Zbog toga je desktop Maxwells, kako bi se odmaknuo od mešavine prethodnih generacija, dobio uobičajenu seriju 900, iz koje su se naknadno izdvojile GTX 9xx M mobilne kartice.

Pascal - logična evolucija Maxwell arhitekture

Ono što je položeno u Kepleru i nastavljeno u Maxwell generaciji, ostalo je u Pascalima: prve potrošačke video kartice su puštene u prodaju zasnovane na ne baš velikom GP104 čipu, koji se sastoji od četiri klastera za obradu grafike. GP100 pune veličine sa šest klastera otišao je u skupi poluprofesionalni GPU pod brendom TITAN X. Međutim, čak i "ošišani" 1080 svijetli tako da se prošle generacije osjećaju bolesno.

Poboljšanje performansi

temelj temelja

Maxwell je postao temelj nove arhitekture, dijagram uporedivih procesora (GM104 i GP104) izgleda gotovo isto, glavna razlika je broj multiprocesora spakovanih u klastere. U Kepleru (700. generacija) postojala su dva velika SMX multiprocesora, koji su u Maxwellu podijeljeni na 4 dijela svaki, osiguravajući neophodnu vezu (promjenom imena u SMM). U Pascalu su na postojećih osam u bloku dodana još dva, tako da ih je bilo 10, a skraćenica je ponovo prekinuta: sada se pojedinačni multiprocesori ponovo nazivaju SM.


Ostalo je potpuna vizuelna sličnost. Istina, unutra je bilo još više promjena.

Motor napretka

Postoji nepristojno mnogo promjena unutar višeprocesorskog bloka. Da ne bih ulazio u veoma dosadne detalje šta je preuređeno, kako je optimizovano i kako je bilo ranije, vrlo kratko ću opisati promene, inače neki već zevaju.

Prije svega, Pascal'am je ispravio dio koji je odgovoran za geometrijsku komponentu slike. Ovo je neophodno za konfiguracije sa više monitora i rad sa VR kacigama: uz odgovarajuću podršku od strane game engine-a (a ova podrška će se uskoro pojaviti kroz napore NVIDIA-e), video kartica može jednom izračunati geometriju i dobiti nekoliko projekcija geometrije za svaku od ekrana. Ovo značajno smanjuje opterećenje u VR-u ne samo u području rada s trokutima (ovdje je povećanje samo dvostruko), već i u radu s komponentom piksela.

Uslovni 980Ti će pročitati geometriju dva puta (za svako oko), a zatim je ispuniti teksturama i izvršiti naknadnu obradu za svaku od slika, obrađujući ukupno oko 4,2 miliona tačaka, od kojih će se oko 70% stvarno koristiti, ostatak će biti odsječen ili pasti u područje, koje jednostavno nije prikazano za svako od očiju.

1080 će obraditi geometriju jednom, a pikseli koji ne padaju u konačnu sliku jednostavno neće biti izračunati.


Sa komponentom piksela, sve je, zapravo, još hladnije. Budući da se povećanje propusnosti memorije može izvršiti samo na dva fronta (povećanje frekvencije i propusnog opsega po taktu), a obje metode koštaju, a „glad“ GPU-a po pitanju memorije je s godinama sve izraženija zbog rast rezolucije i razvoj VR i dalje poboljšavaju "slobodne" metode povećanja propusnosti. Ako ne možete proširiti sabirnicu i povećati frekvenciju - trebate komprimirati podatke. U prethodnim generacijama, hardverska kompresija je već bila implementirana, ali je u Pascal-u podignuta na novi nivo. Opet ćemo bez dosadne matematike i uzeti gotov primjer iz NVIDIA-e. Na lijevoj strani - Maxwell, na desnoj - Pascal, one tačke čija je komponenta boje komprimirana bez gubitka kvalitete ispunjene su ružičastom bojom.


Umjesto prenošenja određenih pločica od 8x8 bodova, memorija sadrži "prosječnu" boju + matricu odstupanja od nje, takvi podaci zauzimaju od ½ do ⅛ originalnog volumena. U stvarnim zadacima, opterećenje memorijskog podsistema se smanjilo sa 10 na 30%, ovisno o broju gradijenata i ujednačenosti popunjavanja složenih scena na ekranu.


Inžinjerima se to činilo nedovoljno, a za vodeću video karticu (GTX 1080) korištena je memorija sa povećanim propusnim opsegom: GDDR5X prenosi dvostruko više bitova podataka (ne instrukcija) po taktu i proizvodi više od 10 Gb/s na vrhunac. Prijenos podataka tako ludom brzinom zahtijevao je potpuno novi memorijski raspored na ploči, a ukupna efikasnost memorije povećana je za 60-70% u odnosu na vodeći modele prethodne generacije.

Smanjite kašnjenja i zastoje

Video kartice se dugo bave ne samo grafičkom obradom, već i srodnim proračunima. Fizika je često vezana za okvire animacije i izuzetno je paralelna, što znači da je mnogo efikasnije računati na GPU-u. Ali najveći generator problema u posljednje vrijeme postala je VR industrija. Mnogi motori za igre, razvojne metodologije i gomila drugih tehnologija koje se koriste za rad sa grafikom jednostavno nisu dizajnirane za VR, slučaj pomeranja kamere ili promene položaja glave korisnika tokom renderovanja kadra jednostavno nije obrađen. Ako sve ostavite kako jeste, onda će desinhronizacija video streama i vaših pokreta uzrokovati napade morske bolesti i jednostavno ometati uranjanje u svijet igre, što znači da se "pogrešni" okviri jednostavno moraju baciti nakon renderiranja i pokrenuti ponovo radim. A ovo su nova kašnjenja u prikazivanju slike na displeju. To ne utiče na performanse na pozitivan način.

Pascal je ovaj problem uzeo u obzir i uveo dinamičko balansiranje opterećenja i mogućnost asinhronih prekida: sada izvršne jedinice mogu ili prekinuti trenutni zadatak (čuvanje rezultata rada u kešu) da obrađuju hitnije zadatke, ili jednostavno resetiraju nedovoljno nacrtani okvir i započeti novi, značajno smanjujući kašnjenja u formiranju slike. Glavni korisnik ovdje je, naravno, VR i igre, ali ova tehnologija također može pomoći u proračunima opće namjene: simulacija sudara čestica je dobila povećanje performansi od 10-20%.

Boost 3.0

NVIDIA video kartice su odavno dobile automatski overklok, još u 700. generaciji zasnovanoj na Kepler arhitekturi. U Maxwellu je overclocking poboljšan, ali je i dalje bio, blago rečeno, tako-tako: da, video kartica je radila malo brže, sve dok je termalni paket to dozvoljavao, dodatnih 20-30 megaherca za jezgru i 50 -100 za memoriju, fabrički ožičenu, dalo je povećanje, ali malo. Funkcionisalo je ovako:


Čak i ako je postojala margina za temperaturu GPU-a, performanse se nisu povećale. Sa pojavom Pascala, inženjeri su protresli ovu prašnjavu močvaru. Boost 3.0 radi na tri fronta: analiza temperature, povećanje brzine takta i povećanje napona na čipu. Sada se svi sokovi istiskuju iz GPU-a: standardni NVIDIA drajveri to ne rade, ali softver dobavljača vam omogućava da jednim klikom napravite krivu profiliranja, koja će uzeti u obzir kvalitet vaše specifične instance video kartice.

EVGA je bila jedna od prvih u ovoj oblasti, njen Precision XOC uslužni program ima NVIDIA sertifikovani skener koji sekvencijalno prolazi kroz čitav raspon temperatura, frekvencija i napona, postižući maksimalne performanse u svim režimima.

Dodajte ovdje novu procesnu tehnologiju, brzu memoriju, sve vrste optimizacija i smanjenje toplinskog paketa čipova, a rezultat će biti jednostavno nepristojan. Od 1500 "baznih" MHz, GTX 1060 se može istisnuti i više od 2000 MHz ako naiđe na dobar primjerak, a proizvođač ne zezne hlađenje.

Poboljšanje kvaliteta slike i percepcije svijeta igre

Performanse su povećane na svim frontovima, ali postoji niz tačaka u kojima već nekoliko godina nije bilo kvalitativnih promjena: u kvalitetu prikazane slike. I ne govorimo o grafičkim efektima, njih obezbjeđuju programeri igara, već o tome šta tačno vidimo na monitoru i kako igra izgleda krajnjem korisniku.

Brza vertikalna sinhronizacija

Najvažnija karakteristika Pascal-a je trostruki bafer za izlaz okvira, koji istovremeno obezbeđuje ultra-niska kašnjenja u renderovanju i obezbeđuje vertikalnu sinhronizaciju. Izlazna slika se pohranjuje u jedan bafer, posljednji renderirani okvir se pohranjuje u drugi, a trenutni se crta u trećem. Zbogom horizontalne pruge i kidanje, zdravo visoke performanse. Nema kašnjenja koje klasičan V-Sync ovdje odgovara (pošto niko ne ograničava performanse video kartice i uvijek crta pri najvećoj mogućoj brzini kadrova), a na monitor se šalju samo potpuno formirani okviri. Mislim da ću nakon nove godine napisati poseban veliki post o V-Sync-u, G-Sync-u, Free-Sync-u i ovom novom Nvidia algoritmu brze sinhronizacije, previše je detalja.

Normalne snimke ekrana

Ne, ovi snimci ekrana koji su sada su samo šteta. Gotovo sve igre koriste puno tehnologije kako bi slika u pokretu bila nevjerojatna i oduzima dah, a snimci ekrana su postali prava noćna mora: umjesto zapanjujuće realistične slike koja se sastoji od animacije, specijalnih efekata koji iskorištavaju osobenosti ljudskog vida, vidite neke nekako ugao ne razumem šta sa čudnim bojama i apsolutno beživotnom slikom.

Nova NVIDIA Ansel tehnologija rješava problem sa snimcima ekrana. Da, njegova implementacija zahtijeva integraciju posebnog koda od programera igara, ali postoji minimum stvarnih manipulacija, ali profit je ogroman. Ansel zna kako pauzirati igru, prenosi kontrolu nad kamerom u vaše ruke, a onda - prostor za kreativnost. Možete jednostavno snimiti sliku bez GUI i svog omiljenog ugla.


Možete renderirati postojeću scenu u ultra visokoj rezoluciji, snimati panorame od 360 stepeni, spojiti ih u ravninu ili ih ostaviti u 3D za gledanje u VR kacigi. Snimite fotografiju sa 16 bita po kanalu, sačuvajte je kao neku vrstu RAW datoteke, a zatim igrajte sa ekspozicijom, balansom belog i drugim postavkama kako bi snimci ekrana ponovo postali atraktivni. Očekujemo tone cool sadržaja od fanova igrica za godinu ili dvije.

Video obrada zvuka

Nove NVIDIA Gameworks biblioteke dodaju mnogo funkcija dostupnih programerima. Oni su uglavnom usmjereni na VR i ubrzavanje raznih proračuna, kao i na poboljšanje kvaliteta slike, ali jedna od karakteristika je najzanimljivija i vrijedna spomena. VRWorks Audio podiže rad sa zvukom na fundamentalno novi nivo, računajući zvuk ne po banalnim prosječnim formulama ovisno o udaljenosti i debljini prepreke, već izvodi kompletno praćenje audio signala, sa svim refleksijama iz okoline, odjekom i apsorpcijom zvuka u raznim materijala. NVIDIA ima dobar video primjer kako ova tehnologija funkcionira:


Gledajte bolje sa slušalicama

Čisto teoretski, ništa ne sprečava pokretanje takve simulacije na Maxwellu, ali optimizacije u smislu asinhronog izvršavanja instrukcija i novi sistem prekida ugrađen u Pascals omogućavaju vam da izvršite kalkulacije bez značajnog uticaja na brzinu kadrova.

Pascal ukupno

Zapravo, ima još više promjena, a mnoge od njih su toliko duboko u arhitekturi da bi se o svakoj od njih mogao napisati veliki članak. Ključne inovacije su poboljšani dizajn samih čipova, optimizacija na najnižem nivou u smislu geometrije i asinhronog rada sa potpunim rukovanjem prekidima, mnoštvo funkcija prilagođenih za rad sa visokim rezolucijama i VR, i, naravno, sulude frekvencije koje prethodne generacije video kartica nisu mogle ni sanjati. Prije dvije godine, 780 Ti je jedva prešao prag od 1 GHz, danas 1080 u nekim slučajevima radi na dva: i ovdje zasluga nije samo u smanjenoj tehnologiji procesa sa 28 nm na 16 ili 14 nm: mnoge stvari su optimizirane na najniži nivo, počevši od dizajna tranzistora, završavajući njihovom topologijom i vezivanjem unutar samog čipa.

Za svaki pojedinačni slučaj

Linija NVIDIA 10-serije video kartica se pokazala zaista izbalansiranom i prilično gusto pokriva sve slučajeve korisnika igrica, od opcije „da igram strategiju i diablo“ do „Želim vrhunske igre u 4k“. Testovi igre su odabrani prema jednoj jednostavnoj tehnici: da pokriju što je moguće širi spektar testova sa najmanjim mogućim skupom testova. BF1 je odličan primjer dobre optimizacije i omogućava vam da uporedite performanse DX11 i DX12 pod istim uslovima. DOOM je izabran iz istog razloga, samo da uporedimo OpenGL i Vulkan. Treći "Witcher" ovdje djeluje kao tako-tako optimizirana igračka, u kojoj maksimalna podešavanja grafike dozvoljavaju da se bilo koji vodeći brod zezne jednostavno zahvaljujući kodu sranja. Koristi klasični DX11, koji je vremenski testiran i savršeno razrađen u drajverima i poznat je programerima igara. Overwatch uzima maha za sve "turnirske" igre koje imaju dobro optimiziran kod, zapravo je zanimljivo koliko je visok prosječan FPS u igrici koja nije teška sa grafičke tačke gledišta, izoštrena za rad u " prosječna" konfiguracija dostupna širom svijeta.

Odmah ću dati neke opšte komentare: Vulkan je veoma proždrljiv u pogledu video memorije, za njega je ova karakteristika jedan od glavnih pokazatelja, a videćete da se ova teza odražava u benchmarkovima. DX12 na AMD karticama se ponaša mnogo bolje nego na NVIDIA-i, ako "zeleni" pokazuju prosječan pad FPS-a na novim API-jima, onda "crveni", naprotiv, pokazuju povećanje.

juniorska divizija

GTX 1050

Mlađa NVIDIA (bez slova Ti) nije zanimljiva kao njena napunjena sestra sa slovima Ti. Njegova sudbina je igračko rješenje za MOBA igre, strategije, turnirske pucačine i druge igre gdje detalji i kvalitet slike malo zanimaju nikoga, a stabilna brzina kadrova za minimalan novac je ono što je doktor naredio.


Na svim slikama nema frekvencije jezgre, jer je individualna za svaki slučaj: 1050 bez dodatnih. snaga možda neće juriti, a njena sestra sa 6-pinskim konektorom će lako preuzeti uslovnih 1,9 GHz. Što se tiče snage i dužine, prikazane su najpopularnije opcije, uvijek možete pronaći video karticu s drugim krugom ili drugim hlađenjem koje se ne uklapa u navedene "standarde".

DOOM 2016 (1080p, ULTRA): OpenGL - 68 FPS, Vulkan - 55 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 38 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 49 FPS, DX12 - 40 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS;

GTX 1050 ima grafički procesor GP107, naslijeđen od starije kartice sa blagim skraćivanjem funkcionalnih blokova. 2 GB video memorije neće vam dozvoliti da divljate, ali za e-sportske discipline i igranje nekakvih tenkova savršeno je, jer cijena za juniorsku karticu počinje od 9,5 hiljada rubalja. Dodatno napajanje nije potrebno, video kartici je potrebno samo 75 vati od matične ploče preko PCI-Express slota. Istina, u ovom cjenovnom segmentu postoji i AMD Radeon RX460, koji je sa istih 2 GB memorije jeftiniji, a kvalitetom gotovo da nije lošiji, a za otprilike isti novac možete dobiti RX460, ali u 4 GB verzija. Ne da su mu puno pomogli, nego neka rezerva za budućnost. Izbor dobavljača nije toliko važan, možete uzeti ono što je dostupno i ne izvlačite džep sa dodatnih tisuću rubalja, koje je bolje potrošiti na njegovana slova Ti.

GTX 1050 Ti

Oko 10 hiljada za uobičajeni 1050 nije loše, ali za napunjenu (ili punu, zovite kako hoćete) verziju traže malo više (u proseku 1-1,5 hiljada više), ali je njeno punjenje mnogo interesantnije . Inače, cijela serija 1050 se proizvodi ne od rezanja/odbacivanja "velikih" čipova koji nisu pogodni za 1060, već kao potpuno nezavisan proizvod. Ima manji proizvodni proces (14 nm), drugačiju biljku (kristali su uzgajani u fabrici Samsung), a ima i izuzetno zanimljivih primjeraka sa dodatnim. napajanje: termalni paket i bazna potrošnja su i dalje istih 75 W, ali potencijal overkloka i mogućnost da se prevaziđe ono što je dozvoljeno su potpuno drugačiji.


Ako nastavite da igrate u FullHD rezoluciji (1920x1080), nemojte planirati nadogradnju, a vaš drugi hardver je star 3-5 godina, to je odličan način da poboljšate performanse igračaka uz male gubitke. Vrijedi se fokusirati na ASUS i MSI rješenja sa dodatnim 6-pinskim napajanjem, opcije iz Gigabyte-a nisu loše, ali cijena nije toliko ohrabrujuća.

DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 44 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.

Srednja divizija

Video kartice 60. linije dugo su se smatrale najboljim izborom za one koji ne žele da troše puno novca, a da pritom igraju na visokim grafičkim postavkama u svemu što će biti objavljeno u narednih nekoliko godina. Počelo je od vremena GTX 260, koji je imao dvije verzije (jednostavniju, 192 stream procesora i deblju, 216 "kamenčića"), nastavilo se u 400., 500. i 700. generaciji, a sada je NVIDIA ponovo ušla u gotovo savršenu kombinacija cijene i kvaliteta. Ponovo su dostupne dvije „srednje“ verzije: GTX 1060 sa 3 i 6 GB video memorije razlikuju se ne samo po količini dostupne RAM-a, već i po performansama.

GTX 1060 3GB

Kraljica esporta. Razumna cena, neverovatne performanse za FullHD (a u eSportu retko koriste višu rezoluciju: rezultati su važniji od lepih stvari), razumna količina memorije (3 GB, na minut, bilo je pre dve godine u vodećim GTX 780 Ti, koji koštaju nepristojne pare). Što se tiče performansi, mlađi 1060 lako nadmašuje prošlogodišnju GTX 970 sa nezaboravnih 3,5 GB memorije, i lako vuče za uši pretprošlogodišnji super-vodeći 780 Ti.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 70 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 92 FPS, DX12 - 85 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS.

Ovdje je apsolutni favorit u pogledu cijene i omjera izduvnih gasova verzija iz MSI-ja. Dobre frekvencije, tihi sistem hlađenja i razumne dimenzije. Za nju ne traže baš ništa, oko 15 hiljada rubalja.

GTX 1060 6GB

Verzija od 6 GB je budžetska ulaznica za VR i visoke rezolucije. Neće gladovati za memorijom, malo je brži u svim testovima i sigurno će nadmašiti GTX 980 gdje prošlogodišnja video kartica neće imati dovoljno 4 GB video memorije.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 73 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 94 FPS, DX12 - 90 FPS;
Overwatch (1080p, ULTRA): DX11 - 166 FPS.

Želio bih još jednom napomenuti ponašanje video kartica pri korištenju Vulkan API-ja. 1050 sa 2 GB memorije - FPS pad. 1050 Ti sa 4 GB - skoro na nivou. 1060 3 GB - povlačenje. 1060 6 GB - rast rezultata. Trend je, mislim, jasan: Vulkanu je potrebno 4+ GB video memorije.

Problem je što obje 1060 nisu male video kartice. Čini se da je heat pack razuman, a ploča je zaista mala, ali mnogi dobavljači su odlučili jednostavno objediniti sistem hlađenja između 1080, 1070 i 1060. Neko ima grafičke kartice visoke 2 slota, ali duge 28+ centimetara, neko je napravio kraći su, ali deblji (2,5 utora). Birajte pažljivo.

Nažalost, dodatnih 3 GB video memorije i otključana računarska jedinica koštat će vas ~ 5-6 hiljada rubalja povrh cijene verzije od 3 giga. U ovom slučaju, Palit ima najzanimljivije opcije za cijenu i kvalitetu. ASUS je izbacio monstruozne sisteme hlađenja od 28 cm, koji su izvajani i na 1080, i na 1070, i na 1060, a takva video kartica neće nigdje stati, verzije bez fabričkog overkloka koštaju skoro isto, a izduv je manji, a oni tražite više za relativno kompaktan MSI od konkurenata na približno istom nivou kvaliteta i fabričkog overkloka.

Major League

Igrati za sav novac u 2016. je teško. Da, 1080 je ludo kul, ali perfekcionisti i hardverski štreberi znaju da NVIDIA KRIJE postojanje super vodećeg modela 1080 Ti, koji bi trebao biti nevjerovatno kul. Prve specifikacije već cure na internetu, a jasno je da zeleni čekaju da crveno-bijeli uskoče: neka vrsta uber pištolja koju može odmah postaviti novi kralj 3D grafike, veliki i moćna GTX 1080 Ti. Pa, za sada imamo ono što imamo.

GTX 1070

Prošlogodišnje avanture mega-popularnog GTX 970 i njegove ne baš iskrene memorije od 4 gigabajta aktivno su slagane i usisane po cijelom Internetu. To je nije spriječilo da postane najpopularnija grafička kartica za igre na svijetu. On drži prvo mjesto u Steamovom istraživanju hardvera i softvera uoči promjene godine u kalendaru. To je razumljivo: kombinacija cijene i performansi bila je jednostavno savršena. A ako ste propustili prošlogodišnju nadogradnju i 1060 vam se ne čini dovoljno lošim, GTX 1070 je vaš izbor.

Rezolucije od 2560x1440 i 3840x2160 grafička kartica se brzo slaže. Overclocking sistem Boost 3.0 će pokušati da baci drva za ogrev kada se opterećenje GPU-a poveća (to jest, u najtežim scenama, kada FPS pada pod naletom specijalnih efekata), overklokirajući procesor video kartice na neverovatnih 2100+ MHz. Memorija lako dobija 15-18% efektivne frekvencije iznad fabričkih vrednosti. Čudovište.


Pažnja, svi testovi se izvode u 2.5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks isključen): DX11 - 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.

Naravno, nemoguće je izvući ultra-podešavanja u 4k i nikada ne padati ispod 60 sličica u sekundi, bilo sa ovom karticom ili sa 1080, ali možete igrati na uslovno "visokim" postavkama, isključivanjem ili lagano spuštanjem najproždrljivijih funkcija u potpunosti rezolucije, a po stvarnim performansama, grafička kartica lako nadmašuje čak i prošlogodišnji 980 Ti, koji je koštao skoro duplo više. Gigabyte ima najzanimljiviju opciju: uspjeli su ugurati punopravni 1070 u kućište standardno ITX. Zahvaljujući skromnom termičkom paketu i energetski efikasnom dizajnu. Cijene kartica počinju od 29-30 hiljada rubalja za ukusne opcije.

GTX 1080

Da, vodeći model nema slova Ti. Da, ne koristi najveći GPU dostupan od NVIDIA-e. Da, ovdje nema cool HBM 2 memorije, a grafička kartica ne izgleda kao Death Star ili, u ekstremnom slučaju, Imperial krstarica klase Star Destroyer. I da, to je trenutno najbolja grafička kartica za igranje. Jedan po jedan snima i pokreće DOOM na 5k3k rezoluciji pri 60fps na ultra postavkama. Sve nove igračke su podložne tome i narednih godinu-dve neće imati problema: dok nove tehnologije ugrađene u Pascal ne postanu široko rasprostranjene, dok motori za igre ne nauče kako da efikasno učitavaju dostupne resurse... Da, za nekoliko godine reći ćemo: “Evo, pogledajte GTX 1260, prije nekoliko godina vam je trebao vodeći model da se igrate sa tim postavkama”, ali za sada su najbolje od najboljih grafičkih kartica dostupne prije nove godine po vrlo razumnoj cijeni Cijena.


Pažnja, svi testovi se izvode u 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks isključen): DX11 - 55 FPS;
Battlefield 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.

Ostaje samo da odlučite: treba vam ili možete uštedjeti novac i uzeti 1070. Nema velike razlike između igranja na "ultra" ili "visokim" postavkama, budući da moderni motori savršeno crtaju sliku u visokoj rezoluciji čak i na srednjim postavkama : na kraju krajeva, mi imamo da niste sapunaste konzole koje ne mogu pružiti dovoljno performansi za iskrene 4k i stabilne 60fps.

Ako odbacimo najjeftinije opcije, Palit će opet imati najbolju kombinaciju cijene i kvaliteta u verziji GameRock (oko 43-45 hiljada rubalja): da, sistem hlađenja je "debeo", 2,5 slota, ali video kartica je kraći od konkurenata, a par 1080 se rijetko instalira. SLI polako umire, a čak mu ni životvorna injekcija brzih mostova ne pomaže mnogo. ASUS ROG opcija nije loša ako imate instalirano puno dodataka. ne želite da pokrivate dodatne utore za proširenje: njihova video kartica je debela tačno 2 slota, ali joj je potrebno 29 centimetara slobodnog prostora od zadnjeg zida do korpe čvrstog diska. Pitam se da li će Gigabyte moći pustiti ovo čudovište u ITX formatu?

Rezultati

Nove NVIDIA video kartice su upravo zatrpale tržište korišćenog hardvera. Na njemu preživljava samo GTX 970, koji se može ugrabiti za 10-12 hiljada rubalja. Potencijalni kupci polovnih 7970 i R9 280 često nemaju gdje da ga stave i jednostavno ga ne hrane, a mnoge opcije sa sekundarnog tržišta jednostavno su neperspektivne, a kao jeftina nadogradnja za par godina unaprijed nisu dobre: ​​malo je memorije, nove tehnologije nisu podržane. Ljepota nove generacije video kartica je u tome što čak i igre koje nisu optimizovane za njih rade mnogo vedrije nego na veteranskim GPU listama proteklih godina, a teško je zamisliti šta će se dogoditi za godinu dana, kada motori za igre nauče da koriste punu snagu. moć novih tehnologija.

GTX 1050 i 1050Ti

Jao, ne mogu preporučiti kupovinu najjeftinijeg Pascala. RX 460 se obično prodaje za hiljadu ili dvije manje, a ako vam je budžet toliko ograničen da uzmete video karticu “za najnoviju”, onda je Radeon objektivno zanimljivija investicija. S druge strane, 1050 je malo brži, a ako su cijene u vašem gradu za ove dvije video kartice skoro iste, uzmite ga.

1050Ti je, s druge strane, odlična opcija za one koji cijene priču i igru ​​više od ukrasa i realističnih dlačica u nosu. Nema usko grlo u vidu 2 GB video memorije, neće se "srušiti" nakon godinu dana. Možete staviti novac na to - uradite to. The Witcher na visokim postavkama, GTA V, DOOM, BF 1 - nema problema. Da, morat ćete odustati od brojnih poboljšanja, kao što su ekstra duge sjene, složena teselacija ili "skupo" izračunavanje samosjenčajućih modela s ograničenim praćenjem zraka, ali u žaru borbe zaboravit ćete na ove ljepote nakon 10 minuta igre, a stabilnih 50-60 frejmova u sekundi daće mnogo impresivniji efekat od nervoznih skokova sa 25 na 40, ali sa postavkama na "maksimum".

Ako imate bilo koju Radeon 7850, GTX 760 ili mlađu, video karticu sa 2 GB video memorije ili manje, možete bezbjedno promijeniti.

GTX 1060

Mlađi 1060 će zadovoljiti one kojima je brzina kadrova od 100 FPS važnija od grafičkih zvona i zviždaljki. Istovremeno, omogućit će vam udobno igranje svih objavljenih igrica u FullHD rezoluciji sa visokim ili maksimalnim postavkama i stabilnim 60 sličica u sekundi, a cijena se jako razlikuje od svega što dolazi nakon njega. Stariji 1060 sa 6 gigabajta memorije je beskompromisno rešenje za FullHD sa marginom performansi od godinu ili dve, poznavanjem VR-a i potpuno prihvatljiv kandidat za igranje u visokim rezolucijama na srednjim postavkama.

Nema smisla mijenjati GTX 970 u GTX 1060, to će potrajati još godinu dana. Ali dosadne 960, 770, 780, R9 280X i starije jedinice mogu se sigurno ažurirati na 1060.

Vrhunski segment: GTX 1070 i 1080

Malo je vjerovatno da će 1070 postati popularan kao GTX 970 (ipak, većina korisnika ima ciklus ažuriranja gvožđa svake dvije godine), ali u smislu cijene i kvaliteta, svakako je dostojan nastavak 70. linije. Samo grije igre na mainstream 1080p, lako se nosi s 2560x1440, izdržava iskušenje neoptimiziranih 21 do 9 i prilično je sposoban za prikaz 4k, iako ne na maksimalnim postavkama.


Da, i SLI može biti takav.

Pozdravljamo se sa svakim 780 Ti, R9 390X i ostalim prošlogodišnjim 980-ima, posebno ako želimo da igramo u visokoj definiciji. I, da, ovo je najbolja opcija za one koji vole da naprave paklenu kutiju u Mini-ITX formatu i plaše goste 4k igricama na TV-u od 60-70 inča koji rade na kompjuteru veličine aparata za kafu.
Istorija grafičke kartice gtx 1050 Dodaj oznake

Prema nedavno objavljenim anegdotskim dokazima, porodica GPU-a zasnovana na Pascalu mogla bi postati jedna od najkompletnijih linija NVIDIA-e u posljednjih nekoliko godina. Za samo nekoliko mjeseci, kompanija je predstavila četiri GPU-a bazirana na Pascal-u i neće stati na tome. Prema riječima čelnika kompanije, predstavljeni su daleko od svih Pascal čipova, da ne spominjemo prave proizvode. Navodno, u bliskoj budućnosti čekamo nove objave.

NVIDIA Pascal: osam proizvoda u četiri mjeseca

Od aprila ove godine, NVIDIA je predstavila četiri Pascal čipa: GP100 sa 16 GB HBM2 memorije, GP102 sa podrškom za GDDR5X, GP104 i GP106. Istovremeno, kompanija je najavila osam proizvoda baziranih na ovim GPU-ovima (isključujući pojedinačne proizvode raznih vrsta specijalnih izdanja u nastavku, kao i specijalizovane uređaje kao što je DGX-1): GeForce GTX 1080/1070 (GP104), GeForce GTX 1060 (GP106), TITAN X (GP102 + 12GB GDDR5X), Quadro P5000 (GP104GL + 16GB GDDR5X), Quadro P6000 (GP102GL + 24GB GDDR5X), Tesla P100 SXM i Tesla P100 na bazi HMGP100 P100 PCIGP100.

Iako je četiri GPU-a i osam proizvoda za četiri mjeseca izvanredan uspjeh, primjetno je da kompanija nije predstavila nijedno novo rješenje za prijenosno računalo, niti jednu novu grafičku karticu ispod 250 dolara. Prema riječima čelnika NVIDIA-e, kompanija priprema nove GPU-ove bazirane na Pascalu, oni već postoje u silicijumu, ali će na tržište ući tek nakon nekog vremena.

NVIDIA: Svi Pascalovi su spremni, ali nisu svi predstavljeni

“Sve smo dizajnirali, verifikovali i pokrenuli proizvodnjuGPU baziran na arhitekturiPascal», rekao je Jen-Hsun Huang, izvršni direktor NVIDIA-e, tokom konferencijskog poziva sa investitorima i finansijskim analitičarima. “Međutim, još uvijek nismo predstavili sve ove GPU-ove.”

Nove konfiguracije

Međutim, gejmere i entuzijaste ne zanimaju toliko interni elementi GP107, GP108 i GP102, već činjenica da će svaki Pascal čip postojati u najmanje dvije osnovne konfiguracije (u smislu PCIe ID-a koji NVIDIA drajver koristi ) . Ovo otvara mogućnosti za stvaranje mnoštva novih proizvoda baziranih na GP100, GP102, GP104 i GP106 čipovima.

Dakle, GP104 postoji u konfiguracijama GP104-A i GP104-B, kao i u verzijama sa omogućenim ubrzanjem za profesionalne aplikacije - GP104GL-A i GP104GL-B. Ne znamo čemu tačno odgovaraju slova "A" i "B", ali možemo pretpostaviti da "A" označava mikrokolo u maksimalnoj konfiguraciji. Dakle, GP104-A može odgovarati GeForce GTX 1080, a GP104-B može odgovarati GeForce GTX 1070.

S obzirom na to da mikro kola GP102 i GP106 takođe postoje u dvije konfiguracije (u svakom slučaju, na to ukazuju AIDA64 baza podataka i NVIDIA drajveri), ali u isto vrijeme postoji samo jedan proizvod baziran na njima (GeForce GTX 1060 i TITAN X) , možemo očekivati ​​pojavu novih rješenja zasnovanih na njima. Da li će ove kartice biti brže ili sporije od postojećih, vrijeme će pokazati. U svakom slučaju, GP102 može skalirati i "naviše" (do 3840 stream procesora) i "nadolje". Istovremeno, naravno, ne može se isključiti hipotetička mogućnost pojave treće verzije GP102-C, u slučaju da zatreba NVIDIA-i.

Na ovaj ili onaj način, očigledno je da NVIDIA planira proširiti familiju grafičkih kartica baziranih na Pascalu. Iako bi neposredni planovi jasno trebali uključivati ​​mobilne i mainstream GPU-ove, vrlo je vjerovatno da ćemo u budućnosti imati nova rješenja za PC računare visokih performansi.

ParametarZnačenje
Naziv koda čipaGP104
Tehnologija proizvodnje16nm FinFET
Broj tranzistora7,2 milijarde
Područje jezgra314 mm²
Arhitektura
DirectX hardverska podrška
Memorijska magistrala
1607 (1733) MHz
Računarski blokovi20 Streaming multiprocesora uključujući 2560 IEEE 754-2008 skalarnih ALU-ova s ​​pomičnim zarezom;
Teksturiranje blokova160 jedinica za adresiranje i filtriranje teksture sa podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture
Podrška za monitor
Specifikacije referentne grafike GeForce GTX 1080
ParametarZnačenje
Frekvencija jezgra1607 (1733) MHz
2560
Broj blokova teksture160
Broj blokova za miješanje64
Efektivna memorijska frekvencija10000 (4×2500) MHz
Vrsta memorijeGDDR5X
Memorijska magistrala256-bitni
Memorija8 GB
320 GB/s
oko 9 teraflopsa
103 gigapiksela/s
257 gigateksela/s
TirePCI Express 3.0
Konektori
potrošnja energijedo 180 W
Dodatna hranaJedan 8-pinski konektor
2
Preporučena cijena599-699 USD (SAD), 54990 RUB (Rusija)

Novi model GeForce GTX 1080 video kartice dobio je ime koje je logično za prvo rješenje nove GeForce serije - razlikuje se od svog direktnog prethodnika samo po promijenjenom broju generacije. Novitet ne samo da zamjenjuje vrhunska rješenja u trenutnoj liniji kompanije, već je neko vrijeme postao i vodeći model nove serije, sve dok Titan X nije pušten na još snažniji GPU. Ispod njega u hijerarhiji je i već najavljeni model GeForce GTX 1070, baziran na smanjenoj verziji GP104 čipa, koji ćemo razmotriti u nastavku.

Predložene cijene za Nvidijinu novu grafičku karticu su 599 dolara i 699 dolara za standardnu ​​i Founders Edition (pogledajte dolje), što je prilično dobra ponuda s obzirom da je GTX 1080 ispred ne samo GTX 980 Ti, već i Titan X. Danas je novi proizvod bez ikakvih pitanja najbolje rješenje u pogledu performansi na tržištu single-chip video kartica, a ujedno je i jeftiniji od najmoćnijih video kartica prethodne generacije. Za sada, GeForce GTX 1080 u suštini nema konkurenciju iz AMD-a, tako da je Nvidia mogla postaviti cijenu koja im odgovara.

U pitanju je video kartica bazirana na GP104 čipu, koji ima 256-bitnu memorijsku magistralu, ali novi tip GDDR5X memorije radi na vrlo visokoj efektivnoj frekvenciji od 10 GHz, što daje visoku vršnu propusnost od 320 GB/s. - što je skoro u rangu sa GTX 980 Ti sa 384-bitnom magistralom. Količina memorije instalirane na video kartici sa takvom magistralom bi mogla biti 4 ili 8 GB, ali bi bilo glupo postaviti manji iznos za ovako moćno rješenje u savremenim uslovima, pa je GTX 1080 dobio 8 GB memorije, a ova količina je dovoljna za pokretanje bilo koje 3D aplikacije sa bilo kojim postavkama kvaliteta u narednim godinama.

GeForce GTX 1080 PCB je razumljivo prilično drugačiji od prethodnih PCB-a kompanije. Vrijednost tipične potrošnje energije za nove artikle je 180 vati - nešto više od GTX 980, ali primjetno niže od manje moćnih Titan X i GTX 980 Ti. Referentna ploča ima uobičajeni set konektora za povezivanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort.

Referentni dizajn Founders Edition

Čak i sa najavom GeForce GTX 1080 početkom maja, najavljeno je posebno izdanje video kartice pod nazivom Founders Edition, koja ima višu cijenu od običnih video kartica partnera kompanije. U stvari, ovo izdanje je referentni dizajn kartice i sistema hlađenja, a proizvodi ga sama Nvidia. Možete imati različite stavove prema ovakvim opcijama za video kartice, ali referentni dizajn koji su razvili inženjeri kompanije i proizveden od kvalitetnih komponenti ima svoje obožavatelje.

Ali da li će platiti nekoliko hiljada rubalja više za video karticu same Nvidije pitanje je na koje samo praksa može odgovoriti. U svakom slučaju, isprva će se u prodaji pojaviti referentne Nvidijine grafičke kartice po povećanoj cijeni i nema puno izbora - to se dešava sa svakom najavom, ali referentna GeForce GTX 1080 je drugačija po tome Planirano je da se u ovom obliku prodaje tokom čitavog životnog veka, do izlaska rešenja sledeće generacije.

Nvidia vjeruje da ovo izdanje ima svoje prednosti čak i nad najboljim radovima partnera. Na primjer, dizajn hladnjaka s dva slota olakšava sklapanje kako igraćih računara relativno malog oblika, tako i video sistema sa više čipova baziranih na ovoj moćnoj video kartici (i pored toga što se ne preporučuje način rada sa tri i četiri čipa). od strane kompanije). GeForce GTX 1080 Founders Edition ima neke prednosti u vidu efikasnog hladnjaka koji koristi komoru za isparavanje i ventilator koji izbacuje zagrijani zrak iz kućišta – ovo je prvo takvo rješenje iz Nvidije koje troši manje od 250 vati energije.

U poređenju sa prethodnim referentnim dizajnom proizvoda kompanije, strujni krug je nadograđen sa četvorofaznog na petofazni. Nvidia također govori o poboljšanim komponentama na kojima je baziran novi proizvod, a smanjena je i električna buka kako bi se poboljšala stabilnost napona i potencijal za overklok. Kao rezultat svih poboljšanja, energetska efikasnost referentne ploče je povećana za 6% u odnosu na GeForce GTX 980.

A kako bi se razlikovali od "običnih" modela GeForce GTX 1080 i spolja, za Founders Edition je razvijen neobičan "isjeckani" dizajn kućišta. Što je, međutim, vjerovatno dovelo i do komplikacije oblika isparne komore i hladnjaka (vidi sliku), što je možda bio jedan od razloga da se za ovako specijalno izdanje doplati 100 dolara. Ponavljamo da na početku prodaje kupci neće imati mnogo izbora, ali će u budućnosti biti moguće izabrati kako rješenje sa vlastitim dizajnom od nekog od partnera kompanije, tako i izvođenje same Nvidie.

Nova generacija Pascal grafičke arhitekture

GeForce GTX 1080 video kartica je prvo rješenje kompanije bazirano na GP104 čipu, koji pripada novoj generaciji Nvidijine Pascal grafičke arhitekture. Iako je nova arhitektura bazirana na rješenjima razrađenim u Maxwellu, ona ima i bitne funkcionalne razlike, o kojima ćemo pisati kasnije. Glavna promjena sa globalne tačke gledišta bio je novi tehnološki proces, prema kojem je napravljen novi grafički procesor.

Upotreba 16 nm FinFET procesne tehnologije u proizvodnji GP104 GPU-a u tvornicama tajvanske kompanije TSMC omogućila je značajno povećanje složenosti čipa uz održavanje relativno niske površine i cijene. Uporedite broj tranzistora i površinu čipova GP104 i GM204 - oni su bliski po površini (čip novine je još fizički manji), ali čip arhitekture Pascal ima znatno veći broj tranzistora, i, shodno tome , izvršne jedinice, uključujući one koje pružaju novu funkcionalnost.

Sa arhitektonske tačke gledišta, prvi gaming Pascal je veoma sličan sličnim rešenjima Maxwell arhitekture, iako postoje neke razlike. Kao i Maxwell, procesori Pascal arhitekture će imati različite konfiguracije klastera za grafičku obradu (GPC), multiprocesora za strujanje (SM) i memorijskih kontrolera. SM multiprocesor je visoko paralelan multiprocesor koji raspoređuje i pokreće warps (warps, grupe od 32 toka instrukcija) na CUDA jezgri i drugim izvršnim jedinicama u multiprocesoru. Detaljne informacije o dizajnu svih ovih blokova možete pronaći u našim recenzijama prethodnih Nvidia rješenja.

Svaki od SM multiprocesora je uparen sa PolyMorph Engine-om, koji upravlja uzorkovanjem teksture, teselacijom, transformacijom, podešavanjem atributa vrha i korekcijom perspektive. Za razliku od prethodnih rešenja kompanije, PolyMorph Engine u GP104 čipu takođe sadrži novi blok Simultaneous Multi-Projection, o čemu ćemo govoriti u nastavku. Kombinacija SM multiprocesora sa jednim Polymorph Engine-om se tradicionalno naziva TPC - Texture Processor Cluster za Nvidiju.

Ukupno, GP104 čip u GeForce GTX 1080 sadrži četiri GPC klastera i 20 SM multiprocesora, kao i osam memorijskih kontrolera u kombinaciji sa 64 ROP-a. Svaki GPC klaster ima namenski mehanizam za rasterizaciju i uključuje pet SM-ova. Svaki multiprocesor se, zauzvrat, sastoji od 128 CUDA jezgri, 256 KB registarske datoteke, 96 KB zajedničke memorije, 48 KB L1 keš memorije i osam TMU teksturnih jedinica. To jest, ukupno GP104 sadrži 2560 CUDA jezgri i 160 TMU jedinica.

Takođe, grafički procesor na kojem je zasnovana GeForce GTX 1080 sadrži osam 32-bitnih (za razliku od 64-bitnih koji su se ranije koristili) memorijskih kontrolera, što nam daje konačnu 256-bitnu memorijsku magistralu. Osam ROP-ova i 256 KB L2 keš memorije su vezani za svaki od memorijskih kontrolera. To jest, ukupno, GP104 čip sadrži 64 ROP-a i 2048 KB L2 keš memorije.

Zahvaljujući arhitektonskim optimizacijama i novoj tehnologiji procesa, prvi Pascal za igre postao je energetski najefikasniji GPU ikada. Štaviše, tome doprinosi kako jedan od najnaprednijih tehnoloških procesa 16 nm FinFET, tako i optimizacije arhitekture sprovedene u Pascalu, u poređenju sa Maxwellom. Nvidia je uspjela povećati brzinu takta čak i više nego što su očekivali kada je prešla na novu procesnu tehnologiju. GP104 radi na višoj frekvenciji od hipotetičkog GM204 napravljenog 16nm procesom. Da bi to učinili, Nvidia inženjeri su morali pažljivo provjeriti i optimizirati sva uska grla prethodnih rješenja koja sprječavaju overklok iznad određenog praga. Kao rezultat, nova GeForce GTX 1080 radi preko 40% brže od GeForce GTX 980. Ali to nije sve što se tiče promjena takta GPU-a.

GPU Boost 3.0 tehnologija

Kao što dobro znamo iz prethodnih Nvidia grafičkih kartica, oni koriste GPU Boost hardversku tehnologiju u svojim GPU-ovima, dizajniranu da poveća radnu brzinu GPU-a u načinima u kojima još nije dostigao svoju potrošnju energije i termalne granice. Tokom godina, ovaj algoritam je doživio mnoge promjene, a treća generacija ove tehnologije već se koristi u video čipu Pascal arhitekture - GPU Boost 3.0, čija je glavna inovacija finije podešavanje turbo frekvencija, ovisno o naponu.

Ako se sjećate principa rada prethodnih verzija tehnologije, tada je razlika između osnovne frekvencije (zajamčena minimalna vrijednost frekvencije ispod koje GPU ne pada, barem u igrama) i turbo frekvencije bila fiksna. Odnosno, turbo frekvencija je uvijek bila određeni broj megaherca iznad baze. GPU Boost 3.0 je uveo mogućnost postavljanja pomaka turbo frekvencije za svaki napon posebno. Najlakši način da to shvatite je pomoću ilustracije:

Na lijevoj strani je GPU Boost druge verzije, desno - treće, koji se pojavio u Pascal-u. Fiksna razlika između bazne i turbo frekvencije nije dopuštala da se otkriju pune mogućnosti GPU-a, u nekim slučajevima GPU-ovi prethodnih generacija mogli su raditi brže na postavljenom naponu, ali fiksni višak turbo frekvencije to nije dozvoljavao. U GPU Boost 3.0, ova funkcija se pojavila, a turbo frekvencija se može podesiti za svaku od pojedinačnih vrijednosti napona, potpuno istiskujući sav sok iz GPU-a.

Zgodni uslužni programi su potrebni za upravljanje overklokom i postavljanje krivulje turbo frekvencije. Sama Nvidia to ne radi, ali pomaže svojim partnerima da kreiraju takve uslužne programe kako bi olakšali overclocking (naravno, u razumnim granicama). Na primjer, nova funkcionalnost GPU Boost 3.0 je već otkrivena u EVGA Precision XOC, koja uključuje namjenski skener za overklok koji automatski pronalazi i postavlja nelinearnu razliku između osnovne frekvencije i turbo frekvencije na različitim naponima pokretanjem ugrađenog test performansi i stabilnosti. Kao rezultat, korisnik dobija turbo frekvencijsku krivulju koja savršeno odgovara mogućnostima određenog čipa. Što se, osim toga, može mijenjati kako želite u ručnom načinu rada.

Kao što možete vidjeti na snimku ekrana uslužnog programa, pored informacija o GPU-u i sistemu, postoje i postavke za overklokiranje: Power Target (određuje tipičnu potrošnju energije tokom overkloka, kao postotak od standarda), GPU Temp Target (maksimalna dozvoljena temperatura jezgre), GPU Clock Offset (premašavanje osnovne frekvencije za sve vrijednosti napona), Memory Offset (preko frekvencije video memorije iznad zadane vrijednosti), Overvoltage (dodatna mogućnost povećanja napona).

Precision XOC uslužni program uključuje tri načina overkloka: Osnovni, Linearni i Ručni. U glavnom modu, možete postaviti jednu vrijednost overkloka (fiksnu turbo frekvenciju) u odnosu na osnovnu, kao što je bio slučaj sa prethodnim GPU-ovima. Linearni način rada vam omogućava da postavite linearnu promjenu frekvencije od minimalnih do maksimalnih vrijednosti napona ​​​za GPU. Pa, u ručnom načinu rada, možete postaviti jedinstvene vrijednosti frekvencije GPU-a za svaku tačku napona na grafikonu.

Uslužni program također uključuje poseban skener za automatski overklok. Možete ili postaviti vlastite nivoe frekvencije ili dopustiti uslužnom programu Precision XOC da skenira GPU na svim naponima i potpuno automatski pronađe najstabilnije frekvencije za svaku tačku na krivulji napona i frekvencije. Tokom procesa skeniranja, Precision XOC postepeno povećava frekvenciju GPU-a i provjerava njegov rad na stabilnost ili artefakte, stvarajući idealnu krivu frekvencije i napona koja će biti jedinstvena za svaki specifični čip.

Ovaj skener se može prilagoditi vašim zahtjevima postavljanjem vremenskog intervala za testiranje svake vrijednosti napona, minimalne i maksimalne frekvencije koja se testira i njenog koraka. Jasno je da bi za postizanje stabilnih rezultata bilo bolje postaviti mali korak i pristojno trajanje testiranja. Tokom testiranja može se uočiti nestabilan rad video drajvera i sistema, ali ako se skener ne zamrzne, on će vratiti rad i nastaviti da pronalazi optimalne frekvencije.

Novi tip video memorije GDDR5X i poboljšana kompresija

Dakle, snaga GPU-a je značajno porasla, a memorijska magistrala je ostala samo 256-bitna - hoće li memorijski propusni opseg ograničiti ukupne performanse i šta se može učiniti po tom pitanju? Čini se da je obećavajuća druga generacija HBM-a još uvijek preskupa za proizvodnju, pa je trebalo tražiti druge opcije. Još od uvođenja GDDR5 memorije 2009. godine, Nvidia inženjeri istražuju mogućnosti korištenja novih tipova memorije. Kao rezultat toga, razvoj je došao do uvođenja novog memorijskog standarda GDDR5X - najkompleksnijeg i najnaprednijeg standarda do sada, koji daje brzinu prijenosa od 10 Gbps.

Nvidia daje zanimljiv primjer koliko je ovo brzo. Prođe samo 100 pikosekundi između prenošenih bitova - za to vrijeme, snop svjetlosti će putovati na udaljenosti od samo jednog inča (oko 2,5 cm). A kada se koristi GDDR5X memorija, kola za primanje podataka moraju odabrati vrijednost prenesenog bita za manje od polovine ovog vremena prije nego se sljedeći pošalje - ovo je samo da shvatite do čega je moderna tehnologija došla.

Postizanje ove brzine zahtijevalo je razvoj nove arhitekture I/O sistema koja je zahtijevala nekoliko godina zajedničkog razvoja sa proizvođačima memorijskih čipova. Pored povećane brzine prenosa podataka, povećana je i energetska efikasnost - GDDR5X memorijski čipovi koriste niži napon od 1,35 V i proizvedeni su po novim tehnologijama, što daje istu potrošnju energije na 43% višoj frekvenciji.

Inženjeri kompanije morali su da prerade linije za prenos podataka između GPU jezgra i memorijskih čipova, obraćajući više pažnje na sprečavanje gubitka signala i degradacije signala sve od memorije do GPU-a i nazad. Dakle, na gornjoj ilustraciji, uhvaćeni signal je prikazan kao veliko simetrično "oko", što ukazuje na dobru optimizaciju cijelog kola i relativnu lakoću hvatanja podataka iz signala. Štaviše, gore opisane promjene dovele su ne samo do mogućnosti korištenja GDDR5X na 10 GHz, već bi također trebale pomoći da se dobije veliki memorijski propusni opseg na budućim proizvodima koji koriste poznatiju GDDR5 memoriju.

Pa, dobili smo više od 40% povećanja memorijskog propusnog opsega upotrebom nove memorije. Ali zar to nije dovoljno? Kako bi dodatno povećala efikasnost memorijskog propusnog opsega, Nvidia je nastavila poboljšavati naprednu kompresiju podataka uvedenu u prethodnim arhitekturama. Memorijski podsistem u GeForce GTX 1080 koristi poboljšane i nekoliko novih tehnika kompresije podataka bez gubitaka dizajniranih da smanje zahtjeve za propusnost - već četvrtu generaciju on-chip kompresije.

Algoritmi za kompresiju podataka u memoriji donose nekoliko pozitivnih aspekata odjednom. Kompresija smanjuje količinu podataka upisanih u memoriju, isto se odnosi i na podatke koji se prenose iz video memorije u L2 keš memoriju, što poboljšava efikasnost korištenja L2 keš memorije, budući da komprimirana pločica (blok od nekoliko piksela bafera okvira) ima manju veličinu od nekompresovani. Takođe smanjuje količinu podataka poslatih između različitih tačaka, kao što su TMU modul teksture i framebuffer.

Cjevovod kompresije podataka u GPU-u koristi nekoliko algoritama, koji se određuju ovisno o "komprimibilnosti" podataka - za njih se bira najbolji dostupni algoritam. Jedan od najvažnijih je algoritam delta kompresije boja. Ova metoda kompresije kodira podatke kao razliku između uzastopnih vrijednosti umjesto samih podataka. GPU izračunava razliku u vrijednostima boja između piksela u bloku (pločica) i pohranjuje blok kao neku prosječnu boju za cijeli blok plus podatke o razlici vrijednosti za svaki piksel. Za grafičke podatke ova metoda je obično prikladna, jer se boja unutar malih pločica za sve piksele često ne razlikuje previše.

GP104 GPU u GeForce GTX 1080 podržava više algoritama kompresije od prethodnih čipova Maxwell arhitekture. Tako je algoritam kompresije 2:1 postao efikasniji, a osim njega pojavila su se dva nova algoritma: način kompresije 4:1, pogodan za slučajeve kada je razlika u vrijednosti boje piksela bloka veoma mali i režim 8:1, koji kombinuje konstantnu kompresiju 4:1 blokova 2×2 piksela sa 2x delta kompresijom između blokova. Kada kompresija uopće nije moguća, ne koristi se.

Međutim, u stvarnosti, ovo drugo se dešava vrlo rijetko. Ovo se može vidjeti iz primjera snimaka ekrana iz igre Project CARS, koju je Nvidia citirala da ilustruje povećani omjer kompresije u Pascalu. Na ilustracijama, one pločice bafera okvira koje je GPU mogao komprimirati su osenčene magentom, a one koje se ne mogu komprimirati bez gubitka ostaju originalne boje (gore - Maxwell, dolje - Pascal).

Kao što vidite, novi algoritmi kompresije u GP104 zaista rade mnogo bolje nego u Maxwellu. Iako je stara arhitektura takođe bila u stanju da komprimuje većinu pločica u sceni, mnogo trave i drveća oko ivica, kao i delova automobila, ne podležu starim algoritmima kompresije. Ali sa uključivanjem novih tehnika u Pascal, vrlo mali broj oblasti slike ostao je nekomprimovan - poboljšana efikasnost je evidentna.

Kao rezultat poboljšanja kompresije podataka, GeForce GTX 1080 je u stanju značajno smanjiti količinu podataka poslatih po kadru. U brojkama, poboljšana kompresija štedi dodatnih 20% efektivne propusnosti memorije. Pored više od 40% povećanja memorijskog propusnog opsega GeForce GTX 1080 u odnosu na GTX 980 od upotrebe GDDR5X memorije, sve ovo zajedno daje oko 70% povećanja efektivne propusnosti memorije u odnosu na model prethodne generacije.

Podrška za Async Compute

Većina modernih igara osim grafike koristi složene proračune. Na primjer, proračuni pri izračunavanju ponašanja fizičkih tijela mogu se vršiti ne prije ili poslije grafičkih proračuna, već istovremeno s njima, jer nisu međusobno povezani i ne ovise jedno o drugom unutar istog okvira. Drugi primjer je naknadna obrada već renderiranih okvira i obrada audio podataka, koja se također može izvoditi paralelno sa renderiranjem.

Još jedan jasan primjer upotrebe funkcionalnosti je tehnika asinhrone vremenske deformacije koja se koristi u VR sistemima za promjenu izlaznog okvira u skladu s kretanjem glave igrača neposredno prije nego što se prikaže, prekidajući renderiranje sljedećeg. Takvo asinhrono učitavanje GPU kapaciteta omogućava povećanje efikasnosti korišćenja njegovih izvršnih jedinica.

Ova radna opterećenja stvaraju dva nova scenarija upotrebe GPU-a. Prvi od njih uključuje opterećenja koja se preklapaju, jer mnoge vrste zadataka ne koriste u potpunosti mogućnosti GPU-a, a neki resursi su neaktivni. U takvim slučajevima, možete jednostavno pokrenuti dva različita zadatka na istom GPU-u, odvajajući njegove izvršne jedinice da biste dobili efikasniju upotrebu - na primjer, PhysX efekte koji se pokreću zajedno sa 3D prikazivanjem okvira.

Da bi se poboljšale performanse ovog scenarija, dinamičko balansiranje opterećenja je uvedeno u Pascal arhitekturu. U prethodnoj Maxwell arhitekturi, preklapajuća radna opterećenja su implementirana kao statička distribucija GPU resursa između grafike i računara. Ovaj pristup je efikasan pod uslovom da ravnoteža između dva posla otprilike odgovara podjeli resursa i da se zadaci odvijaju jednako u vremenu. Ako negrafički proračuni traju duže od grafičkih, a oba čekaju završetak zajedničkog posla, tada će dio GPU-a biti neaktivan preostalo vrijeme, što će uzrokovati smanjenje ukupnih performansi i poništiti sve prednosti. Hardversko dinamičko balansiranje opterećenja, s druge strane, omogućava vam da iskoristite oslobođene GPU resurse čim postanu dostupni - radi razumijevanja, daćemo ilustraciju.

Postoje i zadaci koji su vremenski kritični, a ovo je drugi scenario za asinkrono računanje. Na primjer, izvršenje algoritma asinhronog vremenskog iskrivljenja u VR-u mora se završiti prije skeniranja ili će okvir biti odbačen. U takvom slučaju, GPU mora podržati vrlo brz prekid zadatka i prebacivanje na drugi zadatak kako bi preuzeo manje kritičan zadatak od izvršenja na GPU-u, oslobađajući svoje resurse za kritične zadatke - to se zove preemption.

Jedna komanda renderovanja iz mašine za igru ​​može sadržati stotine poziva za crtanje, svaki poziv za crtanje zauzvrat sadrži stotine renderovanih trouglova, od kojih svaki sadrži stotine piksela koje treba izračunati i nacrtati. Tradicionalni GPU pristup koristi samo prekid zadataka na visokom nivou, a grafički cevovod mora čekati da se sav taj posao završi prije prebacivanja zadataka, što rezultira vrlo velikim kašnjenjem.

Da bi se ovo popravilo, Pascal arhitektura je prvo uvela mogućnost prekidanja zadatka na nivou piksela - Pixel Level Preemption. Izvršne jedinice Pascal GPU-a mogu stalno pratiti napredak zadataka renderiranja, a kada se zatraži prekid, mogu zaustaviti izvršenje, čuvajući kontekst za kasniji završetak brzim prelaskom na drugi zadatak.

Prekid i prekidač na nivou niti za računske operacije radi slično kao prekid na nivou piksela za grafičko računarstvo. Računarska radna opterećenja se sastoje od više mreža, od kojih svaka sadrži više niti. Kada se primi zahtjev za prekid, niti koje se pokreću na višeprocesoru prekidaju svoje izvršavanje. Drugi blokovi čuvaju svoje stanje kako bi nastavili sa iste tačke u budućnosti, a GPU se prebacuje na drugi zadatak. Cijeli proces prebacivanja zadataka traje manje od 100 mikrosekundi nakon izlaska pokrenutih niti.

Za radna opterećenja u igricama, kombinacija prekida na nivou piksela za grafiku i prekida na nivou niti za računarske zadatke daje GPU-ovima Pascal arhitekture mogućnost brzog prebacivanja između zadataka uz minimalni gubitak vremena. A za računske zadatke na CUDA-i, također je moguće prekinuti s minimalnom granularnošću - na nivou instrukcija. U ovom modu, sve niti zaustavljaju izvršenje odjednom, odmah prelazeći na drugi zadatak. Ovaj pristup zahtijeva čuvanje više informacija o stanju svih registara svake niti, ali je u nekim slučajevima negrafičkih proračuna sasvim opravdano.

Upotreba brzog prekida i prebacivanja zadataka u grafičkim i računskim zadacima dodata je Pascal arhitekturi tako da se grafički i negrafički zadaci mogu prekinuti na nivou pojedinačnih instrukcija, a ne cijelih niti, kao što je bio slučaj s Maxwellom i Keplerom. . Ove tehnologije mogu poboljšati asinhrono izvršavanje različitih GPU radnih opterećenja i poboljšati odziv pri pokretanju više zadataka istovremeno. Na Nvidia događaju su pokazali demonstraciju rada asinhronih proračuna na primjeru izračunavanja fizičkih efekata. Ako je bez asinhronih proračuna performanse bilo na nivou od 77-79 FPS, onda se uz uključivanje ovih karakteristika, brzina kadrova povećala na 93-94 FPS.

Već smo dali primjer jedne od mogućnosti korištenja ove funkcionalnosti u igricama u vidu asinhronog izobličenja vremena u VR-u. Ilustracija prikazuje rad ove tehnologije sa tradicionalnim prekidom (pretpremanjem) i brzo. U prvom slučaju, proces asinhronog vremenskog izobličenja pokušava se izvesti što je kasnije moguće, ali prije početka ažuriranja slike na displeju. Ali rad algoritma mora se dati na izvršenje u GPU-u nekoliko milisekundi ranije, jer bez brzog prekida ne postoji način da se tačno izvrši rad u pravo vrijeme, a GPU neko vrijeme miruje.

U slučaju preciznog prekida na nivou piksela i niti (prikazano desno), ova mogućnost daje veću tačnost u određivanju trenutka prekida, a asinhrono vremensko iskrivljavanje se može započeti mnogo kasnije s povjerenjem u završetak posla prije počinje ažuriranje informacija na ekranu. I u mirovanju neko vrijeme u prvom slučaju, GPU se može opteretiti dodatnim grafičkim radom.

Tehnologija simultane višestruke projekcije

Novi GP104 GPU dodaje podršku za novu tehnologiju simultane višestruke projekcije (SMP) koja omogućava GPU-u da efikasnije prikazuje podatke na modernim sistemima prikaza. SMP omogućava video čipu da istovremeno prikazuje podatke u nekoliko projekcija, što je zahtijevalo uvođenje novog hardverskog bloka u GPU kao dio PolyMorph motora na kraju geometrijskog cjevovoda prije bloka rasterizacije. Ovaj blok je odgovoran za rad sa višestrukim projekcijama za jedan geometrijski tok.

Mehanizam za više projekcija simultano obrađuje geometrijske podatke za 16 unaprijed konfiguriranih projekcija koje kombiniraju tačku projekcije (kamere), te se projekcije mogu nezavisno rotirati ili naginjati. Pošto se svaki primitiv geometrije može pojaviti istovremeno u višestrukim projekcijama, SMP motor pruža ovu funkcionalnost, omogućavajući aplikaciji da uputi video čipu da replicira geometriju do 32 puta (16 projekcija u dva centra projekcije) bez dodatne obrade.

Cijeli proces obrade je hardverski ubrzan, a budući da multiprojekcija radi nakon geometrijskog motora, ne treba više puta ponavljati sve faze obrade geometrije. Ušteđeni resursi su važni kada je brzina renderiranja ograničena performansama obrade geometrije, kao što je teselacija, kada se isti geometrijski rad izvodi nekoliko puta za svaku projekciju. Shodno tome, u vršnom slučaju, višestruka projekcija može smanjiti potrebu za obradom geometrije do 32 puta.

Ali zašto je sve ovo potrebno? Postoji nekoliko dobrih primjera gdje tehnologija višestrukih projekcija može biti korisna. Na primjer, sistem sa više monitora od tri displeja postavljena pod uglom jedan prema drugom dovoljno blizu korisniku (surround konfiguracija). U tipičnoj situaciji, scena se prikazuje u jednoj projekciji, što dovodi do geometrijskih izobličenja i pogrešnog renderiranja geometrije. Ispravan način su tri različite projekcije za svaki od monitora, u zavisnosti od ugla pod kojim se nalaze.

Sa video karticom na čipu sa Pascal arhitekturom, ovo se može uraditi u jednom geometrijskom prolazu, navodeći tri različite projekcije, svaka za drugi monitor. A korisnik će, tako, moći da promeni ugao pod kojim se monitori nalaze jedan prema drugom ne samo fizički, već i virtuelno - rotirajući projekcije za bočne monitore kako bi dobio ispravnu perspektivu u 3D sceni sa primetno širi ugao gledanja (FOV). Istina, ovdje postoji ograničenje - za takvu podršku, aplikacija mora biti u mogućnosti da prikaže scenu sa širokim FOV-om i koristi posebne SMP API pozive za postavljanje. Odnosno, ne možete to učiniti u svakoj igri, potrebna vam je posebna podrška.

U svakom slučaju, dani jedne projekcije na jednom ravnom monitoru su prošli, sada postoje mnoge konfiguracije sa više monitora i zakrivljeni displeji koji takođe mogu koristiti ovu tehnologiju. Da ne spominjemo sisteme virtuelne stvarnosti koji koriste specijalna sočiva između ekrana i očiju korisnika, a koja zahtevaju nove tehnike za projektovanje 3D slike u 2D sliku. Mnoge od ovih tehnologija i tehnika su još uvijek u ranom razvoju, glavna stvar je da stariji GPU-ovi ne mogu efikasno koristiti više od jedne planarne projekcije. Oni zahtijevaju više prolaza za renderiranje, višestruku obradu iste geometrije, itd.

Maxwell čipovi su imali ograničenu podršku za Multi-Resolution kako bi se povećala efikasnost, ali Pascalov SMP može učiniti mnogo više. Maxwell je mogao rotirati projekciju za 90 stupnjeva za mapiranje kocke ili različite rezolucije projekcije, ali to je bilo korisno samo u ograničenom rasponu aplikacija kao što je VXGI.

Ostale mogućnosti za korištenje SMP-a uključuju renderiranje u različitim rezolucijama i stereo renderiranje u jednom prolazu. Na primjer, renderiranje u različitim rezolucijama (Multi-Res Shading) može se koristiti u igrama za optimizaciju performansi. Kada se primeni, koristi se viša rezolucija u centru kadra, a na periferiji se smanjuje da bi se postigla veća brzina renderovanja.

Stereo renderovanje u jednom prolazu se koristi u VR-u, već je dodato u VRWorks paket i koristi funkciju višestruke projekcije da smanji količinu geometrijskog rada potrebnog u VR renderovanju. Ako se koristi ova funkcija, GeForce GTX 1080 GPU obrađuje geometriju scene samo jednom, generirajući dvije projekcije za svako oko odjednom, što smanjuje geometrijsko opterećenje GPU-a za polovicu, a također smanjuje gubitke od drajvera i OS-a.

Još naprednija tehnika za poboljšanje efikasnosti VR renderovanja je Sjenčanje s podudarnim objektivom, koje koristi višestruke projekcije za simulaciju geometrijskih izobličenja potrebnih za VR renderiranje. Ova metoda koristi višestruku projekciju za renderiranje 3D scene na površinu koja je aproksimirana površini prilagođenoj sočivima kada se renderira za izlaz VR slušalica, izbjegavajući mnoge dodatne piksele na periferiji koji bi bili odbačeni. Najlakši način da shvatite suštinu metode je ilustracijom - četiri blago proširene projekcije se koriste ispred svakog oka (u Pascalu možete koristiti 16 projekcija za svako oko - da biste preciznije simulirali zakrivljeno sočivo) umjesto jedne:

Ovaj pristup može uštedjeti mnogo performansi. Na primjer, tipična Oculus Rift slika po oku je 1,1 megapiksela. Ali zbog razlike u projekcijama, za renderiranje originalna slika je 2,1 megapiksela - 86% više nego što je potrebno! Upotreba višestruke projekcije, implementirane u Pascal arhitekturi, omogućava smanjenje rezolucije renderirane slike na 1,4 megapiksela, postižući 1,5 puta uštedu u brzini obrade piksela, a također štedi propusni opseg memorije.

Uz dvostruku uštedu u brzini obrade geometrije zbog stereo renderiranja u jednom prolazu, grafički procesor GeForce GTX 1080 je u mogućnosti da pruži značajno povećanje performansi VR renderiranja, što je vrlo zahtjevno za brzinu obrade geometrije, pa čak i više od toga. obrada piksela.

Poboljšanja u video izlazu i blokovima obrade

Osim performansi i nove funkcionalnosti vezane za 3D renderiranje, potrebno je održavati dobar nivo izlazne slike, kao i video dekodiranje i kodiranje. I prvi grafički procesor Pascal arhitekture nije razočarao - podržava sve moderne standarde u tom smislu, uključujući hardversko dekodiranje HEVC formata, koji je neophodan za gledanje 4K videa na PC-u. Takođe, budući vlasnici GeForce GTX 1080 grafičkih kartica uskoro će moći da uživaju u strimingu 4K videa sa Netflixa i drugih provajdera na svojim sistemima.

Što se tiče izlaza ekrana, GeForce GTX 1080 ima podršku za HDMI 2.0b sa HDCP 2.2 kao i DisplayPort. Do sada je certificirana verzija DP 1.2, ali je GPU spreman za sertifikaciju za novije verzije standarda: DP 1.3 Ready i DP 1.4 Ready. Potonji omogućava da se 4K ekrani prikazuju na 120Hz, a 5K i 8K ekrani na 60Hz koristeći par DisplayPort 1.3 kablova. Ako je za GTX 980 maksimalna podržana rezolucija bila 5120x3200 na 60Hz, onda je za novi GTX 1080 model narasla na 7680x4320 na istih 60Hz. Referentni GeForce GTX 1080 ima tri DisplayPort izlaza, jedan HDMI 2.0b i jedan digitalni Dual-Link DVI.

Novi model Nvidia video kartice je također dobio poboljšani blok za dekodiranje i kodiranje video podataka. Dakle, GP104 čip je usklađen sa visokim standardima PlayReady 3.0 (SL3000) za streaming video reprodukciju, što vam omogućava da budete sigurni da će reprodukcija visokokvalitetnog sadržaja poznatih provajdera kao što je Netflix biti najvišeg kvaliteta i energetski efikasnog . Detalji o podršci za različite video formate tokom kodiranja i dekodiranja dati su u tabeli, novi proizvod je očito bolji od prethodnih rješenja:

Ali još zanimljivija novina je podrška za takozvane displeje visokog dinamičkog raspona (HDR), koji će uskoro postati široko rasprostranjeni na tržištu. Televizori su u prodaji već 2016. (sa četiri miliona HDR televizora koji će se prodati za samo godinu dana), a monitori iduće godine. HDR je najveći napredak u tehnologiji ekrana u posljednjih nekoliko godina, isporučujući dvostruko više tonova boja (75% vidljivog spektra naspram 33% za RGB), svjetlije ekrane (1000 nita) s većim omjerom kontrasta (10000:1) i bogatim bojama.

Pojava mogućnosti reprodukcije sadržaja sa većom razlikom u svjetlini i bogatijim i zasićenijim bojama približit će sliku na ekranu stvarnosti, crna boja će postati dublja, jako svjetlo će zasljepljivati, baš kao u stvarnom svijetu. . U skladu s tim, korisnici će vidjeti više detalja u svijetlim i tamnim područjima slike u poređenju sa standardnim monitorima i televizorima.

Za podršku HDR displeja, GeForce GTX 1080 ima sve što vam treba - 12-bitni izlaz u boji, podršku za standarde BT.2020 i SMPTE 2084 i HDMI 2.0b 10/12-bitni 4K HDR izlaz. rezoluciju, što je bio slučaj sa Maxwell. Osim toga, Pascal je dodao podršku za dekodiranje HEVC formata u 4K rezoluciji na 60 Hz i 10- ili 12-bitnoj boji, koja se koristi za HDR video, kao i kodiranje istog formata sa istim parametrima, ali samo u 10 -bit za HDR video snimanje ili streaming. Takođe, novitet je spreman za DisplayPort 1.4 standardizaciju za HDR prenos podataka preko ovog konektora.

Inače, HDR video kodiranje bi moglo biti potrebno u budućnosti kako bi se takvi podaci prenijeli sa kućnog računara na SHIELD igraću konzolu koja može igrati 10-bitni HEVC. Odnosno, korisnik će moći da emituje igru ​​sa računara u HDR formatu. Čekaj, gdje mogu nabaviti igrice sa takvom podrškom? Nvidia konstantno radi sa programerima igara na implementaciji ove podrške, dajući im sve što im je potrebno (podršku za drajvere, uzorke koda, itd.) za ispravan prikaz HDR slika koje su kompatibilne sa postojećim ekranima.

U trenutku objavljivanja video kartice, GeForce GTX 1080, igre kao što su Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle i Shadow Warrior 2 imaju podršku za HDR izlaz. Ali ova lista je očekuje se dopuna u bliskoj budućnosti.

Promjene u multi-chip SLI renderiranju

Bilo je i nekih promjena u vezi sa vlasničkom SLI multi-chip tehnologijom renderiranja, iako to niko nije očekivao. SLI koriste entuzijasti PC igara kako bi poboljšali performanse bilo do ekstrema pokretanjem najmoćnijih grafičkih kartica s jednim čipom u tandemu, ili da bi dobili vrlo visoku brzinu kadrova ograničavajući se na nekoliko rješenja srednjeg ranga koja su ponekad jeftinija od jedna vrhunska (kontroverzna odluka, ali oni to rade). Uz 4K monitore, igrači nemaju gotovo nikakve druge opcije osim instaliranja nekoliko video kartica, jer čak ni vrhunski modeli često ne mogu pružiti ugodnu igru ​​na maksimalnim postavkama u takvim uvjetima.

Jedna od važnih komponenti Nvidia SLI su mostovi koji povezuju video kartice u zajednički video podsistem i služe za organizaciju digitalnog kanala za prijenos podataka između njih. GeForce grafičke kartice tradicionalno imaju dvostruke SLI konektore koji su korišćeni za povezivanje dve ili četiri grafičke kartice u 3-Way i 4-Way SLI konfiguracijama. Svaka od video kartica je morala biti povezana sa svakom, budući da su svi GPU-ovi slali okvire koje su renderirali glavnom GPU-u, zbog čega su bila potrebna dva interfejsa na svakoj ploči.

Počevši od GeForce GTX 1080, sve Nvidia grafičke kartice bazirane na Pascal arhitekturi imaju dva SLI sučelja povezana zajedno kako bi se povećale performanse prijenosa podataka između grafičkih kartica, a ovaj novi dvokanalni SLI način rada poboljšava performanse i udobnost pri prikazivanju vizuelnih informacija na displeji veoma visoke rezolucije ili sistemi sa više monitora.

Za ovaj način rada bili su potrebni i novi mostovi, nazvani SLI HB. Kombinuju par GeForce GTX 1080 video kartica preko dva SLI kanala odjednom, iako su nove video kartice kompatibilne i sa starijim mostovima. Za rezolucije od 1920×1080 i 2560×1440 piksela pri brzini osvježavanja od 60 Hz, mogu se koristiti standardni mostovi, ali u zahtjevnijim modovima (4K, 5K i sistemi sa više monitora) samo će novi mostovi dati bolje rezultate u smislu glatke promjene okvira, iako će stari raditi, ali nešto lošije.

Takođe, kada se koriste SLI HB mostovi, interfejs podataka GeForce GTX 1080 radi na 650 MHz, u poređenju sa 400 MHz za konvencionalne SLI mostove na starijim GPU-ovima. Štaviše, za neke od teških starih mostova, veća brzina prenosa podataka je takođe dostupna sa video čipovima Pascal arhitekture. Uz povećanje brzine prijenosa podataka između GPU-a preko udvostručenog SLI sučelja sa povećanom frekvencijom rada, omogućen je i glatkiji prikaz okvira na ekranu u odnosu na prethodna rješenja:

Također treba napomenuti da je podrška za multi-chip renderiranje u DirectX 12 donekle drugačija od onoga što je ranije bilo uobičajeno. U najnovijoj verziji grafičkog API-ja, Microsoft je napravio mnoge promjene vezane za rad ovakvih video sistema. Za programere softvera, DX12 nudi dvije opcije za korištenje više GPU-a: Multi Display Adapter (MDA) i Linked Display Adapter (LDA) načini rada.

Štaviše, LDA način rada ima dva oblika: implicitni LDA (koji Nvidia koristi za SLI) i eksplicitni LDA (kada programer igre preuzme zadatak upravljanja multi-chip renderingom. MDA i eksplicitni LDA načini su upravo implementirani u DirectX 12 u kako bi programeri igara imali više slobode i mogućnosti kada koriste video sisteme sa više čipova. Razlika između načina rada je jasno vidljiva u sljedećoj tabeli:

U LDA modu, memorija svakog GPU-a se može povezati s memorijom drugog i prikazati kao veliki ukupni volumen, naravno, sa svim ograničenjima performansi kada se podaci preuzimaju iz "strane" memorije. U MDA režimu, memorija svakog GPU-a radi zasebno, a različiti GPU-ovi ne mogu direktno pristupiti podacima iz memorije drugog GPU-a. LDA režim je dizajniran za sisteme sa više čipova sličnih performansi, dok je MDA režim manje restriktivan i može raditi zajedno sa diskretnim i integrisanim GPU-ima ili diskretnim rešenjima sa čipovima različitih proizvođača. Ali ovaj način također zahtijeva više pažnje i rada od programera prilikom programiranja saradnje kako bi GPU-ovi mogli međusobno komunicirati.

Podrazumevano, SLI sistem zasnovan na GeForce GTX 1080 podržava samo dva GPU-a, a konfiguracije sa tri i četiri GPU-a su zvanično zastarele, jer modernim igrama postaje sve teže postići poboljšanje performansi dodavanjem trećeg i četvrtog GPU-a. Na primjer, mnoge igre se oslanjaju na mogućnosti centralnog procesora sistema kada rade na video sistemima sa više čipova, a nove igre sve više koriste temporalne (vremenske) tehnike koje koriste podatke iz prethodnih okvira, u kojima je efikasan rad nekoliko GPU-a odjednom. jednostavno nemoguće.

Međutim, rad sistema u drugim (ne-SLI) sistemima sa više čipova ostaje moguć, kao što su MDA ili LDA eksplicitni režimi u DirectX 12 ili SLI sistem sa dva čipa sa namenskim trećim GPU za PhysX fizičke efekte. Ali šta je sa rekordima u benčmarkovima, da li ih Nvidia zaista potpuno napušta? Ne, naravno, ali pošto su takvi sistemi u svijetu traženi od strane skoro nekoliko korisnika, za takve ultra-entuzijaste je izmišljen poseban Enthusiast Key, koji se može preuzeti sa Nvidia web stranice i otključati ovu funkciju. Da biste to učinili, prvo morate dobiti jedinstveni GPU ID pokretanjem posebne aplikacije, zatim zatražiti Enthusiast Key na web stranici i, nakon preuzimanja, instalirati ključ u sistem, čime ćete otključati 3-Way i 4-Way SLI konfiguracije.

Tehnologija brze sinhronizacije

Došlo je do nekih promjena u tehnologijama sinhronizacije prilikom prikazivanja informacija na ekranu. Gledajući unaprijed, nema ništa novo u G-Sync-u, niti je podržana tehnologija Adaptive Sync. Ali Nvidia je odlučila poboljšati glatkoću izlaza i sinhronizaciju za igre koje pokazuju vrlo visoke performanse kada brzina kadrova značajno premašuje brzinu osvježavanja monitora. Ovo je posebno važno za igre koje zahtijevaju minimalno kašnjenje i brzu reakciju, a koje su bitke i takmičenja za više igrača.

Fast Sync je nova alternativa vertikalnoj sinhronizaciji koja nema vizuelne artefakte u obliku cepanja slike na slici i nije vezana za fiksnu brzinu osvežavanja, što povećava kašnjenja. Koji je problem s vertikalnom sinhronizacijom u igrama poput Counter-Strike: Global Offensive? Ova igra na moćnim modernim GPU-ovima radi na nekoliko stotina frejmova u sekundi, a igrač ima izbor da li će omogućiti v-sync ili ne.

U igricama za više igrača, korisnici najčešće jure za minimalnim kašnjenjima i onemogućuju VSync, čime se jasno vidi trganje na slici, što je izuzetno neugodno čak i pri visokim brzinama kadrova. Ako uključite v-sync, tada će igrač doživjeti značajno povećanje kašnjenja između njegovih radnji i slike na ekranu, kada se grafički cjevovod uspori do brzine osvježavanja monitora.

Ovako radi tradicionalni cevovod. Ali Nvidia je odlučila da odvoji proces renderovanja i prikazivanja slike na ekranu koristeći tehnologiju Fast Sync. Ovo omogućava dijelu GPU-a koji prikazuje okvire punom brzinom da nastavi raditi s maksimalnom efikasnošću pohranjivanjem tih okvira u poseban privremeni posljednji renderirani bafer.

Ova metoda vam omogućava da promijenite način prikaza i iskoristite najbolje od režima VSync On i VSync Off, uz malu latenciju, ali bez artefakata slike. Uz Fast Sync, nema kontrole toka okvira, motor igre radi u sinkroniziranom modu i nije mu rečeno da čeka da se nacrta još jedan, tako da su latencije skoro jednako niske kao VSync Off mod. Ali pošto Fast Sync samostalno bira bafer za prikaz na ekranu i prikazuje ceo okvir, nema ni prekida slike.

Fast Sync koristi tri različita bafera, od kojih prva dva rade slično dvostrukom baferovanju u klasičnom pipelineu. Primarni bafer (Front Buffer - FB) je bafer, informacije iz kojeg se prikazuju na displeju, potpuno renderovani okvir. Povratni bafer (Back Buffer - BB) je bafer koji prima informacije prilikom renderiranja.

Kada se koristi vertikalna sinhronizacija u uslovima visoke brzine kadrova, igra čeka dok se ne dostigne interval osvježavanja kako bi zamijenila primarni bafer sa sekundarnim kako bi prikazala sliku jednog kadra na ekranu. Ovo usporava stvari, a dodavanje dodatnih bafera poput tradicionalnog trostrukog bafera samo će povećati kašnjenje.

Uz Fast Sync, dodaje se treći zadnji renderirani bafer (LRB), koji se koristi za pohranjivanje svih okvira koji su upravo prikazani u sekundarnom baferu. Naziv bafera govori sam za sebe, sadrži kopiju posljednjeg potpuno renderiranog okvira. A kada dođe trenutak za ažuriranje primarnog bafera, ovaj LRB bafer se kopira u primarni bafer u celini, a ne u delovima, kao iz sekundarnog bafera sa onemogućenom vertikalnom sinhronizacijom. Pošto je kopiranje informacija iz bafera neefikasno, oni se jednostavno zamjenjuju (ili preimenuju, kako bi bilo lakše razumjeti), a nova logika zamjene bafera, uvedena u GP104, upravlja ovim procesom.

U praksi, uključivanje nove metode sinhronizacije Fast Sync i dalje obezbeđuje nešto veće kašnjenje u odnosu na potpuno onemogućenu vertikalnu sinhronizaciju – u proseku 8 ms više, ali prikazuje okvire na monitoru u celini, bez neprijatnih artefakata na ekranu. pocepati sliku. Nova metoda se može omogućiti iz grafičkih postavki Nvidia kontrolne ploče u odjeljku za kontrolu vertikalne sinhronizacije. Međutim, zadana vrijednost ostaje kontrola aplikacije, a omogućavanje Fast Sync u svim 3D aplikacijama jednostavno nije potrebno, bolje je odabrati ovu metodu posebno za igre s visokim FPS-om.

Tehnologija virtuelne stvarnosti Nvidia VRWorks

Dotakli smo se vruće teme VR-a više puta u ovom članku, ali se uglavnom radi o povećanju brzine kadrova i osiguravanju niske latencije, što je vrlo važno za VR. Sve je to jako važno i napredak zaista postoji, ali do sada VR igre ne izgledaju ni blizu tako impresivno kao najbolje od "običnih" modernih 3D igara. To se događa ne samo zato što se vodeći programeri igara još nisu posebno bavili VR aplikacijama, već i zato što je VR zahtjevniji za brzinu kadrova, što zbog velikih zahtjeva onemogućava korištenje mnogih uobičajenih tehnika u takvim igrama.

Kako bi smanjila razliku u kvaliteti između VR i običnih igara, Nvidia je odlučila da objavi cijeli paket povezanih VRWorks tehnologija, koji uključuje veliki broj API-ja, biblioteka, motora i tehnologija koje mogu značajno poboljšati i kvalitetu i performanse VR aplikacije. Kako se to odnosi na najavu prvog rješenja za igre u Pascalu? Vrlo je jednostavno – u njega su uvedene neke tehnologije koje pomažu u povećanju produktivnosti i poboljšanju kvaliteta, o čemu smo već pisali.

I iako se ne tiče samo grafike, prvo ćemo malo o tome. Skup VRWorks Graphics tehnologija uključuje prethodno navedene tehnologije, kao što je Lens Matched Shading, koristeći funkciju višestruke projekcije koja se pojavila u GeForce GTX 1080. Novi proizvod vam omogućava povećanje performansi od 1,5-2 puta u odnosu na rješenja koja nemaju takvu podršku. Spomenuli smo i druge tehnologije, kao što je MultiRes Shading, dizajnirane za renderiranje u različitim rezolucijama u centru okvira i na njegovoj periferiji.

No, mnogo neočekivanija je bila najava VRWorks Audio tehnologije, dizajnirane za visokokvalitetno izračunavanje zvučnih podataka u 3D scenama, što je posebno važno u sistemima virtuelne stvarnosti. U konvencionalnim motorima, pozicioniranje izvora zvuka u virtuelnom okruženju izračunato je sasvim ispravno, ako neprijatelj puca s desne strane, onda je zvuk jači s ove strane audio sistema, a takav proračun nije previše zahtjevan za računsku snagu .

Ali u stvarnosti, zvuci idu ne samo prema igraču, već u svim smjerovima i odbijaju se od raznih materijala, slično kao što se odbijaju svjetlosne zrake. I u stvarnosti, mi čujemo ove refleksije, iako ne tako jasno kao direktni zvučni talasi. Ove indirektne refleksije zvuka obično se simuliraju posebnim efektima reverbiranja, ali ovo je vrlo primitivan pristup zadatku.

VRWorks Audio koristi renderiranje zvučnih valova slično praćenju zraka u renderiranju, gdje se putanja svjetlosnih zraka prati do višestrukih refleksija od objekata u virtuelnoj sceni. VRWorks Audio takođe simulira širenje zvučnih talasa u okolini kada se prate direktni i reflektovani talasi, u zavisnosti od njihovog upadnog ugla i svojstava reflektujućih materijala. U svom radu, VRWorks Audio koristi Nvidia OptiX ray tracing engine visokih performansi poznat po grafičkim zadacima. OptiX se može koristiti za razne zadatke kao što su indirektno izračunavanje osvjetljenja i mapiranje svjetla, a sada i za praćenje zvučnih valova VRWorks Audio.

Nvidia je ugradila tačan proračun zvučnih talasa u svoj VR Funhouse demo, koji koristi nekoliko hiljada zraka i izračunava do 12 refleksija od objekata. A kako biste naučili prednosti tehnologije koristeći jasan primjer, predlažemo da pogledate video o radu tehnologije na ruskom:

Važno je da se Nvidijin pristup razlikuje od tradicionalnih zvučnih motora, uključujući hardverski ubrzani metod od glavnog konkurenta koristeći poseban blok u GPU-u. Sve ove metode daju samo tačno pozicioniranje izvora zvuka, ali ne izračunavaju refleksije zvučnih talasa od objekata u 3D sceni, iako to mogu simulirati koristeći efekat reverb. Međutim, korištenje tehnologije praćenja zraka može biti mnogo realnije, jer će samo takav pristup omogućiti preciznu imitaciju različitih zvukova, uzimajući u obzir veličinu, oblik i materijale objekata u sceni. Teško je reći da li je takva računska preciznost potrebna za tipičnog igrača, ali možemo sa sigurnošću reći: u VR-u, to može dodati korisnicima sam realizam koji još uvijek nedostaje konvencionalnim igrama.

Pa, ostaje nam da kažemo samo o VR SLI tehnologiji, koja radi i u OpenGL-u i u DirectX-u. Njegov princip je izuzetno jednostavan: video sistem sa dva GPU-a u VR aplikaciji će raditi na takav način da je svakom oku dodeljen poseban GPU, za razliku od AFR renderovanja poznatog SLI konfiguracijama. Ovo uvelike poboljšava ukupne performanse, što je toliko važno za sisteme virtuelne stvarnosti. Teoretski, može se koristiti više GPU-a, ali njihov broj mora biti paran.

Ovaj pristup je bio potreban jer AFR nije dobro prikladan za VR, jer će uz njegovu pomoć prvi GPU nacrtati paran okvir za oba oka, a drugi će prikazati neparan, što ne smanjuje kašnjenja koja su kritična za virtualno sistemi stvarnosti. Iako će brzina kadrova biti prilično visoka. Dakle, uz pomoć VR SLI, rad na svakom okviru je podijeljen na dva GPU-a - jedan radi na dijelu okvira za lijevo oko, drugi za desno, a zatim se ove polovine okvira spajaju u cjelinu.

Ovakva podjela rada između para GPU-a donosi 2x povećanje performansi, omogućavajući veće brzine kadrova i manje kašnjenje u poređenju sa sistemima baziranim na jednom GPU-u. Istina, upotreba VR SLI zahtijeva posebnu podršku aplikacije da bi se koristila ova metoda skaliranja. Ali VR SLI tehnologija je već ugrađena u VR demo aplikacije kao što su Valve The Lab i ILMxLAB Trials na Tatooineu, a to je samo početak - Nvidia obećava da će uskoro doći i druge aplikacije, kao i da će tehnologiju donijeti na Unreal Engine 4, Unity i Max Igraj.

Ansel Game Screenshot platforma

Jedna od najzanimljivijih najava vezanih za softver bilo je izdavanje tehnologije za snimanje visokokvalitetnih snimaka ekrana u aplikacijama za igre, nazvane po jednom poznatom fotografu - Anselu. Igre odavno nisu samo igre, već i mjesto za korištenje razigranih ruku za različite kreativne ličnosti. Neko mijenja skripte za igre, neko izdaje visokokvalitetne setove tekstura za igre, a neko pravi prekrasne snimke ekrana.

Nvidia je odlučila pomoći potonjem uvođenjem nove platforme za kreiranje (naime, kreiranje, jer to nije tako lak proces) visokokvalitetnih snimaka iz igara. Vjeruju da Ansel može pomoći u stvaranju nove vrste suvremene umjetnosti. Uostalom, već postoji dosta umjetnika koji većinu svog života provode na PC-u, stvarajući prekrasne snimke ekrana iz igara, a još uvijek nisu imali pogodan alat za to.

Ansel vam omogućava ne samo da snimite sliku u igri, već je i promijenite kako kreatoru treba. Koristeći ovu tehnologiju, možete pomicati kameru po sceni, rotirati je i naginjati u bilo kojem smjeru kako biste dobili željenu kompoziciju kadra. Na primjer, u igrama kao što su pucačine iz prvog lica, možete samo pomicati igrača, ne možete promijeniti ništa drugo, tako da su svi snimci ekrana prilično monotoni. Uz besplatnu kameru u Anselu, možete ići daleko dalje od kamere za igranje tako što ćete odabrati ugao koji vam je potreban za dobru sliku, ili čak snimiti punu stereo sliku od 360 stepeni sa tražene tačke iu visokoj rezoluciji za kasnije gledanje u VR kaciga.

Ansel radi prilično jednostavno - uz pomoć posebne biblioteke iz Nvidije, ova platforma je ugrađena u kod igre. Da bi to učinio, njegov programer treba samo da doda mali dio koda svom projektu kako bi omogućio Nvidia video drajveru da presreće podatke bafera i shadera. Ima jako malo posla koji treba obaviti, dovođenje Ansela u igru ​​traje manje od jednog dana za implementaciju. Dakle, za uključivanje ove funkcije u The Witness trebalo je oko 40 linija koda, au The Witcher 3 - oko 150 linija koda.

Ansel će se pojaviti sa otvorenim razvojnim paketom - SDK. Glavna stvar je da korisnik sa sobom dobije standardni set postavki koje mu omogućavaju promjenu položaja i kuta kamere, dodavanje efekata itd. Ansel platforma funkcionira ovako: pauzira igru, uključuje besplatnu kameru i omogućava vam da promijenite okvir u željeni prikaz snimanjem rezultata u obliku običnog screenshot-a, snimka od 360 stepeni, stereo para ili samo panorame visoke rezolucije.

Jedino upozorenje je da sve igre neće dobiti podršku za sve karakteristike platforme za snimke ekrana igre Ansel. Neki od programera igara, iz ovog ili onog razloga, ne žele uključiti potpuno besplatnu kameru u svoje igre - na primjer, zbog mogućnosti da varalice koriste ovu funkcionalnost. Ili žele da ograniče promjenu ugla gledanja iz istog razloga – da niko ne dobije nepravednu prednost. Pa, ili tako da korisnici ne vide mizerne sprajtove u pozadini. Sve su to sasvim normalne želje kreatora igrica.

Jedna od najzanimljivijih karakteristika Ansela je pravljenje snimaka ekrana jednostavno ogromne rezolucije. Nema veze što igra podržava rezolucije do 4K, na primjer, a monitor korisnika je Full HD. Koristeći platformu za snimanje ekrana, možete snimiti mnogo kvalitetniju sliku, ograničenu volumenom i performansama pogona. Platforma s lakoćom snima snimke ekrana do 4,5 gigapiksela, spojene od 3600 komada!

Jasno je da se na ovakvim slikama mogu vidjeti svi detalji, do teksta na novinama koji leže u daljini, ako je takav nivo detalja u principu predviđen u igrici - Ansel također može kontrolirati nivo detalja, postavljanje maksimalni nivo da biste dobili najbolji kvalitet slike. Ali još uvijek možete omogućiti superuzorkovanje. Sve ovo vam omogućava da kreirate slike iz igara koje možete bezbedno da štampate na velikim banerima i da budete mirni u pogledu njihovog kvaliteta.

Zanimljivo je da se za spajanje velikih slika koristi poseban hardverski ubrzan kod baziran na CUDA-i. Na kraju krajeva, nijedna video kartica ne može prikazati sliku od više gigapiksela u cijelosti, ali to može učiniti u komadima, koje je potrebno samo kasnije kombinirati, uzimajući u obzir moguću razliku u osvjetljenju, boji i tako dalje.

Nakon spajanja takvih panorama, koristi se posebna naknadna obrada za cijeli okvir, također ubrzana na GPU-u. A da biste snimili slike u većem dinamičkom rasponu, možete koristiti poseban format slike - EXR, otvoreni standard od Industrial Light and Magic, vrijednosti boja ​​​​na čijem se kanalu se snimaju u 16-bitnom formatu s pomičnim zarezom. (FP16).

Ovaj format vam omogućava da promijenite svjetlinu i dinamički raspon slike u naknadnoj obradi, dovodeći je do željenog za svaki konkretan prikaz na isti način kao što se radi sa RAW formatima sa kamera. A za naknadnu upotrebu filtera za naknadnu obradu u programima za obradu slika, ovaj format je vrlo koristan, jer sadrži mnogo više podataka od uobičajenih formata slika.

Ali sama platforma Ansel sadrži puno filtera za naknadnu obradu, što je posebno važno jer ima pristup ne samo finalnoj slici, već i svim baferima koje igra koristi prilikom renderiranja, a koji se mogu koristiti za vrlo zanimljive efekte , poput dubine polja. Da bi to uradio, Ansel ima poseban API za naknadnu obradu, a bilo koji od efekata može biti uključen u igru ​​sa podrškom za ovu platformu.

Ansel postfilteri uključuju: krivulje boja, prostor boja, transformaciju, desaturaciju, svjetlinu/kontrast, zrnatost filma, cvjetanje, odbljesak sočiva, anamorfni odsjaj, izobličenje, zamagljivanje, riblje oko, aberaciju boje, mapiranje tonova, prljavštinu sočiva, svjetlosne osovine, vinjetu, gama korekciju , konvolucija, izoštravanje, detekcija ivica, zamućenje, sepija, denoise, FXAA i drugi.

Što se tiče pojavljivanja Ansel podrške u igrama, onda ćemo morati malo pričekati dok je programeri implementiraju i testiraju. Ali Nvidia obećava da će se takva podrška uskoro pojaviti u tako poznatim igrama kao što su The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament i druge.

Nova 16nm FinFET procesna tehnologija i optimizacije arhitekture omogućile su grafičkoj kartici GeForce GTX 1080 baziranoj na GP104 GPU-u da postigne visok takt od 1,6-1,7 GHz čak iu referentnom obliku, a nova generacija garantuje najviše moguće frekvencije u igrama GPU Boost tehnologija. Zajedno sa povećanim brojem izvršnih jedinica, ova poboljšanja čine je ne samo najboljom grafičkom karticom s jednim čipom svih vremena, već i energetski najefikasnijim rješenjem na tržištu.

GeForce GTX 1080 je prva grafička kartica koja ima novu GDDR5X grafičku memoriju, novu generaciju brzih čipova koji postižu veoma visoke brzine prenosa podataka. U slučaju modifikovane GeForce GTX 1080, ova vrsta memorije radi na efektivnoj frekvenciji od 10 GHz. U kombinaciji sa poboljšanim algoritmima za kompresiju bafera okvira, ovo je rezultiralo 1,7x povećanjem efektivnog memorijskog opsega za ovaj GPU u poređenju sa njegovim direktnim prethodnikom, GeForce GTX 980.

Nvidia je mudro odlučila da ne pušta radikalno novu arhitekturu na potpuno novu procesnu tehnologiju za sebe, kako ne bi naišla na nepotrebne probleme tokom razvoja i proizvodnje. Umjesto toga, ozbiljno su poboljšali već dobru i vrlo efikasnu Maxwell arhitekturu dodavanjem nekih karakteristika. Kao rezultat toga, sve je u redu sa proizvodnjom novih GPU-a, a u slučaju modela GeForce GTX 1080, inženjeri su postigli vrlo visok frekvencijski potencijal - u overklokovanim verzijama od partnera, očekuje se frekvencija GPU-a do 2 GHz! Ovakva impresivna frekvencija postala je stvarnost zahvaljujući savršenom tehničkom procesu i mukotrpnom radu Nvidijinih inženjera na razvoju Pascal GPU-a.

I dok je Pascal direktan sljedbenik Maxwella, a ove grafičke arhitekture se u osnovi ne razlikuju previše jedna od druge, Nvidia je uvela mnoge promjene i poboljšanja, uključujući mogućnosti prikaza, video kodiranje i dekodiranje, poboljšano asinhrono izvršavanje različitih vrsta proračuna na GPU, napravio je promjene u prikazivanju s više čipova i uveo novu metodu sinhronizacije, Fast Sync.

Nemoguće je ne istaći tehnologiju Simultaneous Multi-Projection, koja pomaže da se poboljšaju performanse u sistemima virtuelne stvarnosti, dobije korektniji prikaz scena na sistemima sa više monitora i uvede nove tehnike optimizacije performansi. Ali VR aplikacije će doživjeti najveće povećanje brzine kada podržavaju tehnologiju višestrukih projekcija, koja pomaže da se GPU resursi uštede upola pri obradi geometrijskih podataka i jedan i po puta u proračunima po pikselu.

Među čisto softverskim promjenama ističe se platforma za kreiranje snimaka ekrana u igricama pod nazivom Ansel - bit će zanimljivo isprobati je u praksi ne samo za one koji se puno igraju, već i za one koji su jednostavno zainteresirani za visokokvalitetnu 3D grafiku . Novost vam omogućava da unapredite umetnost kreiranja i retuširanja snimaka ekrana na novi nivo. Pa, takve pakete za programere igara kao što su GameWorks i VRWorks, Nvidia samo nastavlja da se poboljšava korak po korak - pa se u potonjem pojavila zanimljiva mogućnost visokokvalitetnog proračuna zvuka, uzimajući u obzir brojne refleksije zvučnih valova pomoću hardverskih zraka praćenje.

Općenito, u obliku Nvidia GeForce GTX 1080 video kartice, na tržište je ušao pravi lider, koji ima sve potrebne kvalitete za to: visoke performanse i široku funkcionalnost, kao i podršku za nove funkcije i algoritme. Oni koji su prvi usvojili ovu grafičku karticu moći će da iskuse mnoge od ovih prednosti odmah, dok će ostale karakteristike rješenja biti otkrivene nešto kasnije, kada postoji široka podrška softvera. Glavna stvar je da se GeForce GTX 1080 pokazao veoma brzim i efikasnim, i, kako se zaista nadamo, Nvidia inženjeri su uspjeli popraviti neke od problematičnih područja (iste asinhrone proračune).

Grafički akcelerator GeForce GTX 1070

ParametarZnačenje
Naziv koda čipaGP104
Tehnologija proizvodnje16nm FinFET
Broj tranzistora7,2 milijarde
Područje jezgra314 mm²
ArhitekturaUnificiran, sa nizom uobičajenih procesora za stream obradu brojnih tipova podataka: vrhova, piksela, itd.
DirectX hardverska podrškaDirectX 12, sa podrškom za nivo funkcija 12_1
Memorijska magistrala256-bit: Osam nezavisnih 32-bitnih memorijskih kontrolera koji podržavaju GDDR5 i GDDR5X memoriju
GPU frekvencija1506 (1683) MHz
Računarski blokovi15 aktivnih (od 20 u čipu) streaming multiprocesora, uključujući 1920 (od 2560) skalarnih ALU-a za proračune s pokretnim zarezom u okviru IEEE 754-2008 standarda;
Teksturiranje blokova120 aktivnih (od 160 u čipu) jedinica za adresiranje i filtriranje teksture sa podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture
Rasterske operativne jedinice (ROP)8 širokih ROP-ova (64 piksela) sa podrškom za različite režime anti-aliasing, uključujući programabilne i sa FP16 ili FP32 formatom bafera okvira. Blokovi se sastoje od niza konfigurabilnih ALU-ova i odgovorni su za generiranje i poređenje dubine, višestruko uzorkovanje i miješanje
Podrška za monitorIntegrisana podrška za do četiri monitora povezana preko Dual Link DVI, HDMI 2.0b i DisplayPort 1.2 (1.3/1.4 Ready)

Specifikacije referentne grafike GeForce GTX 1070
ParametarZnačenje
Frekvencija jezgra1506 (1683) MHz
Broj univerzalnih procesora1920
Broj blokova teksture120
Broj blokova za miješanje64
Efektivna memorijska frekvencija8000 (4×2000) MHz
Vrsta memorijeGDDR5
Memorijska magistrala256-bitni
Memorija8 GB
Propusnost memorije256 GB/s
Performanse računara (FP32)oko 6,5 teraflopsa
Teoretska maksimalna stopa punjenja96 gigapiksela/s
Teorijska brzina uzorkovanja teksture181 gigateksela/s
TirePCI Express 3.0
KonektoriJedan Dual Link DVI, jedan HDMI i tri DisplayPort
potrošnja energijedo 150 W
Dodatna hranaJedan 8-pinski konektor
Broj slotova zauzetih u šasiji sistema2
Preporučena cijena379-449 dolara (SAD), 34.990 (Rusija)

GeForce GTX 1070 video kartica je također dobila logično ime slično istom rješenju iz prethodne GeForce serije. Od svog direktnog prethodnika GeForce GTX 970 razlikuje se samo po promijenjenoj generaciji. Novitet postaje korak ispod trenutnog vrhunskog rešenja GeForce GTX 1080 u trenutnoj liniji kompanije, koji je postao privremeni flagship nove serije do izlaska još moćnijih GPU rešenja.

Predložene cijene za Nvidijinu novu vrhunsku video karticu su 379 USD i 449 USD za regularno Nvidia Partners i Founders Edition, respektivno. U poređenju sa vrhunskim modelom, ovo je vrlo dobra cijena, s obzirom da GTX 1070 u najgorem slučaju zaostaje oko 25%. I u vrijeme najave i izdavanja, GTX 1070 postaje najbolje rješenje za performanse u svojoj klasi. Kao i GeForce GTX 1080, GTX 1070 nema direktnih konkurenata iz AMD-a i može se porediti samo sa Radeon R9 390X i Furyjem.

GP104 GPU u modifikaciji GeForce GTX 1070 odlučio je da ostavi punu 256-bitnu memorijsku magistralu, iako nisu koristili novi tip GDDR5X memorije, već vrlo brzi GDDR5, koji radi na visokoj efektivnoj frekvenciji od 8 GHz. Količina memorije instalirane na video kartici sa takvom magistralom može biti 4 ili 8 GB, a kako bi se osigurale maksimalne performanse novog rješenja u uvjetima visokih postavki i rezolucija renderiranja, opremljen je i model grafičke kartice GeForce GTX 1070 sa 8 GB video memorije, kao i njegova starija sestra. Ovaj volumen je dovoljan za pokretanje bilo koje 3D aplikacije s maksimalnim postavkama kvaliteta nekoliko godina.

GeForce GTX 1070 Founders Edition

Sa najavom GeForce GTX 1080 početkom maja, najavljeno je posebno izdanje video kartice pod nazivom Founders Edition, koja ima višu cijenu od običnih video kartica partnera kompanije. Isto važi i za novinu. U ovom članku ćemo ponovo govoriti o posebnom izdanju GeForce GTX 1070 video kartice pod nazivom Founders Edition. Kao iu slučaju starijeg modela, Nvidia je odlučila izbaciti ovu verziju referentne video kartice proizvođača po višoj cijeni. Tvrde da mnogi igrači i entuzijasti koji kupuju skupe vrhunske grafičke kartice žele proizvod sa odgovarajućim "premium" izgledom i dojmom.

U skladu s tim, upravo za takve korisnike će na tržište biti puštena GeForce GTX 1070 Founders Edition video kartica, koju dizajniraju i proizvode Nvidia inženjeri od vrhunskih materijala i komponenti, kao što je aluminijski poklopac GeForce GTX 1070 Founders Edition, kao i kao niskoprofilna zadnja ploča koja pokriva poleđinu PCB-a i prilično popularna među entuzijastima.

Kao što možete vidjeti na fotografijama ploče, GeForce GTX 1070 Founders Edition je naslijedio potpuno isti industrijski dizajn od referentne verzije GeForce GTX 1080 Founders Edition. Oba modela koriste radijalni ventilator koji izbacuje zagrijani zrak, što je vrlo korisno kako u malim kućištima tako iu multi-chip SLI konfiguracijama sa ograničenim fizičkim prostorom. Izduvavanjem zagrejanog vazduha umesto da ga cirkuliše unutar kućišta, možete smanjiti termički stres, poboljšati rezultate overkloka i produžiti život komponenti sistema.

Ispod poklopca referentnog rashladnog sistema GeForce GTX 1070 krije se posebno oblikovan aluminijumski radijator sa tri ugrađene bakarne toplotne cevi koje odvode toplotu iz samog GPU-a. Toplota koja se rasipa toplotnim cijevima se zatim odvodi pomoću aluminijskog hladnjaka. Pa, niskoprofilna metalna ploča na poleđini ploče je takođe dizajnirana da obezbedi bolje termičke performanse. Takođe ima deo koji se može uvući za bolji protok vazduha između više grafičkih kartica u SLI konfiguracijama.

Što se tiče sistema napajanja ploče, GeForce GTX 1070 Founders Edition ima četvorofazni sistem napajanja optimizovan za stabilno napajanje. Nvidia tvrdi da upotreba posebnih komponenti u GTX 1070 Founders Edition poboljšava energetsku efikasnost, stabilnost i pouzdanost u odnosu na GeForce GTX 970, pružajući bolje performanse overkloka. U sopstvenim testovima kompanije, GeForce GTX 1070 grafički procesori lako su premašili 1,9 GHz, što je blizu rezultata starijeg GTX 1080 modela.

Nvidia GeForce GTX 1070 grafička kartica će biti dostupna u maloprodajnim objektima od 10. juna. Preporučene cijene za GeForce GTX 1070 Founders Edition i partnerska rješenja su različite, a ovo je glavno pitanje za ovo specijalno izdanje. Ako Nvidia partneri prodaju svoje GeForce GTX 1070 grafičke kartice već od 379 dolara (na američkom tržištu), onda će Nvidijin referentni dizajn Founders Edition koštati samo 449 dolara. Ima li mnogo entuzijasta koji su spremni preplatiti, da se razumijemo, sumnjive prednosti referentne verzije? Vrijeme će pokazati, ali vjerujemo da je referentna naknada zanimljivija kao opcija dostupna za kupovinu na samom početku prodaje, a kasnije je tačka sticanja (pa čak i po visokoj cijeni!) već svedena na nulu.

Ostaje da dodamo da je štampana ploča referentne GeForce GTX 1070 slična onoj kod starije video kartice, a obe se razlikuju od uređaja prethodnih ploča kompanije. Tipična vrijednost potrošnje energije za novi proizvod je 150 W, što je skoro 20% manje od vrijednosti za GTX 1080 i blizu potrošnje energije prethodne generacije GeForce GTX 970 video kartice. Nvidia referentna ploča ima poznati set konektora za povezivanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort. Štaviše, postoji podrška za nove verzije HDMI i DisplayPort-a, o čemu smo pisali gore u recenziji GTX 1080 modela.

Arhitektonske promjene

GeForce GTX 1070 je baziran na GP104 čipu, prvom u novoj generaciji Nvidijine Pascal grafičke arhitekture. Ova arhitektura je zasnovana na rešenjima razvijenim još u Maxwellu, ali ima i neke funkcionalne razlike o kojima smo detaljno pisali gore – u delu posvećenom vrhunskoj GeForce GTX 1080 video kartici.

Glavna promjena nove arhitekture bio je tehnološki proces kojim će se izvoditi svi novi GPU-ovi. Upotreba 16 nm FinFET proizvodnog procesa u proizvodnji GP104 omogućila je značajno povećanje složenosti čipa uz zadržavanje relativno niske površine i cijene, a prvi čip Pascal arhitekture ima znatno veći broj izvršenja. jedinice, uključujući one koje pružaju novu funkcionalnost, u poređenju sa Maxwell čipovima sličnog pozicioniranja.

GP104 video čip je po svom dizajnu sličan sličnim rješenjima Maxwell arhitekture, a detaljne informacije o dizajnu modernih GPU-a možete pronaći u našim recenzijama prethodnih Nvidia rješenja. Kao i prethodni GPU-ovi, čipovi nove arhitekture će imati drugačiju konfiguraciju Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) i memorijski kontroleri, a neke promjene su se već dogodile na GeForce GTX 1070 - dio čipa je zaključan i neaktivan (istaknut sivom bojom):

Iako GP104 GPU uključuje četiri GPC klastera i 20 SM multiprocesora, u verziji za GeForce GTX 1070 dobio je smanjenu modifikaciju sa jednim GPC klasterom koji je hardverski onemogućen. Budući da svaki GPC klaster ima namjenski motor za rasterizaciju i uključuje pet SM-ova, a svaki multiprocesor se sastoji od 128 CUDA jezgri i osam teksturnih TMU-ova, 1920 CUDA jezgri i 120 TMU-ova od 2560 stream procesora su aktivni u ovoj verziji GP104 i 160 fizičkih teksturnih jedinica.

Grafički procesor na kojem je baziran GeForce GTX 1070 sadrži osam 32-bitnih memorijskih kontrolera, što rezultira ukupnom 256-bitnom memorijskom magistralom - baš kao u slučaju starijeg modela GTX 1080. Memorijski podsistem nije isječen po redu. da obezbedi dovoljno visok propusni opseg memorije uz uslov korišćenja GDDR5 memorije u GeForce GTX 1070. Svaki od memorijskih kontrolera ima osam ROP-ova i 256 KB L2 keš memorije, tako da GP104 čip u ovoj modifikaciji takođe sadrži 64 ROP-a i 2048 KB L2 nivo keš memorije.

Zahvaljujući arhitektonskim optimizacijama i novoj tehnologiji procesa, GP104 GPU je postao energetski najefikasniji GPU do sada. Nvidia inženjeri su uspjeli povećati brzinu takta više nego što su očekivali pri prelasku na novi proces, za koji su morali vrijedno raditi, pažljivo provjeravajući i optimizirajući sva uska grla prethodnih rješenja koja im nisu dozvoljavala da rade na višoj frekvenciji. Shodno tome, GeForce GTX 1070 takođe radi na veoma visokoj frekvenciji, više od 40% više od referentne vrednosti za GeForce GTX 970.

Pošto je GeForce GTX 1070, u suštini, samo nešto manje produktivna GTX 1080 sa GDDR5 memorijom, podržava apsolutno sve tehnologije koje smo opisali u prethodnom odeljku. Za više detalja o Pascal arhitekturi, kao i tehnologijama koje podržava, kao što su poboljšane jedinice za obradu izlaza i videa, podrška za Async Compute, tehnologiju simultane višestruke projekcije, promjene u SLI multi-chip renderiranju i novu Fast Sync sinhronizaciju tipa, vrijedi pročitati s odjeljkom o GTX 1080.

GDDR5 memorija visokih performansi i njena efikasna upotreba

Gore smo pisali o promjenama u memorijskom podsistemu GP104 GPU-a, na kojem su zasnovani modeli GeForce GTX 1080 i GTX 1070 - memorijski kontroleri uključeni u ovaj GPU podržavaju i novi tip GDDR5X video memorije, što je detaljno opisano u GTX 1080 recenziju, kao i dobru staru GDDR5 memoriju koju poznajemo već nekoliko godina.

Kako ne bi gubili previše u memorijskom propusnom opsegu kod mlađeg GTX 1070 u odnosu na stariju GTX 1080, svih osam 32-bitnih memorijskih kontrolera je ostalo aktivnih u njemu, dobijajući puni 256-bitni zajednički video memorijski interfejs. Osim toga, video kartica je opremljena najbržom GDDR5 memorijom dostupnom na tržištu – efektivnom radnom frekvencijom od 8 GHz. Sve to je omogućilo memorijski propusni opseg od 256 GB/s, za razliku od 320 GB/s kod starijeg rješenja - računarske mogućnosti su smanjene otprilike za isti iznos, tako da je balans zadržan.

Imajte na umu da, iako je vršni teoretski propusni opseg važan za performanse GPU-a, morate obratiti pažnju i na njegovu efikasnost. Tokom procesa renderovanja, mnoga različita uska grla mogu ograničiti ukupne performanse, sprečavajući upotrebu sve raspoložive memorijske propusnosti. Da bi se minimizirala ova uska grla, GPU-ovi koriste posebnu kompresiju bez gubitaka kako bi poboljšali efikasnost čitanja i pisanja podataka.

Četvrta generacija delta kompresije informacija bafera već je uvedena u Pascal arhitekturu, što omogućava GPU-u da efikasnije koristi dostupne mogućnosti magistrale video memorije. Memorijski podsistem u GeForce GTX 1070 i GTX 1080 koristi poboljšane stare i nekoliko novih tehnika kompresije podataka bez gubitaka dizajniranih da smanje zahtjeve za propusnost. Ovo smanjuje količinu podataka upisanih u memoriju, poboljšava efikasnost L2 keš memorije i smanjuje količinu podataka koji se šalju između različitih tačaka na GPU-u, kao što su TMU i framebuffer.

GPU Boost 3.0 i funkcije overkloka

Većina Nvidijinih partnera je već najavila fabrički overklokovana rješenja zasnovana na GeForce GTX 1080 i GTX 1070. Mnogi proizvođači video kartica također kreiraju posebne uslužne programe za overklok koji vam omogućavaju korištenje nove funkcionalnosti GPU Boost 3.0 tehnologije. Jedan primjer takvih uslužnih programa je EVGA Precision XOC, koji uključuje automatski skener za određivanje krivulje napon-frekvencija - u ovom načinu rada, za svaku vrijednost napona, pokretanjem testa stabilnosti, nalazi se stabilna frekvencija na kojoj GPU daje povećanje performansi. Međutim, ova kriva se može mijenjati i ručno.

Tehnologiju GPU Boost dobro poznajemo sa prethodnih Nvidia grafičkih kartica. U svojim GPU-ovima koriste ovu hardversku karakteristiku, koja je dizajnirana da poveća radnu brzinu GPU-a u režimima u kojima još nije dostigao granice potrošnje energije i rasipanje toplote. U Pascal GPU-ovima ovaj algoritam je prošao kroz nekoliko promjena, od kojih je glavna finije podešavanje turbo frekvencija, ovisno o naponu.

Ako je ranije razlika između osnovne frekvencije i turbo frekvencije bila fiksirana, tada je u GPU Boost 3.0 postalo moguće podesiti pomake turbo frekvencije za svaki napon posebno. Sada se turbo frekvencija može podesiti za svaku od pojedinačnih vrijednosti napona, što vam omogućava da u potpunosti istisnete sve mogućnosti overkloka iz GPU-a. O ovoj funkciji smo pisali detaljno u pregledu GeForce GTX 1080, a za to možete koristiti uslužne programe EVGA Precision XOC i MSI Afterburner.

S obzirom da su se neki detalji u metodologiji overkloka promijenili sa izlaskom video kartica sa podrškom za GPU Boost 3.0, Nvidia je morala dati dodatna objašnjenja u uputstvima za overclocking novih proizvoda. Postoje različite tehnike overkloka sa različitim varijabilnim karakteristikama koje utiču na konačni rezultat. Za svaki određeni sistem, određena metoda može biti prikladnija, ali osnove su uvijek približno iste.

Mnogi overklokeri koriste Unigine Heaven 4.0 benchmark za testiranje stabilnosti sistema, koji dobro opterećuje GPU, ima fleksibilna podešavanja i može se pokrenuti u prozorskom režimu zajedno sa prozorom uslužnog programa za overklok i nadgledanje u blizini, kao što je EVGA Precision ili MSI Afterburner. Međutim, takva provjera je dovoljna samo za početne procjene, a da bi se čvrsto potvrdila stabilnost overkloka, mora se provjeriti u nekoliko aplikacija za igre, jer različite igre zahtijevaju različita opterećenja na različitim funkcionalnim jedinicama GPU-a: matematička, teksturna, geometrijska. Heaven 4.0 benchmark je takođe pogodan za overklok jer ima petlju režim rada, u kojem je zgodno menjati postavke overkloka i postoji benchmark za procenu povećanja brzine.

Nvidia savjetuje da koristite Heaven 4.0 i EVGA Precision XOC prozore zajedno kada overklokujete nove GeForce GTX 1080 i GTX 1070 grafičke kartice. U početku je poželjno odmah povećati brzinu ventilatora. A za ozbiljan overclocking, možete odmah postaviti vrijednost brzine na 100%, što će video karticu učiniti jako glasnom, ali će ohladiti GPU i ostale komponente video kartice što je više moguće snižavanjem temperature na najmanju moguću nivo, sprečavajući throttling (smanjenje frekvencija zbog povećanja temperature GPU-a iznad određene vrijednosti).

Zatim morate postaviti ciljnu vrijednost snage (Power Target) također na maksimum. Ova postavka će omogućiti GPU-u maksimalnu moguću količinu energije povećanjem nivoa potrošnje energije i ciljne temperature GPU-a (GPU Temp Target). Za neke svrhe, druga vrijednost se može odvojiti od promjene Power Target-a, a zatim se ove postavke mogu individualno podešavati - da bi se postiglo manje zagrijavanje video čipa, na primjer.

Sljedeći korak je povećanje vrijednosti GPU Clock Offset-a - to znači koliko će turbo frekvencija biti viša tokom rada. Ova vrijednost povećava frekvenciju za sve napone i rezultira boljim performansama. Kao i obično, prilikom overklokanja, potrebno je provjeriti stabilnost kada povećavate frekvenciju GPU-a u malim koracima - od 10 MHz do 50 MHz po koraku prije nego što primijetite zastoj, grešku drajvera ili aplikacije, ili čak vizualne artefakte. Kada se ova granica dostigne, trebali biste smanjiti vrijednost frekvencije za korak naniže i još jednom provjeriti stabilnost i performanse tokom overkloka.

Osim GPU frekvencije, možete povećati i frekvenciju video memorije (Memory Clock Offset), što je posebno važno u slučaju GeForce GTX 1070 opremljene GDDR5 memorijom, koja se obično dobro overklokuje. Proces u slučaju memorijske frekvencije tačno ponavlja ono što se radi pri pronalaženju stabilne GPU frekvencije, jedina razlika je u tome što se koraci mogu povećati - dodati 50-100 MHz osnovnoj frekvenciji odjednom.

Pored gore navedenih koraka, možete povećati i granicu prenapona, jer se pri povećanom naponu često postiže veća frekvencija GPU-a, kada nestabilni dijelovi GPU-a dobijaju dodatno napajanje. Istina, potencijalni nedostatak povećanja ove vrijednosti je mogućnost oštećenja video čipa i njegovog ubrzanog kvara, tako da povećanje napona trebate koristiti s krajnjim oprezom.

Ljubitelji overclockinga koriste nešto drugačije tehnike, mijenjajući parametre drugačijim redoslijedom. Na primjer, neki overklokeri dijele eksperimente na pronalaženju stabilne GPU i memorijske frekvencije kako ne bi ometali jedni druge, a zatim testiraju kombinirano overklokiranje i video čipa i memorijskih čipova, ali to su već beznačajni detalji individualnog pristupa. .

Sudeći po mišljenjima na forumima i komentarima na članke, nekim korisnicima se nije dopao novi algoritam GPU Boost 3.0, kada GPU frekvencija prvo raste veoma visoko, često više od turbo frekvencije, ali onda pod uticajem povećanje temperature GPU-a ili povećana potrošnja energije iznad postavljene granice, može pasti na mnogo niže vrijednosti. Ovo su samo specifičnosti ažuriranog algoritma, morate se naviknuti na novo ponašanje dinamički promjenjive frekvencije GPU-a, ali to nema negativnih posljedica.

GeForce GTX 1070 je drugi model nakon GTX 1080 u novoj liniji Nvidijinih grafičkih procesora baziranih na Pascal porodici. Novi 16nm FinFET proizvodni proces i optimizacije arhitekture omogućili su ovoj grafičkoj kartici da postigne visoke brzine takta, što je podržano novom generacijom GPU Boost tehnologije. Iako je smanjen broj funkcionalnih blokova u obliku stream procesora i teksturnih modula, njihov broj ostaje dovoljan da GTX 1070 postane najisplativije i energetski najučinkovitije rješenje.

Instaliranje GDDR5 memorije na najmlađi od par objavljenih modela Nvidia video kartica na GP104 čipu, za razliku od novog tipa GDDR5X koji razlikuje GTX 1080, ne sprječava ga da postigne visoke performanse. Prvo, Nvidia je odlučila da ne preseče memorijsku magistralu modela GeForce GTX 1070, a drugo, na nju je stavila najbržu GDDR5 memoriju sa efektivnom frekvencijom od 8 GHz, što je tek nešto niže od 10 GHz za GDDR5X koji se koristi u stariji model. Uzimajući u obzir poboljšane algoritme delta kompresije, efektivni memorijski propusni opseg GPU-a je postao veći od istog parametra u istom modelu prethodne generacije GeForce GTX 970.

GeForce GTX 1070 je dobra po tome što nudi vrlo visoke performanse i podršku za nove karakteristike i algoritme po znatno nižoj cijeni u odnosu na stariji model najavljen nešto ranije. Ako nekolicina entuzijasta može sebi priuštiti kupovinu GTX 1080 za 55.000, onda će mnogo veći krug potencijalnih kupaca moći platiti 35.000 za samo četvrtinu manje produktivnog rješenja sa potpuno istim mogućnostima. Kombinacija relativno niske cijene i visokih performansi učinila je GeForce GTX 1070 možda najprofitabilnijom kupovinom u vrijeme njenog objavljivanja.

Grafički akcelerator GeForce GTX 1060

ParametarZnačenje
Naziv koda čipaGP106
Tehnologija proizvodnje16nm FinFET
Broj tranzistora4,4 milijarde
Područje jezgra200 mm²
ArhitekturaUnificiran, sa nizom uobičajenih procesora za stream obradu brojnih tipova podataka: vrhova, piksela, itd.
DirectX hardverska podrškaDirectX 12, sa podrškom za nivo funkcija 12_1
Memorijska magistrala192-bitni: šest nezavisnih 32-bitnih memorijskih kontrolera koji podržavaju GDDR5 memoriju
GPU frekvencija1506 (1708) MHz
Računarski blokovi10 striming multiprocesora, uključujući 1280 skalarnih ALU-a za izračunavanja s pomičnim zarezom u okviru IEEE 754-2008 standarda;
Teksturiranje blokova80 jedinica za adresiranje i filtriranje teksture sa podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture
Rasterske operativne jedinice (ROP)6 širokih ROP-ova (48 piksela) sa podrškom za različite režime anti-aliasing, uključujući programabilne i sa FP16 ili FP32 formatom bafera okvira. Blokovi se sastoje od niza konfigurabilnih ALU-ova i odgovorni su za generiranje i poređenje dubine, višestruko uzorkovanje i miješanje
Podrška za monitorIntegrisana podrška za do četiri monitora povezana preko Dual Link DVI, HDMI 2.0b i DisplayPort 1.2 (1.3/1.4 Ready)

Specifikacije referentne grafike GeForce GTX 1060
ParametarZnačenje
Frekvencija jezgra1506 (1708) MHz
Broj univerzalnih procesora1280
Broj blokova teksture80
Broj blokova za miješanje48
Efektivna memorijska frekvencija8000 (4×2000) MHz
Vrsta memorijeGDDR5
Memorijska magistrala192-bitni
Memorija6 GB
Propusnost memorije192 GB/s
Performanse računara (FP32)oko 4 teraflopsa
Teoretska maksimalna stopa punjenja72 gigapiksela/s
Teorijska brzina uzorkovanja teksture121 gigateksela/s
TirePCI Express 3.0
KonektoriJedan Dual Link DVI, jedan HDMI i tri DisplayPort
Tipična potrošnja energije120 W
Dodatna hranaJedan 6-pinski konektor
Broj slotova zauzetih u šasiji sistema2
Preporučena cijena249 dolara (299 dolara) u SAD i 18.990 u Rusiji

GeForce GTX 1060 grafička kartica je također dobila naziv slično istom rješenju iz prethodne GeForce serije, koji se razlikuje od imena svog direktnog prethodnika GeForce GTX 960 samo po promijenjenoj prvoj cifri generacije. Novitet je u sadašnjoj liniji kompanije postao korak niže od prethodno objavljenog GeForce GTX 1070 rješenja, što je prosječno po brzini u novoj seriji.

Preporučene cijene za novu Nvidijinu video karticu su 249 dolara i 299 dolara za redovne verzije partnera kompanije i za specijalnu Founder's Edition, respektivno. U poređenju sa dva starija modela, ovo je veoma povoljna cena, jer novi model GTX 1060, iako inferioran u odnosu na vrhunske matične ploče, nije ni blizu koliko je jeftiniji. U trenutku najave, novi proizvod je definitivno postao najbolje rješenje performansi u svojoj klasi i jedna od najprofitabilnijih ponuda u ovom cjenovnom rangu.

Ovaj model Nvidijine Pascal porodične video kartice izašao je u suprotnosti sa novom odlukom konkurentske kompanije AMD, koja je nešto ranije lansirala Radeon RX 480. Novu Nvidia video karticu možete uporediti sa ovom video karticom, iako ne baš direktno, jer i dalje se dosta značajno razlikuju u cijeni. GeForce GTX 1060 je skuplji (249-299 USD u odnosu na 199-229 USD), ali je takođe očigledno brži od svog konkurenta.

Grafički procesor GP106 ima 192-bitnu memorijsku magistralu, tako da količina memorije instalirane na video kartici sa takvom magistralom može biti 3 ili 6 GB. Manja vrijednost u modernim uvjetima iskreno nije dovoljna, a mnogi projekti igara, čak i u Full HD rezoluciji, nailaze na nedostatak video memorije, što će ozbiljno utjecati na glatkoću renderiranja. Kako bi se osigurale maksimalne performanse novog rješenja na visokim postavkama, model GeForce GTX 1060 je opremljen sa 6 GB video memorije, što je dovoljno za pokretanje bilo koje 3D aplikacije sa bilo kojim postavkama kvaliteta. Štaviše, danas jednostavno nema razlike između 6 i 8 GB, a takvo rješenje će uštedjeti nešto novca.

Tipična vrijednost potrošnje energije za novi proizvod je 120 W, što je 20% manje od vrijednosti za GTX 1070 i jednako je potrošnji energije prethodne generacije GeForce GTX 960 grafičke kartice, koja ima mnogo manje performanse i mogućnosti. Referentna ploča ima uobičajeni set konektora za povezivanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort. Štaviše, postojala je podrška za nove verzije HDMI i DisplayPort-a, o čemu smo pisali u recenziji GTX 1080 modela.

Dužina referentne ploče GeForce GTX 1060 je 9,8 inča (25 cm), a iz razlika u odnosu na starije opcije posebno napominjemo da GeForce GTX 1060 ne podržava SLI multi-chip rendering konfiguraciju, te nema poseban konektor za to. Pošto ploča troši manje energije od starijih modela, jedan 6-pinski PCI-E konektor za eksterno napajanje je instaliran na ploču za dodatno napajanje.

GeForce GTX 1060 video kartice su se pojavile na tržištu od dana najave u vidu proizvoda partnera kompanije: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Specijalno izdanje GeForce GTX 1060 Founder's Edition, koje proizvodi sama Nvidia, biće pušteno u prodaju u ograničenim količinama, koje će se prodavati po cijeni od 299 dolara isključivo na Nvidia web stranici i neće biti zvanično predstavljeno u Rusiji. Founder's Edition se odlikuje činjenicom da je napravljen od visokokvalitetnih materijala i komponenti, uključujući aluminijumsko kućište, i koristi efikasan sistem hlađenja, kao i strujna kola niskog otpora i posebno dizajnirane regulatore napona.

Arhitektonske promjene

GeForce GTX 1060 video kartica je bazirana na potpuno novom modelu grafičkog procesora GP106, koji se funkcionalno ne razlikuje od prvenca Pascal arhitekture u obliku GP104 čipa, na kojem su opisani modeli GeForce GTX 1080 i GTX 1070 Ova arhitektura je zasnovana na rešenjima razrađenim još u Maxwellu, ali takođe ima i neke funkcionalne razlike o kojima smo ranije pisali detaljno.

GP106 video čip je po svom dizajnu sličan vrhunskom Pascal čipu i sličnim rješenjima Maxwell arhitekture, a detaljne informacije o dizajnu modernih GPU-a možete pronaći u našim recenzijama prethodnih Nvidia rješenja. Kao i prethodni GPU-ovi, čipovi nove arhitekture imaju drugačiju konfiguraciju klastera za grafičku obradu (GPC), multiprocesora za strujanje (SM) i memorijskih kontrolera:

Grafički procesor GP106 uključuje dva GPC klastera, koji se sastoje od 10 streaming multiprocesora (Streaming Multiprocessor - SM), odnosno tačno polovina GP104. Kao iu starijem GPU-u, svaki od multiprocesora sadrži 128 jezgara, 8 TMU teksturnih jedinica, 256 KB registarske memorije, 96 KB dijeljene memorije i 48 KB L1 keš memorije. Kao rezultat toga, GeForce GTX 1060 sadrži ukupno 1.280 računarskih jezgara i 80 teksturnih jedinica, upola manje od GTX 1080.

Ali memorijski podsistem GeForce GTX 1060 nije prepolovljen u odnosu na vrhunsko rješenje, već sadrži šest 32-bitnih memorijskih kontrolera, dajući konačnu 192-bitnu memorijsku magistralu. Uz efektivnu frekvenciju GDDR5 video memorije za GeForce GTX 1060 koja je jednaka 8 GHz, propusni opseg dostiže 192 GB/s, što je sasvim dobro za rješenje u ovom cjenovnom segmentu, posebno s obzirom na visoku efikasnost njenog korištenja u Pascalu. Svaki od memorijskih kontrolera ima osam ROP-ova i 256 KB L2 keš memorije, tako da ukupno puna verzija GP106 GPU-a sadrži 48 ROP-ova i 1536 KB L2 keš memorije.

Da bi se smanjili zahtjevi za memorijski propusni opseg i efikasnije koristila dostupna Pascal arhitektura, dodatno je poboljšana kompresija podataka na čipu bez gubitaka, koja je u stanju komprimirati podatke u baferima, postižući efikasnost i povećanje performansi. Konkretno, nove 4:1 i 8:1 metode delta kompresije su dodate novoj porodici čipova, pružajući dodatnih 20% efikasnosti propusnog opsega u poređenju sa prethodnim rešenjima Maxwell porodice.

Osnovna frekvencija novog GPU-a je 1506 MHz - frekvencija u principu ne bi trebala pasti ispod ove oznake. Tipični Boost Clock je mnogo veći, na 1708 MHz, što je prosjek stvarne frekvencije na kojoj grafički čip GeForce GTX 1060 radi u širokom spektru igara i 3D aplikacija. Stvarna učestalost pojačanja zavisi od igre i uslova u kojima se test odvija.

Kao i ostala rješenja Pascal porodice, model GeForce GTX 1060 ne samo da radi na visokoj frekvenciji takta, pružajući visoke performanse, već ima i pristojnu marginu za overklok. Prvi eksperimenti ukazuju na mogućnost dostizanja frekvencija reda veličine 2 GHz. Nije iznenađujuće da partneri kompanije takođe pripremaju fabrički overklokovane verzije GTX 1060 video kartice.

Dakle, glavna promjena u novoj arhitekturi bio je 16 nm FinFET proces, čija je upotreba u proizvodnji GP106 omogućila značajno povećanje složenosti čipa uz održavanje relativno niske površine od ​​​​​​​​​tako da ovaj čip sa Pascal arhitekturom ima značajno veći broj izvršnih jedinica u poređenju sa Maxwell čipom sličnog pozicioniranja proizvedenom po 28 nm procesnoj tehnologiji.

Ako je GM206 (GTX 960) površine 227 mm² imao 3 milijarde tranzistora i 1024 ALU-a, 64 TMU-a, 32 ROP-a i 128-bitnu magistralu, onda je novi GPU sadržavao 4,4 milijarde tranzistora, 1280 ALU-a, u 200 mm², 80 TMU i 48 ROP sa 192-bitnom magistralom. Štaviše, na skoro jedan i po puta većoj frekvenciji: 1506 (1708) naspram 1126 (1178) MHz. I to sa istom potrošnjom energije od 120 vati! Kao rezultat toga, GP106 GPU je postao jedan od energetski najefikasnijih GPU-a, zajedno sa GP104.

Nove Nvidia tehnologije

Jedna od najzanimljivijih tehnologija kompanije, koju podržava GeForce GTX 1060 i druga rješenja Pascal porodice, je tehnologija Nvidia simultana višestruka projekcija. O ovoj tehnologiji smo već pisali u pregledu GeForce GTX 1080, ona vam omogućava da koristite nekoliko novih tehnika za optimizaciju renderovanja. Konkretno - da istovremeno projektuje VR sliku za dva oka odjednom, značajno povećavajući efikasnost korišćenja GPU-a u virtuelnoj stvarnosti.

Za podršku SMP-a, svi GPU-ovi Pascal porodice imaju poseban motor, koji se nalazi u PolyMorph Engine-u na kraju geometrijskog cevovoda prije rasterizatora. Sa njim, GPU može istovremeno da projektuje geometrijski primitiv na nekoliko projekcija iz jedne tačke, dok ove projekcije mogu biti stereo (tj. do 16 ili 32 projekcije su podržane istovremeno). Ova mogućnost omogućava Pascal GPU-ima da precizno reprodukuju zakrivljenu površinu za VR renderovanje, kao i da se pravilno prikazuju na sistemima sa više monitora.

Važno je da se tehnologija Simultaneous Multi-Projection već integrira u popularne motore za igre (Unreal Engine i Unity) i igre, a do danas je najavljena podrška za tehnologiju za više od 30 igara u razvoju, uključujući i takve poznate. projekti kao što su Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft i Raw Data. Zanimljivo, iako Unreal Tournament nije VR igra, koristi SMP za postizanje boljih vizuala i performansi.

Još jedna dugo očekivana tehnologija je moćan alat za kreiranje snimaka ekrana u igrama. Nvidia Ansel. Ovaj alat vam omogućava da kreirate neobične i vrlo kvalitetne snimke ekrana iz igara, sa ranije nedostupnim funkcijama, pohranjujući ih u vrlo visokoj rezoluciji i dopunjujući ih raznim efektima, te dijelite svoje kreacije. Ansel vam omogućava da doslovno napravite snimak ekrana na način na koji umjetnik to želi, omogućavajući vam da instalirate kameru sa bilo kojim parametrima bilo gdje u sceni, primijenite moćne post-filtere na sliku ili čak napravite snimak od 360 stepeni za gledanje u kaciga za virtuelnu stvarnost.

Nvidia je standardizirala integraciju Ansel korisničkog sučelja u igre, a to je jednostavno kao dodavanje nekoliko linija koda. Više ne morate čekati da se ova funkcija pojavi u igrama, možete procijeniti Anselove sposobnosti upravo sada u Mirror’s Edge: Catalyst, a nešto kasnije će postati dostupna u Witcher 3: Wild Hunt. Osim toga, u razvoju su mnogi projekti igara koje podržava Ansel, uključujući igre kao što su Fortnite, Paragon i Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky i još mnogo toga.

Novi GeForce GTX 1060 GPU takođe podržava set alata Nvidia VRWorks, koji pomaže programerima da kreiraju impresivne projekte za virtuelnu stvarnost. Ovaj paket uključuje mnoge uslužne programe i alate za programere, uključujući VRWorks Audio, koji vam omogućava da izvršite vrlo precizan proračun refleksije zvučnih talasa od objekata scene koristeći praćenje GPU zraka. Paket također uključuje integraciju u VR i PhysX fizičke efekte kako bi se osiguralo fizički ispravno ponašanje objekata u sceni.

Jedna od najuzbudljivijih VR igara za korištenje prednosti VRWorksa je VR Funhouse, Nvidijina vlastita VR igra koja je dostupna besplatno na Valveovoj Steam usluzi. Ovu igru ​​pokreće Unreal Engine 4 (Epic Games) i radi na GeForce GTX 1080, 1070 i 1060 grafičkim karticama u kombinaciji sa HTC Vive VR slušalicama. Štaviše, izvorni kod ove igre će biti javno dostupan, što će omogućiti drugim programerima da koriste gotove ideje i kod koji su već u svojim VR atrakcijama. Vjerujte nam na riječ, ovo je jedna od najimpresivnijih demonstracija mogućnosti virtuelne stvarnosti.

Uključujući i zahvaljujući SMP i VRWorks tehnologijama, upotreba GeForce GTX 1060 GPU-a u VR aplikacijama pruža performanse koje su sasvim dovoljne za početni nivo virtuelne stvarnosti, a dotični GPU zadovoljava minimalno potreban nivo hardvera, uključujući i SteamVR, koji postaje jedna od najuspješnijih akvizicija za korištenje u sistemima sa zvaničnom VR podrškom.

Budući da je model GeForce GTX 1060 baziran na GP106 čipu, koji ni na koji način nije inferioran u odnosu na grafički procesor GP104, koji je postao osnova za starije modifikacije, podržava apsolutno sve gore opisane tehnologije.

GeForce GTX 1060 je treći model u Nvidijinoj novoj liniji grafičkih procesora baziranih na Pascal porodici. Nova 16nm FinFET procesna tehnologija i optimizacije arhitekture omogućile su svim novim grafičkim karticama da postignu visoke brzine takta i postave više funkcionalnih blokova u GPU u obliku stream procesora, teksturnih modula i drugih, u poređenju sa video čipovima prethodne generacije. Zbog toga je GTX 1060 postao najisplativije i energetski najučinkovitije rješenje u svojoj klasi i općenito.

Posebno je važno da GeForce GTX 1060 nudi dovoljno visoke performanse i podršku za nove karakteristike i algoritme po znatno nižoj cijeni u odnosu na starija rješenja bazirana na GP104. GP106 grafički čip koji se koristi u novom modelu pruža najbolje performanse u klasi i energetsku efikasnost. GeForce GTX 1060 je posebno dizajnirana i savršeno prilagođena za sve moderne igre na visokim i maksimalnim grafičkim postavkama pri rezoluciji od 1920x1080, pa čak i sa anti-aliasing preko cijelog ekrana omogućenim raznim metodama (FXAA, MFAA ili MSAA).

A za one koji žele još više performansi sa ekranima ultra visoke rezolucije, Nvidia ima vrhunske GeForce GTX 1070 i GTX 1080 grafičke kartice koje su također prilično dobre u pogledu performansi i energetske efikasnosti. Pa ipak, kombinacija niske cijene i dovoljnih performansi prilično povoljno izdvaja GeForce GTX 1060 od starijih rješenja. U poređenju sa konkurentskim Radeon RX 480, Nvidijino rješenje je nešto brže s manje složenosti i GPU-a, te ima znatno bolju energetsku efikasnost. Istina, prodaje se malo skuplje, tako da svaka video kartica ima svoju nišu.

Prelazimo na još jednu karakteristiku GeForce GTX 1080 koja ju je učinila prvom te vrste - podršku za GDDR5X memoriju. U tom svojstvu, GTX 1080 će biti jedini proizvod na tržištu još neko vrijeme, jer je već poznato da će GeForce GTX 1070 biti opremljen standardnim GDDR5 čipovima. U kombinaciji sa novim algoritmima za kompresiju boja (više o tome kasnije), velika propusnost memorije će omogućiti GP104 da efikasnije upravlja dostupnim računarskim resursima nego što to mogu priuštiti proizvodi zasnovani na GM104 i GM200 čipovima.

JEDEC je objavio konačne specifikacije novog standarda tek u januaru ove godine, a jedini proizvođač GDDR5X u ovom trenutku je Micron. 3DNews nije imao poseban članak o ovoj tehnologiji, pa ćemo ukratko opisati inovacije koje GDDR5X donosi u ovoj recenziji.

GDDR5X protokol ima mnogo zajedničkog sa GDDR5 (iako se oba čipa razlikuju električni i fizički) - za razliku od HBM memorije, koja je fundamentalno različitog tipa, što čini koegzistenciju sa GDDR5 (X) interfejsom u jednom GPU-u praktično nemogućim. Iz tog razloga se tako zove GDDR5X, a ne, na primjer, GDDR6.

Jedna od ključnih razlika između GDDR5X i GDDR5 je mogućnost prijenosa četiri bita podataka po ciklusu signala (QDR - Quad Data Rate) za razliku od dva bita (DDR - Double Data Rate), kao što je bio slučaj u svim prethodnim modifikacijama DDR SDRAM memorija. Fizičke frekvencije memorijskih jezgara i interfejsa za prenos podataka nalaze se približno u istom opsegu kao i kod GDDR5 čipova.

A da bi povećao propusni opseg čipova zasitio podacima, GDDR5X koristi prethodno preuzimanje podataka povećano sa 8n na 16n. Sa 32-bitnim interfejsom zasebnog čipa, to znači da kontroler bira ne 32, već 64 bajta podataka u jednom ciklusu pristupa memoriji. Kao rezultat toga, rezultujući propusni opseg interfejsa dostiže 10-14 Gb/s po pinu na CK (komandni takt) frekvenciji od 1250-1750 MHz - to je frekvencija koju uslužni programi za nadgledanje i overklokiranje video kartica, kao što je GPU-Z, show. Barem za sada, takve brojke su uključene u standard, ali u budućnosti Micron planira dostići brojke do 16 Gb/s.

Sljedeća prednost GDDR5X je povećana zapremina čipa - sa 8 na 16 Gb. GeForce GTX 1080 dolazi sa osam čipova od 8Gb, ali će u budućnosti proizvođači grafičkih kartica moći da udvostruče količinu RAM-a kako kapaciteti čipovi postanu dostupni. Kao i GDDR5, GDDR5X omogućava korištenje dva čipa na jednom 32-bitnom kontroleru u takozvanom clamshell načinu rada, što omogućava adresiranje 32 GB memorije na 256-bitnoj GP104 magistrali. Osim toga, standard GDDR5X, pored jednakih snaga dvojke, opisuje zapremine čipa od 6 i 12 Gb, što će vam omogućiti da "djelomično" mijenjate ukupnu količinu ugrađene memorije video kartica - na primjer, opremite kartica sa 384-bitnom RAM magistralom sa čipovima za ukupno 9 GB.

Suprotno očekivanjima koja su pratila prve informacije o GDDR5X, koje su se pojavile u javnosti, potrošnja energije novog tipa memorije je uporediva sa potrošnjom energije GDDR5 ili tek nešto veća od ove druge. Da bi kompenzirali povećanu snagu pri visokim vrijednostima propusnosti, kreatori standarda su snizili napon napajanja jezgara sa 1,5 V, standardnog za GDDR5, na 1,35 V. Osim toga, standard uvodi kontrolu frekvencije čipa kao obaveznu mjeru u zavisnosti od senzor temperature. Još uvijek nije poznato koliko nova memorija zaista ovisi o kvaliteti odvođenja topline, ali je moguće da ćemo sada češće viđati sisteme hlađenja na video karticama koje opslužuju ne samo GPU, već i RAM čipove, dok proizvođači GDDR5 baziranih na kartice uglavnom zanemaruju ovu mogućnost.

Moglo bi se steći utisak da je prelazak sa GDDR5 na GDDR5X bio lak zadatak za NVIDIA zbog povezanosti ovih tehnologija. Pored toga, GeForce GTX 1080 je opremljen najnižim memorijskim opsegom definisanim standardom - 10 Gb/s po pinu. Međutim, praktična implementacija novog interfejsa povezana je sa nizom inženjerskih poteškoća. Prijenos podataka na tako visokim frekvencijama zahtijevao je pažljiv dizajn topologije sabirnice podataka na ploči kako bi se minimizirale smetnje i slabljenje signala u provodnicima.

Rezultirajuća propusnost magistrale od 256-bita u GeForce GTX 1080 je 320 GB/s, što nije značajno manje od brzine od 336 GB/s, koju karakteriše GeForce GTX 980 Ti (TITAN X) sa svojim 384-bitnim GDDR5 sabirnica na 7 Gb/s po pinu.

Sada PolyMorph Engine može kreirati do 16 projekcija (projekcija) u isto vrijeme, proizvoljno postavljenih i fokusiranih na jednu ili dvije tačke, pomaknute duž horizontalne ose jedna u odnosu na drugu. Ove konverzije se u potpunosti vrše u hardveru i ne uzrokuju nikakvu degradaciju performansi same po sebi.

Ova tehnologija ima dvije prilično predvidljive primjene. Prvi su VR kacige. Zbog dva centra za projekciju, Pascal može kreirati stereo sliku u jednom prolazu (međutim, ovdje se radi samo o geometriji - GPU i dalje mora obaviti dvostruko više posla da rasterizuje teksture u dva okvira).

Osim toga, SMP omogućava na nivou geometrije kompenzaciju izobličenja slike, koju unose sočiva kacige. Za to se slika za svako oko formira od četiri odvojene projekcije, koje se zatim lijepe u ravninu pomoću filtera za naknadnu obradu. Time se postiže ne samo geometrijska tačnost konačne slike, već i potreba za obradom 1/3 piksela, koji bi inače bili izgubljeni prilikom završne korekcije standardne ravne projekcije za zakrivljenost sočiva. eliminisan.

Jedina optimizacija za VR koju je Maxwell imao bila je da se periferna područja slike, koja su najjače komprimirana za izlaz kroz sočiva, mogu prikazati u nižoj rezoluciji, što je rezultiralo uštedom propusnog opsega od samo 10-15%.

Sljedeće područje gdje je SMP funkcija tražena je u konfiguracijama s više monitora. Bez SMP-a, slika na više usidrenih displeja je ravan sa stanovišta GPU-a i izgleda geometrijski ispravno pod uslovom da su ekrani ispred posmatrača poredani, ali pristajanje pod uglom više ne izgleda ispravno - kao ako ste jednostavno savili veliku fotografiju na nekoliko mjesta. Da ne spominjemo da u svakom slučaju gledalac vidi upravo ravnu sliku, a ne prozor u virtuelni svijet: ako okrenete glavu prema bočnom ekranu, objekti u njemu će ostati rastegnuti, jer virtuelna kamera još uvijek gleda u centralnoj tački.

Uz pomoć SMP-a, drajver video kartice može dobiti informacije o fizičkoj lokaciji nekoliko ekrana kako bi projicirao sliku za svaki od njih kroz vlastiti okvir za prikaz, što u konačnici funkcionalno približava sklop više monitora punopravnom "prozor".

Ukratko, svrha trostrukog baferiranja je da odvoji proces prikazivanja novih okvira u GPU cjevovodu od skeniranja slike iz bafera okvira dopuštajući grafičkoj kartici da kreira nove okvire proizvoljno velikom brzinom, upisujući ih u dva rotirajuća okvira tamponima. U ovom slučaju, sadržaj najnovijeg okvira sa frekvencijom koja je višestruka od brzine osvježavanja ekrana se kopira u treći bafer, odakle ga monitor može pokupiti bez prekida slike. Dakle, okvir koji udari na ekran u trenutku kada skeniranje počinje uvijek sadrži najnovije informacije koje je proizveo GPU.

Trostruko baferovanje je najkorisnije na monitorima sa stopom osvežavanja od 50-60Hz. Na frekvencijama od 120-144 Hz, kao što smo već pisali u članku o G-Sync-u, uključivanje vertikalne sinhronizacije već, u principu, neznatno povećava kašnjenje, ali Fast Sync će ga ukloniti na minimum.

Ako se pitate kako je Fast Sync u poređenju sa G-Sync (i AMD-ovim kolegom Free Sync - ali to je čisto teorijsko pitanje jer NVIDIA podržava samo svoju varijantu), onda G-Sync smanjuje kašnjenje kada GPU nema vremena za proizvodnju novi okvir do trenutka kada skeniranje započne, a Fast Sync, naprotiv, smanjuje kašnjenje kada je brzina osvježavanja okvira u cevovodu za renderiranje veća od brzine osvježavanja ekrana. Osim toga, ove tehnologije mogu raditi zajedno.

GeForce GTX 1080 Founder's Edition:dizajn

Ovo pompezno ime je sada referentna verzija GeForce GTX 1080. Počevši od GeForce GTX 690, NVIDIA je posvetila veliku pažnju obliku u kojem njihovi novi proizvodi ulaze na tržište. Referentni uzorci modernih grafičkih kartica pod markom GeForce daleko su od svojih neopisivih prethodnika, opremljeni relativno neefikasnim i bučnim sistemima hlađenja.

GeForce GTX 1080 Founder's Edition uključuje najbolje karakteristike dizajna Kepler i Maxwell grafičkih kartica: aluminijumski omotač turbine, radno kolo hladnjaka napravljeno od niskošumnog materijala i masivni aluminijumski okvir koji dodaje krutost strukturi i uklanja toplotu iz RAM čipovi.


Kao dio GTX 1080, postoje dvije komponente u isto vrijeme koje se povremeno pojavljuju i nestaju sa NVIDIA referentnih video kartica - GPU hladnjak sa parnom komorom i stražnjom pločom. Potonji se djelimično demontira bez odvijača kako bi se omogućio protok zraka do hladnjaka susjedne video kartice u SLI modu.

Pored njegove reprezentativne funkcije, potreban je referentni uzorak video kartice kako bi je proizvođači krajnjih kartica mogli kupiti - u ovom slučaju od NVIDIA-e - i zadovoljiti potražnju dok uređaji originalnog dizajna na istom GPU-u ne budu spremni. Ali ovoga puta, NVIDIA planira zadržati referentnu verziju u prodaji tokom cijelog vijeka trajanja modela i distribuirati, između ostalog, putem svoje službene web stranice. Tako motivisan 100$ višom cijenom GTX 1080 FE u odnosu na preporučenih 599$ za sve ostale. Uostalom, Founder's Edition ne izgleda niti se osjeća kao jeftin proizvod.

Istovremeno, video kartica ima referentne frekvencije ispod kojih, kao i obično, neće pasti nijedan proizvođač kartica originalnog dizajna. Nema govora o izboru GPU-a za GTX 1080 FE u smislu potencijala za overklokiranje. Stoga, u cijeloj masi implementacija GeForce GTX 1080, može biti i skupljih. Ali neko vrijeme, Founder's Edition će biti dominantna, pa čak i jedina verzija vodećeg Pascala, koji automatski podiže maloprodajne cijene za 100 dolara iznad NVIDIA-ine "preporuke".

GeForce GTX 1080 Ti ima 11 GB GDDR5X memorije, 1583MHz GPU (overclocking na 2000MHz sa standardnim hlađenjem), 11GHz QDR memoriju i 35% bolje performanse od GeForce GTX 1080. I to po sniženoj cijeni od 699 dolara.

Nova grafička kartica istiskuje GeForce GTX 1080 sa pozicije vodećeg modela u GeForce liniji i postaje najbrzi grafička kartica koja danas postoji, kao i najmoćnija kartica na Pascal arhitekturi.

Najmoćnija NVIDIA GeForce GTX 1080 Ti igraća kartica

NVIDIA GeForce GTX 1080 Ti je san igrača, koji konačno može uživati ​​u najnovijim AAA igrama, igrati u kacigama virtuelne stvarnosti visoke definicije, uživati ​​u jasnoći i preciznosti grafike.

GTX 1080 Ti je dizajnirana da bude prva potpuna grafička kartica za 4K igranje. Opremljena je najnovijim i tehnološki najnaprednijim hardverom kojim se danas ne može pohvaliti nijedna druga video kartica.

Evo službena prezentacija NVIDIA GeForce GTX 1080 Ti

“Vrijeme je za nešto novo. Onaj koji je 35% brži od GTX 1080. Onaj koji je brži od Titan X-a. Nazovimo ga ultimativnim…

Iz godine u godinu video igre su sve ljepše, pa predstavljamo vrhunski proizvod nove generacije kako biste mogli uživati ​​u igrama sljedeće generacije.”

Jen-Xun

Specifikacije NVIDIA GeForce GTX 1080 Ti

NVIDIA nije štedjela na punjenju za svoju novu i super-moćnu grafičku karticu.

Opremljen je istim GPU Pascal GP102 GPU, poput Titan X (P), ali nadmašuje potonjeg u svim aspektima.

Procesor je opremljen sa 12 milijardi tranzistora i ima šest klastera za grafičku obradu, od kojih su dva blokirana. Ovo daje ukupno 28 višenitnih procesora Po 128 jezgara.

Dakle, GeForce GTX 1080 Ti video kartica ima 3584 CUDA jezgra, 224 jedinice za mapiranje tekstura i 88 ROP-ova (jedinica odgovornih za z-baferovanje, anti-aliasing, upisivanje konačne slike u bafer okvira video memorije).

Opseg overkloka počinje od 1582 MHz do 2 GHz. Pascal arhitektura je stvorena uglavnom za overklokiranje u referentnim i ekstremnije overklokovanje u nestandardnim modelima.

GeForce GTX 1080 Ti takođe ima 11 GB GDDR5X memorije, radeći kroz 352-bitnu sabirnicu. Vodeći model također ima najbrže G5X rješenje do sada.

Sa novim sistemom kompresije i keširanja pločica, propusni opseg GTX 1080 Ti grafičke kartice može se povećati do 1200Gb/s, što nadmašuje AMD-ovu HBM2 tehnologiju.

Specifikacija NVIDIA GeForce GTX 1080 Ti:

Karakteristike GTX TItan X Pascal GTX 1080 Ti GTX 1080
Procesna tehnologija 16 nm 16nm 16 nm
tranzistori 12 milijardi 12 milijardi 7,2 milijarde
Kristalna oblast 471mm² 471mm² 314mm²
Memorija 12GB GDDR5X 11GB GDDR5X 8GB GDDR5X
Brzina memorije 10 Gb/s 11 Gb/s 11 Gb/s
Memorijski interfejs 384-bitni 352-bit 256-bitni
Bandwidth 480GB/s 484GB/s 320GB/s
CUDA jezgra 3584 3584 2560
bazna frekvencija 1417 1607
Frekvencija ubrzanja 1530MHz 1583 MHz 1730 MHz
Računarska snaga 11 teraflopsa 11,5 teraflopsa 9 teraflopsa
Toplotna snaga 250W 250W 180W
Cijena 1200$ US$699 499$

Hlađenje NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders poseduje novo rešenje za protok vazduha koje omogućava bolje hlađenje ploče i takođe je tiše od prethodnih dizajna. Sve ovo omogućava veći overklok video kartice i postizanje još veće brzine. Osim toga, efikasnost hlađenja je poboljšana 7-fazno napajanje na 14 visokoefikasnih dualFET tranzistora.

GeForce GTX 1080 Ti dolazi s najnovijim NVTTM dizajnom, koji predstavlja novu komoru za hlađenje parom koja ima dvostruko veću površinu hlađenja od Titan X (P). Ovaj novi termalni dizajn pomaže u postizanju optimalnog hlađenja i ubrzava GPU vaše grafičke kartice iznad specifikacije uz GPU Boost 3.0 tehnologiju.

NVIDIA GeForce GTX 1080 Ti je san overklokera

Dakle, šta da radimo sa ovom impresivnom snagom video kartice? Odgovor je očigledan - overclock do granice. Tokom događaja, NVIDIA je demonstrirala izvanredan overclocking potencijal svoje GTX 1080 Ti grafičke kartice. Podsjetimo, uspjeli su postići frekvenciju procesora od 2,03 GHz pri blokiranih 60 FPS.



Šta još čitati