2016. se već bliži kraju, ali njegov doprinos industriji igara ostat će s nama još dugo. Prvo, video kartice iz crvenog tabora dobile su neočekivano uspješno ažuriranje u srednjem cjenovnom rangu, a drugo, NVIDIA je još jednom dokazala da nije uzalud zauzima 70% tržišta. Maxwellovi su bili dobri, GTX 970 se s pravom smatrala jednom od najboljih kartica za novac, ali Pascal je sasvim druga stvar.
Nova generacija hardvera pred GTX 1080 i 1070 doslovno je pokopala rezultate prošlogodišnjih sustava i vodećeg tržišta korištenog hardvera, dok su "mlađe" linije pred GTX 1060 i 1050 svoj uspjeh učvrstile u pristupačnijem segmentima. Vlasnici GTX980Ti i drugih Titana plaču s krokodilskim suzama: njihove uber-puške za više tisuća rubalja izgubile su 50% cijene i 100% pokazivanja odjednom. Sama NVIDIA tvrdi da je 1080 brži od prošlogodišnjeg TitanX-a, 1070 s lakoćom "nagomilava" 980Ti, a relativno proračunski 1060 će naštetiti vlasnicima svih ostalih kartica.
Je li tu doista rastu noge visokih performansi i što sa svime učiniti uoči blagdana i iznenadnih financijskih radosti, kao i čime se točno ugoditi, možete saznati u ovoj dugoj i pomalo dosadnoj članak.
Možete voljeti Nvidiju ili ... ne voljeti je, ali samo hit iz alternativnog svemira će poreći da je trenutno lider u području video inženjerstva. Budući da AMD-ova Vega još nije najavljena, još nismo vidjeli vodeći RX na Polarisu, a R9 Fury, sa svojih 4 GB eksperimentalne memorije, ne može se baš smatrati obećavajućom karticom (VR i 4K još uvijek žele malo više, nego što ona ima) - imamo što imamo. Dok su 1080 Ti i uvjetni RX 490, RX Fury i RX 580 samo glasine i očekivanja, imamo vremena srediti trenutnu NVIDIA liniju i vidjeti što je tvrtka postigla posljednjih godina.
U 500. seriji je još uvijek bio isti Fermi, malo poboljšan “iznutra” i s manje braka, pa su vrhunska rješenja dobila 512 CUDA jezgri umjesto 480 za prethodnu generaciju. Vizualno, dijagrami toka općenito izgledaju kao blizanci:
Na nekim mjestima su povećali frekvencije, malo promijenili dizajn samog čipa, nije bilo revolucije. Sve iste 40 nm procesne tehnologije i 1,5 GB video memorije na 384-bitnoj sabirnici.
U dizajnu GPU-a napravljene su ozbiljne promjene: za osnovu nije uzet "vodeći" GF100 / GF110, već "proračunski" GF104 / GF114, koji je korišten u jednoj od najpopularnijih kartica tog vremena - GTX 460.
Kao što vidite, svaka od računalnih jedinica značajno je dobila na težini u odnosu na prethodnu arhitekturu i dobila je naziv SMX. Usporedite strukturu bloka s onim što je prikazano gore u Fermijevom odjeljku.
Šeststota serija nije imala video kartice na punopravnom procesoru koji je sadržavao šest blokova računalnih modula, vodeći je bio GTX 680 s instaliranim GK104, a hladniji od njega bio je samo "dvoglavi" 690., na kojem je samo dva procesora su uzgojena sa svim potrebnim vezovima i memorijom. Godinu dana kasnije, vodeći GTX 680 s manjim promjenama pretvorio se u GTX 770, a kruna evolucije Kepler arhitekture bile su video kartice bazirane na kristalu GK110: GTX Titan i Titan Z, 780Ti i uobičajeni 780. Unutra - sve istih 28 nanometara, jedino kvalitativno poboljšanje (koje NIJE išlo na potrošačke video kartice bazirane na GK110) - performanse s dvostrukom preciznošću operacija.
Najviše od svega, mobilna rješenja profitirala su od inovacija: površina kristala porasla je za četvrtinu, a broj izvršnih jedinica višeprocesora gotovo se udvostručio. Srećom, upravo su 700. i 800. serije napravile glavnu zbrku u poretku. Samo unutar 700 bile su video kartice bazirane na Kepler, Maxwell, pa čak i Fermi arhitekturama! Zato su stolni Maxwelli, kako bi se odmaknuli od šljunka prethodnih generacija, dobili uobičajenu seriju 900, iz koje su se naknadno odvojile GTX 9xx M mobilne kartice.
Prije svega, Pascal je ispravio dio koji je odgovoran za geometrijsku komponentu slike. To je neophodno za konfiguracije s više monitora i rad s VR kacigama: uz odgovarajuću podršku od strane game engine-a (a ta će se podrška uskoro pojaviti kroz napore NVIDIA-e), video kartica može izračunati geometriju jednom i dobiti nekoliko projekcija geometrije za svaku od ekrana. To značajno smanjuje opterećenje u VR-u ne samo u području rada s trokutima (ovdje je povećanje samo dvostruko), već i u radu s komponentom piksela.
Uvjetni 980Ti će dvaput pročitati geometriju (za svako oko), a zatim je ispuniti teksturama i izvršiti naknadnu obradu za svaku od slika, obrađujući ukupno oko 4,2 milijuna točaka, od kojih će se oko 70% stvarno koristiti, ostatak će biti odrezan ili pasti u područje , koje jednostavno nije prikazano za svako od očiju.1080 će obraditi geometriju jednom, a pikseli koji ne padaju u konačnu sliku jednostavno neće biti izračunati.
Pascal je ovaj problem uzeo u obzir i uveo dinamičko balansiranje opterećenja i mogućnost asinkronih prekida: sada izvršne jedinice mogu ili prekinuti trenutni zadatak (spremajući rezultate rada u predmemoriju) kako bi obradili hitnije zadatke ili jednostavno resetirali nedovoljno nacrtani okvir i započeti novi, značajno smanjujući kašnjenja u formiranju slike. Glavni korisnik ovdje je, naravno, VR i igre, ali ova tehnologija također može pomoći u izračunima opće namjene: simulacija sudara čestica dobila je povećanje performansi od 10-20%.
EVGA je bio jedan od prvih na ovom polju, njegov Precision XOC uslužni program ima NVIDIA certificirani skener koji uzastopno prolazi kroz cijeli raspon temperatura, frekvencija i napona, postižući maksimalnu učinkovitost u svim načinima rada.
Dodajte ovdje novu procesnu tehnologiju, brzu memoriju, sve vrste optimizacija i smanjenje toplinskog paketa čipova, a rezultat će biti jednostavno nepristojan. Od 1500 "baznih" MHz GTX 1060 se može istisnuti i više od 2000 MHz ako naiđe dobar primjerak, a dobavljač ne zajebava hlađenje.
Nova NVIDIA Ansel tehnologija rješava problem sa snimkama zaslona. Da, njegova implementacija zahtijeva integraciju posebnog koda od programera igara, ali postoji minimum stvarnih manipulacija, ali profit je ogroman. Ansel zna pauzirati igru, prebacuje kontrolu nad kamerom u vaše ruke, a onda – prostor za kreativnost. Možete jednostavno snimiti sliku bez GUI-ja i svog omiljenog kuta.
Čisto teoretski, ništa ne sprječava pokretanje takve simulacije na Maxwellu, ali optimizacije u smislu asinkronog izvršavanja instrukcija i novog sustava prekida ugrađenog u Pascals omogućuju vam izračune bez značajnog utjecaja na brzinu kadrova.
Odmah ću dati neke općenite komentare: Vulkan je vrlo proždrljiv u pogledu video memorije, za njega je ova karakteristika jedan od glavnih pokazatelja, a ovu tezu ćete vidjeti u benchmarkovima. DX12 na AMD karticama se ponaša puno bolje nego na NVIDIA-i, ako "zeleni" pokazuju prosječni pad FPS-a na novim API-jima, onda oni "crveni", naprotiv, pokazuju povećanje.
Na svim slikama nema jezgrene frekvencije, jer je individualna za svaki slučaj: 1050 bez dodatnih. snaga možda neće juriti, a njezina sestra sa 6-pinskim konektorom lako će uzeti uvjetnih 1,9 GHz. Što se tiče snage i duljine, prikazane su najpopularnije opcije, uvijek možete pronaći video karticu s drugim krugom ili drugim hlađenjem koji se ne uklapa u navedene "standarde".
GTX 1050 ima grafički procesor GP107, naslijeđen od starije kartice s blagim podrezivanjem funkcionalnih blokova. 2 GB video memorije neće vas pustiti da divljate, ali za e-sportske discipline i igranje nekakvih tenkova savršeno je, budući da cijena juniorske kartice počinje od 9,5 tisuća rubalja. Dodatno napajanje nije potrebno, video kartici je potrebno samo 75 W od matične ploče preko PCI-Express utora. Istina, u ovom cjenovnom segmentu nalazi se i AMD Radeon RX460, koji je s istih 2 GB memorije jeftiniji, a kvalitetom gotovo da nije lošiji, a za otprilike isti novac možete dobiti RX460, ali u 4 GB verzija. Ne da su mu puno pomogli, nego nekakva rezerva za budućnost. Izbor dobavljača nije toliko važan, možete uzeti ono što je dostupno i ne izvlačite džep s dodatnih tisuću rubalja, što je bolje potrošiti na njegovana slova Ti.
DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks isključen): DX11 - 44 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.
Ovdje je apsolutni favorit po pitanju cijene i ispuha verzija iz MSI-ja. Dobre frekvencije, tihi sustav hlađenja i razumne dimenzije. Za nju ne traže baš ništa, u regiji od 15 tisuća rubalja.
Želio bih još jednom primijetiti ponašanje video kartica pri korištenju Vulkan API-ja. 1050 s 2 GB memorije - FPS pad. 1050 Ti s 4 GB - gotovo na razini. 1060 3 GB - povlačenje. 1060 6 GB - rast rezultata. Trend je, mislim, jasan: Vulkanu treba 4+ GB video memorije.
Problem je što obje 1060 nisu male video kartice. Čini se da je toplinski paket razuman, a ploča je stvarno mala, ali mnogi su dobavljači odlučili jednostavno objediniti sustav hlađenja između 1080, 1070 i 1060. Netko ima video kartice visoke 2 utora, ali duge 28+ centimetara, netko je napravio kraći su, ali deblji (2,5 utora). Birajte pažljivo.
Nažalost, dodatnih 3 GB video memorije i otključana računalna jedinica koštat će vas ~ 5-6 tisuća rubalja povrh cijene verzije od 3 koncerta. U ovom slučaju, Palit ima najzanimljivije opcije za cijenu i kvalitetu. ASUS je izbacio monstruozne rashladne sustave od 28 cm, koji su isklesani na 1080, 1070 i 1060, a takva video kartica neće nigdje stati, verzije bez tvorničkog overclockanja koštaju gotovo isto, a ispuh je manji, a traže više za relativno kompaktan MSI od konkurenata na približno istoj razini kvalitete i tvorničkom overclockanju.
Rezolucije od 2560x1440 i 3840x2160 video kartica probavlja s praskom. Sustav za overclocking Boost 3.0 pokušat će baciti drva za ogrjev kada se opterećenje GPU-a poveća (to jest, u najtežim scenama, kada FPS padne pod naletom specijalnih efekata), overklokirajući procesor video kartice na neverovatnih 2100+ MHz. Memorija lako dobiva 15-18% efektivne frekvencije iznad tvorničkih vrijednosti. Čudovište.
DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks isključen): DX11 - 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.
Naravno, nemoguće je izvući ultra-postavke u 4k i nikada ne padati ispod 60 sličica u sekundi bilo ovom karticom ili 1080, ali možete igrati na uvjetno "visokim" postavkama, isključivanjem ili lagano spuštanjem najproždrljivijih značajki u potpunosti razlučivosti, a po stvarnim performansama grafička kartica lako nadmašuje čak i prošlogodišnji 980 Ti koji je koštao gotovo duplo skuplje. Gigabyte ima najzanimljiviju opciju: uspjeli su ugurati punopravni 1070 u ITX standardno kućište. Zahvaljujući skromnom toplinskom paketu i energetski učinkovitom dizajnu. Cijene kartica počinju od 29-30 tisuća rubalja za ukusne opcije.
DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks isključen): DX11 - 55 FPS;
Battlefield 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.
Ostaje samo odlučiti: trebate ga ili možete uštedjeti novac i uzeti 1070. Nema velike razlike između igranja na "ultra" ili "visokim" postavkama, budući da moderni motori savršeno crtaju sliku u visokoj rezoluciji čak i na srednjim postavkama : na kraju krajeva, mi imamo da niste sapunaste konzole koje ne mogu pružiti dovoljne performanse za iskrene 4k i stabilne 60fps.
Ako odbacimo najjeftinije opcije, Palit će opet imati najbolju kombinaciju cijene i kvalitete u verziji GameRock (oko 43-45 tisuća rubalja): da, sustav hlađenja je "debeo", 2,5 utora, ali video kartica kraći je od konkurenata, a par 1080 se rijetko instalira. SLI polako umire, a ni životvorna injekcija brzih mostova mu ne pomaže puno. Opcija ASUS ROG nije loša ako imate instalirano puno dodataka. ne želite pokriti dodatne utore za proširenje: njihova je video kartica debela točno 2 utora, ali zahtijeva 29 centimetara slobodnog prostora od stražnjeg zida do košare tvrdog diska. Pitam se hoće li Gigabyte uspjeti pustiti ovo čudovište u ITX formatu?
1050Ti je, pak, odlična opcija za one koji više cijene priču i igru od zviždaljki i realističnih dlačica u nosu. Nema usko grlo u vidu 2 GB video memorije, neće se “spustiti” nakon godinu dana. Možete staviti novac na to - učinite to. The Witcher na visokim postavkama, GTA V, DOOM, BF 1 - nema problema. Da, morat ćete odustati od brojnih poboljšanja, kao što su ekstra duge sjene, složena teselacija ili "skupo" izračunavanje samosjenčajućih modela s ograničenim praćenjem zraka, ali u žaru borbe zaboravit ćete na ove ljepote nakon 10 minuta igre, a stabilnih 50-60 sličica u sekundi dat će puno više imerzivnog efekta nego živčani skokovi s 25 na 40, ali s postavkama na "maksimum".
Ako imate bilo koju Radeon 7850, GTX 760 ili mlađu, video karticu s 2 GB video memorije ili manje, možete sigurno mijenjati.
Nema smisla mijenjati GTX 970 u GTX 1060, trebat će još godinu dana. Ali dosadne 960, 770, 780, R9 280X i starije jedinice mogu se sigurno ažurirati na 1060.
Pozdravljamo se sa svakim 780 Ti, R9 390X i ostalim prošlogodišnjim 980-ima, pogotovo ako želimo igrati u visokoj razlučivosti. I, da, ovo je najbolja opcija za one koji vole napraviti paklenu kutiju u Mini-ITX formatu i plašiti goste 4k igricama na TV-u od 60-70 inča koje rade na računalu veličine aparata za kavu.
Povijest grafičke kartice gtx 1050 Dodaj oznake
Prema nedavno objavljenim anegdotskim dokazima, obitelj GPU-a bazirana na Pascalu mogla bi postati jedna od najcjelovitijih NVIDIA-inih linija posljednjih godina. U samo nekoliko mjeseci tvrtka je predstavila četiri GPU-a bazirana na Pascalu i tu neće stati. Prema riječima čelnika tvrtke, predstavljeni su daleko od svih Pascal čipova, a da ne spominjemo prave proizvode. Navodno, u bliskoj budućnosti čekamo nove objave.
NVIDIA Pascal: osam proizvoda u četiri mjeseca
Od travnja ove godine, NVIDIA je predstavila četiri čipa bazirana na Pascalu: GP100 sa 16 GB HBM2 memorije, GP102 s podrškom za GDDR5X, GP104 i GP106. Istovremeno, tvrtka je najavila osam proizvoda baziranih na ovim GPU-ovima (isključujući pojedinačne proizvode raznih vrsta posebnih izdanja, kao i specijalizirane uređaje poput DGX-1): GeForce GTX 1080/1070 (GP104), GeForce GTX 1060 (GP106), TITAN X (GP102 + 12GB GDDR5X), Quadro P5000 (GP104GL + 16GB GDDR5X), Quadro P6000 (GP102GL + 24GB GDDR5X), Tesla P100 SXM i Tesla P100 na bazi HMGP 100 + 16GB.
Iako je četiri GPU-a i osam proizvoda u četiri mjeseca izvanredan uspjeh, primjetno je da tvrtka nije predstavila niti jedno novo rješenje za prijenosno računalo, niti jednu novu grafičku karticu ispod 250 dolara. Prema riječima čelnika NVIDIA-e, tvrtka priprema nove GPU-ove bazirane na Pascalu, oni već postoje u siliciju, ali će na tržište ući tek nakon nekog vremena.
NVIDIA: Svi Pascalovi su spremni, ali nisu svi predstavljeni
“Sve smo dizajnirali, verificirali i pokrenuli proizvodnjuGPU baziran na arhitekturiPascal», rekao je Jen-Hsun Huang, izvršni direktor NVIDIA-e, tijekom konferencijskog poziva s investitorima i financijskim analitičarima. “Međutim, još nismo predstavili sve ove GPU-ove.”
Nove konfiguracije
Međutim, igrače i ljubitelje performansi ne zanimaju toliko interni dijelovi GP107, GP108 i GP102, već činjenica da će svaki Pascal čip postojati u najmanje dvije osnovne konfiguracije (u smislu PCIe ID-a koji NVIDIA drajver koristi ) . To otvara mogućnosti za stvaranje niza novih proizvoda temeljenih na čipovima GP100, GP102, GP104 i GP106.
Dakle, GP104 postoji u konfiguracijama GP104-A i GP104-B, kao i inačice s omogućenim ubrzanjem za profesionalne primjene - GP104GL-A i GP104GL-B. Ne znamo čemu točno odgovaraju slova "A" i "B", ali možemo pretpostaviti da "A" označava mikrosklop u maksimalnoj konfiguraciji. Dakle, GP104-A može odgovarati GeForce GTX 1080, a GP104-B može odgovarati GeForce GTX 1070.
S obzirom na to da mikrokrugovi GP102 i GP106 također postoje u dvije konfiguracije (u svakom slučaju, na to ukazuju baza podataka AIDA64 i NVIDIA drajveri), ali u isto vrijeme postoji samo jedan proizvod koji se temelji na njima (GeForce GTX 1060 i TITAN X) , možemo očekivati pojavu novih rješenja temeljenih na njima. Hoće li ove kartice biti brže ili sporije od postojećih, vrijeme će pokazati. U svakom slučaju, GP102 može skalirati i "gore" (do 3840 stream procesora) i "dolje". Pritom se, naravno, ne može isključiti hipotetska mogućnost pojave treće verzije GP102-C, u slučaju da zatreba NVIDIA-i.
Na ovaj ili onaj način, očito je da NVIDIA planira proširiti obitelj grafičkih kartica baziranih na Pascalu. Iako bi neposredni planovi jasno trebali uključivati mobilne i mainstream GPU-ove, vrlo je vjerojatno da ćemo u budućnosti imati nova rješenja za visokoučinkovita gaming računala.
Parametar | Značenje |
---|---|
Kodni naziv čipa | GP104 |
Tehnologija proizvodnje | 16nm FinFET |
Broj tranzistora | 7,2 milijarde |
Područje jezgre | 314 mm² |
Arhitektura | |
DirectX hardverska podrška | |
Sabirnica memorije | |
1607 (1733) MHz | |
Računalni blokovi | 20 multiprocesora za strujanje uključujući 2560 IEEE 754-2008 skalarnih ALU-ova s pomičnim zarezom; |
Teksturni blokovi | 160 jedinica za adresiranje i filtriranje teksture s podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture |
Podrška za monitor |
Specifikacije referentne grafike GeForce GTX 1080 | |
---|---|
Parametar | Značenje |
Frekvencija jezgre | 1607 (1733) MHz |
2560 | |
Broj blokova teksture | 160 |
Broj blokova za miješanje | 64 |
Efektivna frekvencija memorije | 10000 (4×2500) MHz |
Vrsta memorije | GDDR5X |
Sabirnica memorije | 256-bitni |
Memorija | 8 GB |
320 GB/s | |
oko 9 teraflopsa | |
103 gigapiksela/s | |
257 gigateksela/s | |
Guma | PCI Express 3.0 |
Priključci | |
potrošnja energije | do 180 W |
Dodatna hrana | Jedan 8-pinski konektor |
2 | |
Preporučena cijena | 599-699 USD (SAD), 54990 RUB (Rusija) |
Novi model grafičke kartice GeForce GTX 1080 dobio je logično ime za prvo rješenje nove GeForce serije - razlikuje se od svog izravnog prethodnika samo po promijenjenoj generacijskoj brojci. Novost ne samo da zamjenjuje vrhunska rješenja u trenutnoj liniji tvrtke, već je neko vrijeme postala i perjanica nove serije, sve dok Titan X nije pušten na još snažniji GPU. Ispod njega u hijerarhiji je također već najavljeni model GeForce GTX 1070, baziran na smanjenoj verziji GP104 čipa, koji ćemo razmotriti u nastavku.
Predložene cijene za Nvidijinu novu grafičku karticu su 599 USD i 699 USD za regularnu i Founders Edition (vidi dolje), što je prilično dobar posao s obzirom da je GTX 1080 ispred ne samo GTX 980 Ti, već i Titan X. Danas je novi proizvod bez ikakvih pitanja najbolje rješenje u pogledu performansi na tržištu single-chip video kartica, a ujedno je i jeftiniji od najmoćnijih video kartica prethodne generacije. Za sada GeForce GTX 1080 u biti nema konkurenta iz AMD-a, pa je Nvidia uspjela postaviti cijenu koja im odgovara.
Predmetna video kartica temelji se na GP104 čipu koji ima 256-bitnu memorijsku sabirnicu, ali nova vrsta GDDR5X memorije radi na vrlo visokoj efektivnoj frekvenciji od 10 GHz, što daje visoku vršnu propusnost od 320 GB/s. - što je gotovo izjednačeno s GTX 980 Ti s 384-bitnom sabirnicom. Količina memorije instalirane na video kartici s takvom sabirnicom mogla bi biti 4 ili 8 GB, ali bi bilo glupo postaviti manji iznos za tako moćno rješenje u modernim uvjetima, pa je GTX 1080 dobio 8 GB memorije, a ovaj iznos dovoljan je za pokretanje bilo koje 3D aplikacije s bilo kojim postavkama kvalitete u narednim godinama.
GeForce GTX 1080 PCB je razumljivo dosta drugačiji od prethodnih PCB-a tvrtke. Vrijednost tipične potrošnje energije za nove artikle je 180 vata – nešto više od GTX 980, ali osjetno niže od manje moćnih Titan X i GTX 980 Ti. Referentna ploča ima uobičajeni set konektora za spajanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort.
Čak i uz najavu GeForce GTX 1080 početkom svibnja najavljeno je posebno izdanje video kartice pod nazivom Founders Edition, koja ima višu cijenu od običnih video kartica partnera tvrtke. Zapravo, ovo izdanje je referentni dizajn kartice i sustava hlađenja, a proizvodi ga sama Nvidia. Možete imati različite stavove prema takvim opcijama za video kartice, ali referentni dizajn koji su razvili inženjeri tvrtke i proizveden od visokokvalitetnih komponenti ima svoje obožavatelje.
No, hoće li platiti nekoliko tisuća rubalja više za video karticu same Nvidije, pitanje je na koje može odgovoriti samo praksa. U svakom slučaju, isprva će se u prodaji pojaviti referentne grafičke kartice iz Nvidie po povećanoj cijeni, i nema puno izbora - to se događa sa svakom najavom, no referentna GeForce GTX 1080 je drugačija po tome planira se prodavati u ovom obliku tijekom cijelog životnog vijeka, do izlaska rješenja sljedeće generacije.
Nvidia vjeruje da ovo izdanje ima svoje prednosti čak i nad najboljim radovima partnera. Na primjer, dizajn hladnjaka s dva utora olakšava sastavljanje kako igraćih računala relativno malog oblika, tako i videosustava s više čipova baziranih na ovoj moćnoj video kartici (čak i unatoč tome što se način rada s tri i četiri čipa ne preporučuje od strane tvrtke). GeForce GTX 1080 Founders Edition ima neke prednosti u obliku učinkovitog hladnjaka koji koristi komoru za isparavanje i ventilator koji gura zagrijani zrak iz kućišta – ovo je prvo takvo rješenje iz Nvidije koje troši manje od 250 vata energije.
U usporedbi s prethodnim referentnim dizajnom proizvoda tvrtke, strujni krug je nadograđen s četverofaznog na petfazni. Nvidia također govori o poboljšanim komponentama na kojima se temelji novi proizvod, smanjena je i električna buka kako bi se poboljšala stabilnost napona i potencijal za overclocking. Kao rezultat svih poboljšanja, energetska učinkovitost referentne ploče povećana je za 6% u odnosu na GeForce GTX 980.
A kako bi se razlikovali od "običnih" modela GeForce GTX 1080 i izvana, za Founders Edition je razvijen neobičan "usitnjeni" dizajn kućišta. Što je, međutim, vjerojatno dovelo i do kompliciranja oblika evaporacijske komore i radijatora (vidi fotografiju), što je možda bio jedan od razloga da se za ovako posebno izdanje doplati 100 dolara. Ponavljamo da na početku prodaje kupci neće imati puno izbora, no u budućnosti će biti moguće odabrati i rješenje s vlastitim dizajnom od jednog od partnera tvrtke, a u izvedbi same Nvidie.
GeForce GTX 1080 video kartica je prvo rješenje tvrtke bazirano na GP104 čipu, koji pripada novoj generaciji Nvidijine Pascal grafičke arhitekture. Iako se nova arhitektura temelji na rješenjima razrađenim u Maxwellu, ima i bitne funkcionalne razlike o kojima ćemo pisati kasnije. Glavna promjena s globalne točke gledišta bio je novi tehnološki proces prema kojem je napravljen novi grafički procesor.
Korištenje 16 nm FinFET procesne tehnologije u proizvodnji GP104 GPU-a u tvornicama tajvanske tvrtke TSMC omogućilo je značajno povećanje složenosti čipa uz zadržavanje relativno niske površine i cijene. Usporedite broj tranzistora i područje čipova GP104 i GM204 - oni su bliski po površini (čip novosti je još fizički manji), ali čip arhitekture Pascal ima znatno veći broj tranzistora, i, sukladno tome , izvedbene jedinice, uključujući one koje pružaju novu funkcionalnost.
Sa arhitektonske točke gledišta, prvi gaming Pascal vrlo je sličan sličnim rješenjima Maxwellove arhitekture, iako postoje neke razlike. Poput Maxwella, procesori Pascal arhitekture imat će različite konfiguracije klastera za grafičku obradu (GPC), višeprocesora za strujanje (SM) i memorijskih kontrolera. SM multiprocesor je vrlo paralelan multiprocesor koji raspoređuje i pokreće warps (warps, grupe od 32 toka instrukcija) na CUDA jezgri i drugim izvršnim jedinicama u multiprocesoru. Detaljne informacije o dizajnu svih ovih blokova možete pronaći u našim recenzijama prethodnih Nvidia rješenja.
Svaki od SM multiprocesora uparen je s PolyMorph Engineom, koji upravlja uzorkovanjem teksture, teselacijom, transformacijom, postavljanjem atributa vrha i korekcijom perspektive. Za razliku od prethodnih rješenja tvrtke, PolyMorph Engine u GP104 čipu također sadrži novi blok Simultaneous Multi-Projection, o kojem ćemo govoriti u nastavku. Kombinacija SM multiprocesora s jednim Polymorph Engineom tradicionalno se naziva TPC - Texture Processor Cluster za Nvidiju.
Ukupno, GP104 čip u GeForce GTX 1080 sadrži četiri GPC klastera i 20 SM multiprocesora, kao i osam memorijskih kontrolera u kombinaciji sa 64 ROP-a. Svaki GPC klaster ima namjenski stroj za rasterizaciju i uključuje pet SM-ova. Svaki se multiprocesor, pak, sastoji od 128 CUDA jezgri, 256 KB registarske datoteke, 96 KB dijeljene memorije, 48 KB L1 predmemorije i osam TMU teksturnih jedinica. To jest, ukupno GP104 sadrži 2560 CUDA jezgri i 160 TMU jedinica.
Također, grafički procesor na kojem se temelji GeForce GTX 1080 sadrži osam 32-bitnih (za razliku od prethodno korištenih 64-bitnih) memorijskih kontrolera, što nam daje konačnu 256-bitnu memorijsku sabirnicu. Osam ROP-ova i 256 KB L2 predmemorije vezano je za svaki od memorijskih kontrolera. To jest, ukupno GP104 čip sadrži 64 ROP-a i 2048 KB L2 predmemorije.
Zahvaljujući arhitektonskim optimizacijama i novoj tehnologiji procesa, prvi Pascal za igre postao je energetski najučinkovitiji GPU ikada. Štoviše, tome doprinosi kako jedan od najnaprednijih tehnoloških procesa 16 nm FinFET, tako i optimizacije arhitekture provedene u Pascalu, u usporedbi s Maxwellom. Nvidia je uspjela povećati brzinu takta čak i više nego što su očekivali prelaskom na novu procesnu tehnologiju. GP104 radi na višoj frekvenciji od hipotetskog GM204 izrađenog 16nm postupkom. Da bi to učinili, Nvidijini inženjeri morali su pažljivo provjeriti i optimizirati sva uska grla prethodnih rješenja koja sprječavaju overclockanje iznad određenog praga. Kao rezultat toga, nova GeForce GTX 1080 radi na preko 40% većim brzinama takta od GeForce GTX 980. Ali to nije sve što se tiče promjena takta GPU-a.
Kao što dobro znamo iz prethodnih Nvidia grafičkih kartica, u svojim GPU-ovima koriste hardversku tehnologiju GPU Boost, dizajniranu da poveća radnu brzinu GPU-a u načinima u kojima još nije dosegao svoju potrošnju energije i toplinske granice. Tijekom godina ovaj algoritam je doživio mnoge promjene, a već se treća generacija ove tehnologije koristi u video čipu Pascal arhitekture – GPU Boost 3.0, čija je glavna inovacija finije podešavanje turbo frekvencija, ovisno o naponu.
Ako se sjećate principa rada prethodnih verzija tehnologije, tada je razlika između osnovne frekvencije (zajamčena minimalna vrijednost frekvencije ispod koje GPU ne pada, barem u igrama) i turbo frekvencije bila fiksna. Odnosno, turbo frekvencija je uvijek bila određeni broj megaherca iznad baze. GPU Boost 3.0 uveo je mogućnost postavljanja pomaka turbo frekvencije za svaki napon zasebno. Najlakši način da to shvatite je pomoću ilustracije:
S lijeve strane je GPU Boost druge verzije, s desne strane - treća, koja se pojavila u Pascalu. Fiksna razlika između osnovne i turbo frekvencije nije dopuštala da se otkriju pune mogućnosti GPU-a, u nekim slučajevima GPU-ovi prethodnih generacija mogli su raditi brže na zadanom naponu, ali fiksni višak turbo frekvencije to nije dopuštao. U GPU Boostu 3.0 pojavila se ova značajka, a turbo frekvencija se može postaviti za svaku od pojedinačnih vrijednosti napona, potpuno istiskujući sav sok iz GPU-a.
Za upravljanje overclockingom i postavljanje krivulje turbo frekvencije potrebni su praktični uslužni programi. Sama Nvidia to ne čini, ali pomaže svojim partnerima da kreiraju takve uslužne programe kako bi olakšali overclocking (naravno, u razumnim granicama). Na primjer, nova funkcionalnost GPU Boost 3.0 već je otkrivena u EVGA Precision XOC, koja uključuje namjenski skener za overclocking koji automatski pronalazi i postavlja nelinearnu razliku između osnovne frekvencije i turbo frekvencije pri različitim naponima pokretanjem ugrađenog test performansi i stabilnosti. Kao rezultat, korisnik dobiva turbo frekvencijsku krivulju koja savršeno odgovara mogućnostima određenog čipa. Što se, osim toga, može mijenjati kako želite u ručnom načinu rada.
Kao što možete vidjeti na snimci zaslona uslužnog programa, osim informacija o GPU-u i sustavu, tu su i postavke za overclocking: Power Target (definira tipičnu potrošnju energije tijekom overclockanja, kao postotak standarda), GPU Temp Target (maksimalna dopuštena temperatura jezgre), GPU Clock Offset (premašavanje osnovne frekvencije za sve vrijednosti napona), Memory Offset (premašavanje frekvencije video memorije iznad zadane vrijednosti), Overvoltage (dodatna prilika za povećanje napona).
Uslužni program Precision XOC uključuje tri načina overclockinga: Osnovni, Linearni i Ručni. U glavnom načinu rada možete postaviti jednu vrijednost overclocka (fiksnu turbo frekvenciju) u odnosu na osnovnu, kao što je bio slučaj s prethodnim GPU-ovima. Linearni način rada omogućuje vam postavljanje frekvencijske rampe od minimalnih do maksimalnih vrijednosti napona za GPU. Pa, u ručnom načinu rada, možete postaviti jedinstvene vrijednosti frekvencije GPU-a za svaku točku napona na grafikonu.
Uslužni program također uključuje poseban skener za automatski overclocking. Možete postaviti vlastite razine frekvencije ili dopustiti Precision XOC da skenira GPU na svim naponima i potpuno automatski pronađe najstabilnije frekvencije za svaku točku na krivulji napona i frekvencije. Tijekom procesa skeniranja, Precision XOC postepeno povećava frekvenciju GPU-a i provjerava stabilnost ili artefakte u njegovom radu, stvarajući idealnu krivulju frekvencije i napona koja će biti jedinstvena za svaki pojedini čip.
Ovaj skener se može prilagoditi vašim vlastitim zahtjevima postavljanjem vremenskog intervala za testiranje svake vrijednosti napona, minimalne i maksimalne frekvencije koja se testira i koraka. Jasno je da bi za postizanje stabilnih rezultata bilo bolje postaviti mali korak i pristojno trajanje testiranja. Tijekom testiranja može se primijetiti nestabilan rad video drajvera i sustava, ali ako se skener ne zamrzne, vratit će rad i nastaviti pronalaziti optimalne frekvencije.
Dakle, snaga GPU-a je značajno porasla, a memorijska sabirnica je ostala samo 256-bitna – hoće li memorijski pojas ograničiti ukupne performanse i što se može učiniti po tom pitanju? Čini se da je obećavajuća druga generacija HBM-a još uvijek preskupa za proizvodnju, pa je trebalo tražiti druge opcije. Još od uvođenja GDDR5 memorije 2009. godine, Nvidijini inženjeri istražuju mogućnosti korištenja novih vrsta memorije. Kao rezultat toga, razvoj je došao do uvođenja novog memorijskog standarda GDDR5X - najsloženijeg i najnaprednijeg standarda do sada, koji daje brzinu prijenosa od 10 Gbps.
Nvidia daje zanimljiv primjer koliko je ovo brzo. Prođe samo 100 pikosekundi između odaslanih bitova - za to vrijeme će snop svjetlosti putovati na udaljenosti od samo jednog inča (oko 2,5 cm). A kada se koristi GDDR5X memorija, sklopovi za primanje podataka moraju odabrati vrijednost odaslanog bita u manje od polovice ovog vremena prije nego se sljedeći pošalje - ovo je samo da shvatite do čega je moderna tehnologija došla.
Postizanje ove brzine zahtijevalo je razvoj nove arhitekture I/O sustava koja je zahtijevala nekoliko godina zajedničkog razvoja s proizvođačima memorijskih čipova. Uz povećanu brzinu prijenosa podataka, povećana je i energetska učinkovitost – GDDR5X memorijski čipovi koriste niži napon od 1,35 V i proizvedeni su po novim tehnologijama, što daje istu potrošnju energije na 43% višoj frekvenciji.
Inženjeri tvrtke morali su preraditi vodove za prijenos podataka između jezgre GPU-a i memorijskih čipova, obraćajući više pažnje na sprječavanje gubitka signala i degradacije signala sve od memorije do GPU-a i natrag. Dakle, na gornjoj ilustraciji uhvaćeni signal je prikazan kao veliko simetrično "oko", što ukazuje na dobru optimizaciju cijelog kruga i relativnu lakoću hvatanja podataka iz signala. Štoviše, gore opisane promjene dovele su ne samo do mogućnosti korištenja GDDR5X na 10 GHz, već bi također trebale pomoći u dobivanju velike propusnosti memorije na budućim proizvodima koji koriste poznatiju GDDR5 memoriju.
Pa, dobili smo više od 40% povećanja memorijskog pojasa korištenjem nove memorije. Ali zar to nije dovoljno? Kako bi dodatno povećala učinkovitost memorijskog pojasa, Nvidia je nastavila poboljšavati naprednu kompresiju podataka uvedenu u prethodnim arhitekturama. Memorijski podsustav u GeForce GTX 1080 koristi poboljšane i nekoliko novih tehnika kompresije podataka bez gubitaka dizajniranih da smanje zahtjeve za širinom pojasa - već četvrtu generaciju kompresije na čipu.
Algoritmi za kompresiju podataka u memoriji donose nekoliko pozitivnih aspekata odjednom. Kompresija smanjuje količinu podataka upisanih u memoriju, isto vrijedi i za podatke koji se prenose iz video memorije u predmemoriju druge razine, što poboljšava učinkovitost korištenja L2 predmemorije, budući da komprimirana pločica (blok od nekoliko piksela međuspremnika okvira) ima manji veličine od nekomprimirane. Također smanjuje količinu podataka koji se šalju između različitih točaka, kao što su TMU modul teksture i framebuffer.
Cjevovod kompresije podataka u GPU-u koristi nekoliko algoritama, koji se određuju ovisno o "komprimibilnosti" podataka - za njih se odabire najbolji dostupni algoritam. Jedan od najvažnijih je algoritam delta kompresije boja. Ova metoda kompresije kodira podatke kao razliku između uzastopnih vrijednosti umjesto samih podataka. GPU izračunava razliku u vrijednostima boja između piksela u bloku (pločica) i pohranjuje blok kao neku prosječnu boju za cijeli blok plus podatke o razlici vrijednosti za svaki piksel. Za grafičke podatke ova metoda je obično prikladna, budući da se boja unutar malih pločica za sve piksele često ne razlikuje previše.
GP104 GPU u GeForce GTX 1080 podržava više algoritama kompresije od prethodnih čipova arhitekture Maxwell. Tako je algoritam kompresije 2:1 postao učinkovitiji, a osim njega pojavila su se dva nova algoritma: način kompresije 4:1, pogodan za slučajeve kada je razlika u vrijednosti boje piksela bloka vrlo velika. mali, i način rada 8:1, koji kombinira konstantnu kompresiju 4:1 blokova 2×2 piksela s 2x delta kompresijom između blokova. Kada kompresija uopće nije moguća, ne koristi se.
Međutim, u stvarnosti, ovo drugo se događa vrlo rijetko. To se može vidjeti iz primjera snimki zaslona iz igre Project CARS, koje je Nvidia citirala kako bi ilustrirala povećani omjer kompresije u Pascalu. Na ilustracijama su one pločice međuspremnika okvira koje je GPU mogao komprimirati zasjenjene magentom, a one koje se nisu mogle komprimirati bez gubitka ostale su originalne boje (gore - Maxwell, dolje - Pascal).
Kao što vidite, novi algoritmi kompresije u GP104 stvarno rade puno bolje nego u Maxwellu. Iako je stara arhitektura također uspjela komprimirati većinu pločica u sceni, puno trave i drveća oko rubova, kao ni dijelovi automobila, ne podliježu starim algoritmima kompresije. Ali s uključivanjem novih tehnika u Pascal, vrlo mali broj područja slike ostao je nekomprimiran - vidljiva je poboljšana učinkovitost.
Kao rezultat poboljšanja kompresije podataka, GeForce GTX 1080 je u mogućnosti značajno smanjiti količinu podataka koji se šalju po kadru. U brojkama, poboljšana kompresija štedi dodatnih 20% efektivne memorijske propusnosti. Uz više od 40% povećanja memorijske propusnosti GeForce GTX 1080 u odnosu na GTX 980 korištenjem GDDR5X memorije, sve to zajedno daje oko 70% povećanje efektivne propusnosti memorije u odnosu na model prethodne generacije.
Većina modernih igara osim grafike koristi složene izračune. Na primjer, proračuni pri izračunavanju ponašanja fizičkih tijela mogu se provoditi ne prije ili nakon grafičkih proračuna, već istovremeno s njima, budući da nisu međusobno povezani i ne ovise jedno o drugom unutar istog okvira. Drugi primjer je naknadna obrada već renderiranih okvira i obrada audio podataka, koja se također može izvoditi paralelno s renderiranjem.
Još jedan jasan primjer korištenja funkcionalnosti je tehnika asinkronog vremenskog iskrivljavanja koja se koristi u VR sustavima za promjenu izlaznog okvira u skladu s pomakom glave igrača neposredno prije izlaza, prekidajući renderiranje sljedećeg. Takvo asinkrono učitavanje GPU kapaciteta omogućuje povećanje učinkovitosti korištenja njegovih izvršnih jedinica.
Ova radna opterećenja stvaraju dva nova scenarija upotrebe GPU-a. Prvi od njih uključuje opterećenja koja se preklapaju, budući da mnoge vrste zadataka ne koriste u potpunosti mogućnosti GPU-a, a neki resursi su neaktivni. U takvim slučajevima možete jednostavno pokrenuti dva različita zadatka na istom GPU-u, odvajajući njegove izvršne jedinice kako biste dobili učinkovitiju upotrebu - na primjer, PhysX efekte koji se pokreću zajedno s 3D prikazivanjem okvira.
Kako bi poboljšala performanse ovog scenarija, Pascal arhitektura je uvela dinamičko balansiranje opterećenja. U prethodnoj arhitekturi Maxwella, preklapajuća radna opterećenja implementirana su kao statička distribucija GPU resursa između grafike i računala. Ovaj pristup je učinkovit pod uvjetom da ravnoteža između dvaju radnih opterećenja otprilike odgovara podjeli resursa i da se zadaci odvijaju jednako u vremenu. Ako negrafički izračuni traju dulje od grafičkih, a oba čekaju završetak zajedničkog posla, tada će dio GPU-a biti neaktivan preostalo vrijeme, što će uzrokovati smanjenje ukupne performanse i poništiti sve prednosti. Hardversko dinamičko balansiranje opterećenja, s druge strane, omogućuje vam korištenje oslobođenih GPU resursa čim postanu dostupni - radi razumijevanja, dat ćemo ilustraciju.
Postoje i zadaci koji su vremenski kritični, a ovo je drugi scenarij za asinkrono računanje. Na primjer, izvođenje algoritma asinkronog izobličenja vremena u VR-u mora biti dovršeno prije skeniranja ili će okvir biti odbačen. U takvom slučaju, GPU mora podržati vrlo brz prekid zadatka i prebacivanje na drugi zadatak kako bi preuzeo manje kritičan zadatak od izvršenja na GPU-u, oslobađajući svoje resurse za kritične zadatke - to se zove preemption.
Jedna naredba renderiranja iz motora igre može sadržavati stotine poziva za crtanje, svaki poziv za crtanje zauzvrat sadrži stotine renderiranih trokuta, od kojih svaki sadrži stotine piksela koje treba izračunati i nacrtati. Tradicionalni GPU pristup koristi samo prekid zadatka na visokoj razini, a grafički cjevovod mora čekati da se sav taj posao dovrši prije prebacivanja zadataka, što rezultira vrlo velikom latencijom.
Da bi se to popravilo, Pascal arhitektura je najprije uvela mogućnost prekidanja zadatka na razini piksela - Pixel Level Preemption. Izvršne jedinice Pascal GPU-a mogu stalno pratiti napredak zadataka renderiranja, a kada se zatraži prekid, mogu zaustaviti izvršenje, spremajući kontekst za kasniji završetak brzim prebacivanjem na drugi zadatak.
Prekid i preklop na razini niti za računske operacije funkcioniraju slično kao prekid na razini piksela za grafičko računanje. Računalna opterećenja sastoje se od više mreža, od kojih svaka sadrži više niti. Kada se primi zahtjev za prekid, niti koje se izvode na višeprocesoru prekidaju svoje izvođenje. Drugi blokovi spremaju svoje vlastito stanje kako bi nastavili s iste točke u budućnosti, a GPU se prebacuje na drugi zadatak. Cijeli proces prebacivanja zadataka traje manje od 100 mikrosekundi nakon izlaska pokrenutih niti.
Za radna opterećenja igranja, kombinacija prekida na razini piksela za grafiku i prekida na razini niti za računalne zadatke daje GPU-ovima Pascal arhitekture mogućnost brzog prebacivanja između zadataka uz minimalan gubitak vremena. A za računalne zadatke na CUDA-i također je moguće prekinuti s minimalnom granularnošću - na razini instrukcija. U ovom načinu rada sve niti odjednom zaustavljaju izvršavanje, odmah se prebacujući na drugi zadatak. Ovaj pristup zahtijeva spremanje više informacija o stanju svih registara svake niti, ali je u nekim slučajevima negrafičkih izračuna sasvim opravdano.
Korištenje brzog prekida i prebacivanja zadataka u grafičkim i računskim zadacima dodano je Pascal arhitekturi kako bi se grafički i negrafički zadaci mogli prekinuti na razini pojedinačnih instrukcija, a ne cijelih niti, kao što je bio slučaj s Maxwellom i Keplerom. . Ove tehnologije mogu poboljšati asinkrono izvršavanje različitih GPU radnih opterećenja i poboljšati odziv pri pokretanju više zadataka u isto vrijeme. Na Nvidia eventu pokazali su demonstraciju rada asinkronih proračuna na primjeru izračunavanja fizičkih efekata. Ako je bez asinkronih izračuna izvedba bila na razini od 77-79 FPS, tada se s uključivanjem ovih značajki brzina kadrova povećala na 93-94 FPS.
Već smo dali primjer jedne od mogućnosti korištenja ove funkcionalnosti u igrama u obliku asinkronog izobličenja vremena u VR-u. Ilustracija prikazuje rad ove tehnologije s tradicionalnim prekidom (preuzimanjem) i brzo. U prvom slučaju, proces asinkronog vremenskog izobličenja pokušava se provesti što je kasnije moguće, ali prije početka ažuriranja slike na zaslonu. No, rad algoritma mora se dati na izvršenje u GPU-u nekoliko milisekundi ranije, budući da bez brzog prekida nema načina da se točno izvrši rad u pravo vrijeme, a GPU neko vrijeme miruje.
U slučaju preciznog prekida na razini piksela i niti (prikazano desno), ova mogućnost daje veću točnost u određivanju trenutka prekida, a asinkrono vremensko iskrivljenje može se započeti mnogo kasnije s povjerenjem u završetak posla prije počinje ažuriranje informacija na zaslonu. I u mirovanju neko vrijeme u prvom slučaju, GPU se može opteretiti dodatnim grafičkim radom.
Novi GPU GP104 dodaje podršku za novu tehnologiju simultane višestruke projekcije (SMP) koja omogućuje GPU-u učinkovitije prikazivanje podataka na modernim sustavima prikaza. SMP omogućuje video čipu da istovremeno prikazuje podatke u nekoliko projekcija, što je zahtijevalo uvođenje novog hardverskog bloka u GPU kao dio PolyMorph motora na kraju geometrijskog cjevovoda prije bloka rasterizacije. Ovaj blok je odgovoran za rad s višestrukim projekcijama za jedan geometrijski tok.
Motor za više projekcija simultano obrađuje geometrijske podatke za 16 unaprijed konfiguriranih projekcija koje kombiniraju točku projekcije (kamere), te se projekcije mogu neovisno rotirati ili naginjati. Budući da se svaki primitiv geometrije može pojaviti istovremeno u više projekcija, SMP motor pruža ovu funkcionalnost, dopuštajući aplikaciji da uputi video čipu da replicira geometriju do 32 puta (16 projekcija u dva projekcijska centra) bez dodatne obrade.
Cijeli proces obrade je hardverski ubrzan, a budući da multiprojekcija radi nakon geometrijskog motora, ne treba više puta ponavljati sve faze obrade geometrije. Ušteđeni resursi važni su kada je brzina renderiranja ograničena izvedbom obrade geometrije, kao što je teselacija, kada se isti geometrijski rad izvodi nekoliko puta za svaku projekciju. Sukladno tome, u vršnom slučaju, višestruka projekcija može smanjiti potrebu za obradom geometrije do 32 puta.
Ali zašto je sve to potrebno? Postoji nekoliko dobrih primjera u kojima tehnologija višestrukih projekcija može biti korisna. Na primjer, sustav s više monitora od tri zaslona postavljena pod kutom jedan prema drugome dovoljno blizu korisniku (surround konfiguracija). U tipičnoj situaciji, scena je prikazana u jednoj projekciji, što dovodi do geometrijskih izobličenja i pogrešnog renderiranja geometrije. Ispravan način su tri različite projekcije za svaki od monitora, prema kutu pod kojim se nalaze.
S video karticom na čipu s Pascal arhitekturom, to se može učiniti u jednom geometrijskom prolazu, navodeći tri različite projekcije, svaka za drugi monitor. A korisnik će, tako, moći promijeniti kut pod kojim se monitori nalaze jedan prema drugome ne samo fizički, već i virtualno - rotirajući projekcije za bočne monitore kako bi dobio ispravnu perspektivu u 3D sceni s osjetno širi kut gledanja (FOV). Istina, ovdje postoji ograničenje - za takvu podršku, aplikacija mora biti u mogućnosti renderirati scenu sa širokim FOV i koristiti posebne SMP API pozive za postavljanje. To jest, ne možete to učiniti u svakoj igri, potrebna vam je posebna podrška.
U svakom slučaju, dani jedne projekcije na jednom ravnom monitoru su prošli, sada postoje mnoge konfiguracije s više monitora i zakrivljeni zasloni koji također mogu koristiti ovu tehnologiju. Da ne spominjemo sustave virtualne stvarnosti koji koriste posebne leće između ekrana i očiju korisnika, a koji zahtijevaju nove tehnike projiciranja 3D slike u 2D sliku. Mnoge od ovih tehnologija i tehnika još su u ranom razvoju, glavna stvar je da stariji GPU-ovi ne mogu učinkovito koristiti više od jedne ravninske projekcije. Zahtijevaju višestruke prolaze renderiranja, višestruku obradu iste geometrije i tako dalje.
Maxwell čipovi su imali ograničenu podršku za više rezolucija kako bi se povećala učinkovitost, ali Pascalov SMP može učiniti mnogo više. Maxwell je mogao rotirati projekciju za 90 stupnjeva za mapiranje kocke ili različite rezolucije projekcije, ali to je bilo korisno samo u ograničenom rasponu aplikacija kao što je VXGI.
Ostale mogućnosti za korištenje SMP-a uključuju renderiranje u različitim razlučivostima i stereo renderiranje u jednom prolazu. Na primjer, renderiranje u različitim razlučivostima (Multi-Res Shading) može se koristiti u igrama za optimizaciju performansi. Kada se primjenjuje, u središtu okvira koristi se viša razlučivost, a na periferiji se smanjuje kako bi se postigla brža brzina renderiranja.
Stereo renderiranje u jednom prolazu koristi se u VR-u, već je dodano u VRWorks paket i koristi značajku višestruke projekcije kako bi se smanjila količina geometrijskog rada potrebnog u VR renderiranju. Ako se koristi ova značajka, GeForce GTX 1080 GPU obrađuje geometriju scene samo jednom, generirajući dvije projekcije za svako oko odjednom, što smanjuje geometrijsko opterećenje GPU-a za polovicu, a također smanjuje i gubitke od drajvera i OS-a.
Još naprednija tehnika za poboljšanje učinkovitosti VR renderiranja je Sjenčanje s podudarnim objektivom, koja koristi višestruke projekcije za simulaciju geometrijskih izobličenja potrebnih za VR renderiranje. Ova metoda koristi višestruku projekciju za renderiranje 3D scene na površinu koja je približna površini prilagođenoj leći kada se renderira za izlaz VR slušalica, izbjegavajući mnoge dodatne piksele na periferiji koji bi bili odbačeni. Suštinu metode najlakše je razumjeti ilustracijom - četiri blago proširene projekcije koriste se ispred svakog oka (u Pascalu možete koristiti 16 projekcija za svako oko - za točniju simulaciju zakrivljene leće) umjesto jedne:
Ovaj pristup može dovesti do značajnih ušteda performansi. Na primjer, tipična Oculus Rift slika po oku je 1,1 megapiksela. Ali zbog razlike u projekcijama, za renderiranje originalna slika je 2,1 megapiksela - 86% više nego što je potrebno! Korištenje višestruke projekcije, implementirane u Pascal arhitekturi, omogućuje smanjenje razlučivosti prikazane slike na 1,4 megapiksela, postižući 1,5-struku uštedu u brzini obrade piksela, a također štedi propusnost memorije.
Uz dvostruku uštedu u brzini obrade geometrije zbog stereo renderiranja u jednom prolazu, grafički procesor GeForce GTX 1080 može pružiti značajno povećanje performansi VR renderiranja, što je vrlo zahtjevno za brzinu obrade geometrije, pa čak i više od toga. obrada piksela.
Uz performanse i nove funkcionalnosti vezane uz 3D renderiranje, potrebno je održavati i dobru razinu izlazne slike, kao i video dekodiranje i kodiranje. I prvi grafički procesor Pascal arhitekture nije razočarao - podržava sve moderne standarde u tom smislu, uključujući hardversko dekodiranje HEVC formata, neophodnog za gledanje 4K videa na računalu. Također, budući vlasnici GeForce GTX 1080 grafičkih kartica uskoro će moći uživati u streamingu 4K videa s Netflixa i drugih provajdera na svojim sustavima.
Što se tiče izlaznog prikaza, GeForce GTX 1080 ima podršku za HDMI 2.0b s HDCP 2.2 kao i DisplayPort. Do sada je certificirana verzija DP 1.2, no GPU je spreman za certifikaciju za novije verzije standarda: DP 1.3 Ready i DP 1.4 Ready. Potonji omogućuje prikaz 4K zaslona na 120Hz, a 5K i 8K prikaza na 60Hz pomoću para DisplayPort 1.3 kabela. Ako je za GTX 980 maksimalna podržana rezolucija bila 5120x3200 na 60Hz, onda je za novi GTX 1080 model narasla na 7680x4320 na istih 60Hz. Referentni GeForce GTX 1080 ima tri DisplayPort izlaza, jedan HDMI 2.0b i jedan digitalni Dual-Link DVI.
Novi model Nvidia video kartice također je dobio poboljšani blok za dekodiranje i kodiranje video podataka. Dakle, GP104 čip je u skladu s visokim standardima PlayReady 3.0 (SL3000) za streaming video reprodukciju, što vam omogućuje da budete sigurni da će reprodukcija visokokvalitetnog sadržaja poznatih pružatelja usluga kao što je Netflix biti najviše kvalitete i energetski učinkovita . Pojedinosti o podršci za različite video formate tijekom kodiranja i dekodiranja dane su u tablici, novi proizvod se jasno razlikuje od prethodnih rješenja na bolje:
No, još zanimljivija novost je podrška za takozvani High Dynamic Range (HDR) zaslone koji će uskoro postati široko rasprostranjeni na tržištu. Televizori su u prodaji već 2016. (s četiri milijuna HDR televizora koji će se prodati u samo jednoj godini), a monitori iduće godine. HDR je najveći napredak u tehnologiji zaslona posljednjih godina, pružajući dvostruko bolje tonove boja (75% vidljivog spektra naspram 33% za RGB), svjetlije zaslone (1000 nita) s većim kontrastom (10000:1) i bogatim bojama.
Pojava mogućnosti reprodukcije sadržaja s većom razlikom u svjetlini te bogatijim i zasićenijim bojama približit će sliku na ekranu stvarnosti, crna boja će postati dublja, jako svjetlo će zaslijepiti, baš kao u stvarnom svijetu . Sukladno tome, korisnici će vidjeti više detalja u svijetlim i tamnim područjima slike u usporedbi sa standardnim monitorima i televizorima.
Za podršku HDR zaslonima, GeForce GTX 1080 ima sve što vam je potrebno - 12-bitni izlaz u boji, podršku za standarde BT.2020 i SMPTE 2084 te HDMI 2.0b 10/12-bitni 4K HDR izlaz. rezoluciju, što je bio slučaj s Maxwell. Osim toga, Pascal je dodao podršku za dekodiranje HEVC formata u 4K rezoluciji pri 60 Hz i 10- ili 12-bitnoj boji, koja se koristi za HDR video, kao i kodiranje istog formata s istim parametrima, ali samo u 10 -bit za HDR video snimanje ili streaming. Također, novitet je spreman za DisplayPort 1.4 standardizaciju za HDR prijenos podataka preko ovog konektora.
Inače, HDR video kodiranje bi moglo biti potrebno u budućnosti kako bi se takvi podaci prenijeli s kućnog računala na SHIELD igraću konzolu koja može igrati 10-bitni HEVC. Odnosno, korisnik će moći emitirati igru s računala u HDR formatu. Čekaj, gdje mogu nabaviti igre s takvom podrškom? Nvidia stalno radi s programerima igara na implementaciji ove podrške, dajući im sve što im je potrebno (podršku za drajvere, uzorke koda, itd.) za ispravan prikaz HDR slika koje su kompatibilne s postojećim zaslonima.
U vrijeme izlaska video kartice, GeForce GTX 1080, igre kao što su Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle i Shadow Warrior 2 imaju podršku za HDR izlaz. Ali ovaj popis je očekuje se da će se napuniti u bliskoj budućnosti.
Bilo je i nekih promjena vezanih uz vlasničku SLI tehnologiju multi-chip renderiranja, iako to nitko nije očekivao. SLI koriste entuzijasti PC igara za povećanje performansi bilo do ekstrema pokretanjem najmoćnijih grafičkih kartica s jednim čipom u tandemu, ili za postizanje vrlo visoke brzine kadrova ograničavajući se na nekoliko rješenja srednjeg ranga koja su ponekad jeftinija od jedna vrhunska (kontroverzna odluka, ali oni to rade). Uz 4K monitore, igrači nemaju gotovo nikakve druge mogućnosti osim instaliranja par video kartica, jer čak ni vrhunski modeli često ne mogu pružiti ugodnu igru na maksimalnim postavkama u takvim uvjetima.
Jedna od važnih komponenti Nvidia SLI su mostovi koji povezuju video kartice u zajednički video podsustav i služe za organiziranje digitalnog kanala za prijenos podataka između njih. GeForce grafičke kartice tradicionalno imaju dvostruke SLI konektore, koji služe za povezivanje između dvije ili četiri grafičke kartice u 3-Way i 4-Way SLI konfiguracijama. Svaka od video kartica morala je biti spojena na svaku, budući da su svi GPU-ovi slali okvire koje su renderirali glavnom GPU-u, zbog čega su na svakoj ploči bila potrebna dva sučelja.
Počevši od GeForce GTX 1080, sve Nvidia grafičke kartice temeljene na Pascal arhitekturi imaju dva SLI sučelja povezana zajedno radi povećanja performansi prijenosa podataka između grafičkih kartica, a ovaj novi dvokanalni SLI način rada poboljšava performanse i udobnost pri prikazivanju vizualnih informacija na zasloni vrlo visoke razlučivosti ili sustavi s više monitora.
Za ovaj način rada bili su potrebni i novi mostovi, nazvani SLI HB. Kombiniraju par GeForce GTX 1080 video kartica preko dva SLI kanala odjednom, iako su nove video kartice kompatibilne i sa starijim mostovima. Za rezolucije od 1920×1080 i 2560×1440 piksela pri brzini osvježavanja od 60 Hz mogu se koristiti standardni mostovi, ali u zahtjevnijim načinima rada (4K, 5K i sustavi s više monitora) samo će novi mostovi dati bolje rezultate u smislu glatke promjene okvira, iako će stari raditi, ali nešto lošije.
Također, kada se koriste SLI HB mostovi, podatkovno sučelje GeForce GTX 1080 radi na 650 MHz, u usporedbi s 400 MHz za konvencionalne SLI mostove na starijim GPU-ovima. Štoviše, za neke od teških starih mostova, viša brzina prijenosa podataka također je dostupna s video čipovima Pascal arhitekture. Uz povećanje brzine prijenosa podataka između GPU-a putem udvostručenog SLI sučelja s povećanom frekvencijom rada, omogućen je i glatkiji prikaz okvira na ekranu u odnosu na prijašnja rješenja:
Također treba napomenuti da je podrška za multi-chip renderiranje u DirectX 12 donekle drugačija od onoga što je bilo uobičajeno prije. U posljednjoj verziji grafičkog API-ja, Microsoft je napravio mnoge promjene vezane za rad takvih video sustava. Postoje dvije opcije s više GPU-a koje su dostupne programerima u DX12: Multi Display Adapter (MDA) i Linked Display Adapter (LDA) načini rada.
Štoviše, LDA način rada ima dva oblika: Implicit LDA (koji Nvidia koristi za SLI) i Eksplicitni LDA (kada programer igre preuzme zadatak upravljanja multi-chip renderiranjem. MDA i Explicit LDA načini su upravo implementirani u DirectX 12 u kako bi programeri igara imali više slobode i mogućnosti pri korištenju videosustava s više čipova. Razlika između načina rada jasno je vidljiva u sljedećoj tablici:
U LDA modu, memorija svakog GPU-a može se spojiti na memoriju drugog i prikazati kao veliki ukupni volumen, naravno, uz sva ograničenja performansi kada se podaci preuzimaju iz "strane" memorije. U MDA načinu rada memorija svakog GPU-a radi zasebno, a različiti GPU-ovi ne mogu izravno pristupiti podacima iz memorije drugog GPU-a. LDA način rada dizajniran je za sustave s više čipova sličnih performansi, dok je MDA način manje restriktivan i može raditi zajedno s diskretnim i integriranim GPU-ovima ili diskretnim rješenjima s čipovima različitih proizvođača. Ali ovaj način također zahtijeva više pažnje i rada od programera prilikom programiranja suradnje kako bi GPU-ovi mogli međusobno komunicirati.
Prema zadanim postavkama, SLI sustav baziran na GeForce GTX 1080 podržava samo dva GPU-a, a konfiguracije s tri i četiri GPU-a službeno su zastarjele, jer modernim igrama postaje sve teže postići povećanje performansi dodavanjem trećeg i četvrtog GPU-a. Primjerice, mnoge igre se oslanjaju na mogućnosti središnjeg procesora sustava pri radu videosustava s više čipova, a nove igre sve više koriste vremenske (vremenske) tehnike koje koriste podatke iz prethodnih okvira, u kojima je učinkovit rad nekoliko GPU-a odjednom jednostavno nemoguće.
Međutim, rad sustava u drugim (ne-SLI) sustavima s više čipova ostaje moguć, kao što su MDA ili LDA eksplicitni načini u DirectX 12 ili SLI sustav s dva čipa s namjenskim trećim GPU-om za fizičke efekte PhysX. Ali što je s rekordima u benchmarkovima, je li ih Nvidia doista u potpunosti napuštala? Ne, naravno, ali budući da takve sustave u svijetu traži gotovo nekoliko korisnika, za takve je ultra-entuzijaste izmišljen poseban Enthusiast Key, koji se može preuzeti s web stranice Nvidia i otključati ovu značajku. Da biste to učinili, prvo morate dobiti jedinstveni GPU ID pokretanjem posebne aplikacije, zatim zatražiti Enthusiast Key na web stranici i nakon preuzimanja instalirati ključ u sustav, čime ćete otključati 3-Way i 4-Way SLI konfiguracije.
Došlo je do nekih promjena u tehnologijama sinkronizacije prilikom prikaza informacija na zaslonu. Gledajući unaprijed, nema ništa novo u G-Syncu, niti je podržana tehnologija Adaptive Sync. No, Nvidia je odlučila poboljšati glatkoću izlaza i sinkronizacije za igre koje pokazuju vrlo visoke performanse kada je brzina kadrova znatno veća od brzine osvježavanja monitora. To je posebno važno za igre koje zahtijevaju minimalno kašnjenje i brzu reakciju, a koje su multiplayer bitke i natjecanja.
Brza sinkronizacija nova je alternativa okomitoj sinkronizaciji koja nema vizualne artefakte kao što je trganje na slici i nije vezana uz fiksnu stopu osvježavanja, što povećava latenciju. Koji je problem s vertikalnom sinkronizacijom u igrama poput Counter-Strike: Global Offensive? Ova igra na snažnim modernim GPU-ima radi na nekoliko stotina sličica u sekundi, a igrač ima izbor hoće li omogućiti v-sync ili ne.
U igrama za više igrača, korisnici najčešće jure za minimalnim kašnjenjima i isključuju VSync, čime se jasno vidi trganje na slici, što je iznimno neugodno čak i pri velikom broju sličica. Međutim, ako uključite v-sync, tada će igrač doživjeti značajno povećanje kašnjenja između njegovih radnji i slike na zaslonu, kada se grafički cjevovod uspori do brzine osvježavanja monitora.
Ovako radi tradicionalni cjevovod. No, Nvidia je odlučila odvojiti proces renderiranja i prikazivanja slike na ekranu pomoću tehnologije Fast Sync. To omogućuje dijelu GPU-a koji prikazuje okvire punom brzinom da nastavi raditi s maksimalnom učinkovitošću pohranjivanjem tih okvira u poseban privremeni međuspremnik posljednjeg renderiranja.
Ova metoda vam omogućuje da promijenite način prikaza i iskoristite najbolje od načina rada VSync On i VSync Off, postižući nisko kašnjenje, ali bez artefakata slike. Uz Fast Sync, nema kontrole toka okvira, motor igre radi u sinkroniziranom načinu rada i nije mu rečeno da čeka da izvuče sljedeću, tako da su latencije gotovo jednako niske kao VSync Off modu. No budući da Fast Sync samostalno bira međuspremnik za prikaz na ekranu i prikazuje cijeli okvir, nema ni prekida slike.
Fast Sync koristi tri različita međuspremnika, od kojih prva dva rade slično dvostrukom međuspremniku u klasičnom cjevovodu. Primarni međuspremnik (Front Buffer - FB) je međuspremnik, informacije iz kojeg se prikazuju na zaslonu, potpuno renderirani okvir. Povratni međuspremnik (Back Buffer - BB) je međuspremnik koji prima informacije prilikom renderiranja.
Kada se koristi vertikalna sinkronizacija u uvjetima visoke brzine kadrova, igra čeka dok se ne dosegne interval osvježavanja kako bi zamijenila primarni međuspremnik sa sekundarnim kako bi se prikazala slika jednog okvira na zaslonu. To usporava stvari, a dodavanje dodatnih međuspremnika poput tradicionalnog trostrukog međuspremnika samo će povećati kašnjenje.
Uz Fast Sync, dodaje se treći zadnji renderirani međuspremnik (LRB), koji se koristi za pohranjivanje svih okvira koji su upravo renderirani u sekundarni međuspremnik. Naziv međuspremnika govori sam za sebe, sadrži kopiju posljednjeg potpuno renderiranog okvira. A kada dođe vrijeme za ažuriranje primarnog međuspremnika, ovaj LRB međuspremnik se kopira u primarni u cijelosti, a ne u dijelovima, kao iz sekundarnog s onemogućenom vertikalnom sinkronizacijom. Budući da je kopiranje informacija iz međuspremnika neučinkovito, oni se jednostavno zamjenjuju (ili preimenuju, kako će to biti praktičnije razumjeti), a nova logika zamjene međuspremnika, uvedena u GP104, upravlja ovim procesom.
U praksi, uključivanje nove metode sinkronizacije Fast Sync i dalje daje nešto veće kašnjenje u odnosu na potpuno onemogućenu vertikalnu sinkronizaciju – u prosjeku 8 ms više, ali prikazuje okvire na monitoru u cijelosti, bez neugodnih artefakata na ekranu koji poderati sliku. Nova metoda može se omogućiti iz grafičkih postavki Nvidia upravljačke ploče u odjeljku za kontrolu vertikalne sinkronizacije. Međutim, zadana vrijednost ostaje kontrola aplikacije i jednostavno ne morate omogućiti brzu sinkronizaciju u svim 3D aplikacijama, bolje je odabrati ovu metodu posebno za igre s visokim FPS-om.
U ovom smo članku više puta dotaknuli vruću temu VR-a, ali se uglavnom radi o povećanju broja sličica u sekundi i osiguravanju niske latencije, što je vrlo važno za VR. Sve je to vrlo važno i napredak doista postoji, ali za sada VR igre ne izgledaju ni blizu tako impresivno kao najbolje od "običnih" modernih 3D igara. To se događa ne samo zato što se vodeći programeri igara još nisu posebno bavili VR aplikacijama, već i zato što je VR zahtjevniji za brzinu kadrova, što zbog velikih zahtjeva onemogućuje korištenje mnogih uobičajenih tehnika u takvim igrama.
Kako bi smanjila razliku u kvaliteti između VR i običnih igara, Nvidia je odlučila izdati cijeli paket povezanih VRWorks tehnologija, koji je uključivao veliki broj API-ja, knjižnica, motora i tehnologija koje mogu značajno poboljšati i kvalitetu i performanse VR aplikacije. Kako se to odnosi na najavu prvog gaming rješenja u Pascalu? Vrlo je jednostavno – u njega su uvedene neke tehnologije koje pomažu u povećanju produktivnosti i poboljšanju kvalitete, a o njima smo već pisali.
I iako se ne tiče samo grafike, prvo ćemo malo o tome. Skup VRWorks Graphics tehnologija uključuje prethodno spomenute tehnologije, kao što je Lens Matched Shading, koristeći značajku višestruke projekcije koja se pojavila u GeForce GTX 1080. Novi proizvod omogućuje povećanje performansi od 1,5-2 puta u odnosu na rješenja koja nemaju takvu podršku. Spomenuli smo i druge tehnologije, kao što je MultiRes Shading, dizajnirane za renderiranje u različitim razlučivostima u središtu okvira i na njegovoj periferiji.
No, puno neočekivanija je bila najava VRWorks Audio tehnologije, dizajnirane za visokokvalitetan izračun zvučnih podataka u 3D scenama, što je posebno važno u sustavima virtualne stvarnosti. U konvencionalnim motorima pozicioniranje izvora zvuka u virtualnom okruženju izračunato je sasvim ispravno, ako neprijatelj puca s desne strane, onda je zvuk glasniji s ove strane audiosustava, a takav izračun nije previše zahtjevan za računsku snagu .
Ali u stvarnosti, zvukovi ne idu samo prema igraču, već u svim smjerovima i odbijaju se od raznih materijala, slično kao što se odbijaju zrake svjetlosti. I u stvarnosti, čujemo te refleksije, iako ne tako jasno kao izravni zvučni valovi. Ove neizravne refleksije zvuka obično se simuliraju posebnim efektima reverbiranja, ali ovo je vrlo primitivan pristup zadatku.
VRWorks Audio koristi renderiranje zvučnih valova slično praćenju zraka u renderiranju, gdje se put svjetlosnih zraka prati do višestrukih refleksija od objekata u virtualnoj sceni. VRWorks Audio također simulira širenje zvučnih valova u okolišu kada se prate izravni i reflektirani valovi, ovisno o njihovu kutu upada i svojstvima reflektirajućih materijala. U svom radu VRWorks Audio koristi visokoučinkoviti Nvidia OptiX ray tracing engine poznat po grafičkim zadacima. OptiX se može koristiti za razne zadatke kao što su neizravni proračun rasvjete i mapiranje svjetla, a sada i za praćenje zvučnih valova VRWorks Audio.
Nvidia je ugradila točan izračun zvučnih valova u svoj VR Funhouse demo, koji koristi nekoliko tisuća zraka i izračunava do 12 refleksija od objekata. A kako biste naučili prednosti tehnologije koristeći jasan primjer, predlažemo da pogledate video o radu tehnologije na ruskom:
Važno je da se Nvidijin pristup razlikuje od tradicionalnih zvučnih motora, uključujući hardverski ubrzanu metodu glavnog konkurenta koristeći poseban blok u GPU-u. Sve ove metode daju samo točno pozicioniranje izvora zvuka, ali ne izračunavaju refleksije zvučnih valova od objekata u 3D sceni, iako to mogu simulirati pomoću efekta reverb. Međutim, korištenje tehnologije praćenja zraka može biti puno realnije, jer će samo takav pristup omogućiti točnu imitaciju različitih zvukova, uzimajući u obzir veličinu, oblik i materijale objekata u sceni. Teško je reći je li takva računalna točnost potrebna za tipičnog igrača, ali možemo sa sigurnošću reći: u VR-u, može dodati korisnicima sam realizam koji još uvijek nedostaje konvencionalnim igrama.
Pa, ostaje nam reći samo o VR SLI tehnologiji, koja radi i u OpenGL-u i u DirectX-u. Njegov princip je krajnje jednostavan: videosustav s dva GPU-a u VR aplikaciji će raditi na način da je svakom oku dodijeljen zaseban GPU, za razliku od AFR renderiranja poznatog SLI konfiguracijama. To uvelike poboljšava ukupnu izvedbu, što je toliko važno za sustave virtualne stvarnosti. Teoretski se može koristiti više GPU-ova, ali njihov broj mora biti paran.
Ovaj pristup je bio potreban jer AFR nije dobro prikladan za VR, jer će uz njegovu pomoć prvi GPU nacrtati paran okvir za oba oka, a drugi će prikazati neparan, što ne smanjuje kašnjenja koja su kritična za virtualno sustavi stvarnosti. Iako će brzina kadrova biti prilično visoka. Tako se uz pomoć VR SLI rad na svakom okviru dijeli na dva GPU-a – jedan radi na dijelu okvira za lijevo oko, drugi na desnom, a zatim se te polovice okvira spajaju u cjelinu.
Ovakvo dijeljenje rada između para GPU-a donosi 2x povećanje performansi, dopuštajući veću brzinu kadrova i nižu latenciju u usporedbi sa sustavima koji se temelje na jednom GPU-u. Istina, upotreba VR SLI zahtijeva posebnu podršku aplikacije kako bi se koristila ova metoda skaliranja. Ali VR SLI tehnologija je već ugrađena u VR demo aplikacije kao što su Valve's The Lab i ILMxLAB's Trials on Tatooine, a to je tek početak - Nvidia obećava da će uskoro doći i druge aplikacije, kao i da će tehnologiju donijeti na Unreal Engine 4, Unity i Max Igra.
Jedna od najzanimljivijih najava vezanih uz softver bilo je izdavanje tehnologije za snimanje visokokvalitetnih screenshotova u gaming aplikacijama, nazvane po jednom poznatom fotografu - Anselu. Igre odavno nisu samo igre, već i mjesto za korištenje razigranih ruku za razne kreativne ličnosti. Netko mijenja skripte za igre, netko izdaje visokokvalitetne setove tekstura za igre, a netko pravi prekrasne snimke zaslona.
Nvidia je odlučila pomoći potonjem uvođenjem nove platforme za kreiranje (naime, stvaranje, jer to nije tako jednostavan proces) kvalitetnih snimaka iz igara. Vjeruju da Ansel može pomoći u stvaranju nove vrste suvremene umjetnosti. Uostalom, već postoji dosta umjetnika koji većinu svog života provode na računalu, stvarajući prekrasne snimke zaslona iz igara, a još uvijek nisu imali prikladan alat za to.
Ansel vam omogućuje da ne samo snimite sliku u igri, već je promijenite prema potrebi. Koristeći ovu tehnologiju, možete pomicati kameru po sceni, rotirati je i naginjati u bilo kojem smjeru kako biste dobili željenu kompoziciju kadra. Na primjer, u igrama poput pucačina iz prvog lica, možete samo pomicati igrača, ne možete promijeniti ništa drugo, tako da su sve snimke zaslona prilično monotone. Uz besplatnu kameru u Anselu, možete ići daleko dalje od kamere za igranje odabirom kuta koji vam je potreban za dobru sliku ili čak snimiti punu stereo sliku od 360 stupnjeva od tražene točke iu visokoj razlučivosti za kasnije gledanje u VR kaciga.
Ansel radi prilično jednostavno - uz pomoć posebne biblioteke iz Nvidije, ova platforma je ugrađena u kod igre. Da bi to učinio, njegov programer treba samo dodati mali dio koda svom projektu kako bi omogućio Nvidia video drajveru da presreće podatke međuspremnika i shadera. Ima jako malo posla za napraviti, dovođenje Ansela u igru traje manje od jednog dana za implementaciju. Dakle, uključivanje ove značajke u The Witness trebalo je oko 40 redaka koda, au The Witcher 3 - oko 150 redaka koda.
Ansel će doći s otvorenim razvojnim paketom - SDK. Glavna stvar je da korisnik sa sobom dobije standardni skup postavki koje mu omogućuju promjenu položaja i kuta kamere, dodavanje efekata itd. Ansel platforma radi ovako: pauzira igru, uključuje besplatnu kameru i omogućuje vam promjenu okvira u željeni prikaz snimanjem rezultata u obliku obične snimke zaslona, slike od 360 stupnjeva, stereo para ili samo panorame visoke rezolucije.
Jedino upozorenje je da sve igre neće dobiti podršku za sve značajke platforme za snimke zaslona igre Ansel. Neki od programera igara iz ovih ili onih razloga ne žele u svoje igre uključiti potpuno besplatnu kameru – na primjer, zbog mogućnosti da varalice koriste ovu funkcionalnost. Ili žele ograničiti promjenu kuta gledanja iz istog razloga – kako nitko ne bi dobio nepravednu prednost. Pa, ili tako da korisnici ne vide mizerne spriteove u pozadini. Sve su to sasvim normalne želje kreatora igrica.
Jedna od najzanimljivijih značajki Ansela je stvaranje screenshot jednostavno ogromne rezolucije. Nema veze što igra podržava rezolucije do npr. 4K, a monitor korisnika je Full HD. Koristeći platformu za snimke zaslona, možete snimiti mnogo kvalitetniju sliku, ograničenu veličinom i performansama pogona. Platforma s lakoćom snima snimke zaslona do 4,5 gigapiksela, spojene od 3600 komada!
Jasno je da se na takvim slikama mogu vidjeti svi detalji, do teksta na novinama koji leži u daljini, ako je takva razina detalja u principu predviđena u igri - Ansel također može kontrolirati razinu detalja, postavljanje maksimalnu razinu da biste dobili najbolju kvalitetu slike. Ali još uvijek možete omogućiti superuzorkovanje. Sve to omogućuje stvaranje slika iz igara koje možete sigurno ispisivati na velikim bannerima i biti mirni u pogledu njihove kvalitete.
Zanimljivo je da se za spajanje velikih slika koristi poseban hardverski ubrzan kod baziran na CUDA-i. Uostalom, nijedna video kartica ne može prikazati sliku od više gigapiksela u cijelosti, ali to može učiniti u komadima, koje kasnije samo trebate kombinirati, uzimajući u obzir moguću razliku u osvjetljenju, boji i tako dalje.
Nakon spajanja takvih panorama, za cijeli okvir se koristi posebna naknadna obrada, također ubrzana na GPU-u. A za snimanje slika u većem dinamičkom rasponu, možete koristiti poseban format slike - EXR, otvoreni standard tvrtke Industrial Light and Magic, čija se vrijednosti boja na svakom kanalu snimaju u 16-bitnom formatu s pomičnim zarezom. (FP16).
Ovaj format omogućuje promjenu svjetline i dinamičkog raspona slike u naknadnoj obradi, dovodeći je do željenog za svaki pojedini prikaz na isti način kao što se radi s RAW formatima s fotoaparata. A za naknadnu upotrebu filtara za naknadnu obradu u programima za obradu slika, ovaj je format vrlo koristan, jer sadrži mnogo više podataka od uobičajenih formata slika.
No, sama platforma Ansel sadrži puno filtera za naknadnu obradu, što je posebno važno jer ima pristup ne samo konačnoj slici, već i svim međuspremnicima koje igra koristi prilikom renderiranja, a koji se mogu koristiti za vrlo zanimljive efekte , poput dubine polja. Da bi to učinio, Ansel ima poseban API za naknadnu obradu, a bilo koji od efekata može biti uključen u igru uz podršku za ovu platformu.
Ansel postfiltri uključuju: krivulje boja, prostor boja, transformaciju, desaturaciju, svjetlinu/kontrast, zrnatost filma, cvjetanje, odbljesak leće, anamorfni odsjaj, izobličenje, vrućinu, riblje oko, aberaciju boje, mapiranje tonova, prljavštinu leće, svjetlosne osovine, vinjetu, gama korekciju , konvolucija, izoštravanje, detekcija rubova, zamućenje, sepija, denoise, FXAA i drugi.
Što se tiče pojave Ansel podrške u igrama, onda ćemo morati malo pričekati dok je programeri implementiraju i testiraju. No, Nvidia obećava da će se takva podrška uskoro pojaviti u tako poznatim igrama kao što su The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament i druge.
Nova 16nm FinFET procesna tehnologija i optimizacije arhitekture omogućile su grafičkoj kartici GeForce GTX 1080 baziranoj na GPU-u GP104 postizanje visoke brzine takta od 1,6-1,7 GHz čak i u referentnom obliku, a nova generacija jamči najviše moguće frekvencije u igrama GPU Boost tehnologije. Zajedno s povećanim brojem izvršnih jedinica, ova poboljšanja čine je ne samo najučinkovitijom grafičkom karticom s jednim čipom svih vremena, već i energetski najučinkovitijim rješenjem na tržištu.
GeForce GTX 1080 je prva grafička kartica koja ima novu grafičku memoriju GDDR5X, novu generaciju brzih čipova koji postižu vrlo visoke brzine prijenosa podataka. U slučaju modificirane GeForce GTX 1080, ova vrsta memorije radi na efektivnoj frekvenciji od 10 GHz. U kombinaciji s poboljšanim algoritmima za kompresiju međuspremnika okvira, to je rezultiralo 1,7x povećanjem efektivne propusnosti memorije za ovaj GPU u usporedbi s njegovim izravnim prethodnikom, GeForce GTX 980.
Nvidia je mudro odlučila ne puštati radikalno novu arhitekturu na potpuno novu procesnu tehnologiju za sebe, kako ne bi naišla na nepotrebne probleme tijekom razvoja i proizvodnje. Umjesto toga, ozbiljno su poboljšali već dobru i vrlo učinkovitu Maxwell arhitekturu dodavanjem nekih značajki. Kao rezultat, sve je u redu s proizvodnjom novih GPU-a, a u slučaju modela GeForce GTX 1080, inženjeri su postigli vrlo visok frekvencijski potencijal – u overclockanim verzijama partnera očekuje se frekvencija GPU-a do 2 GHz! Tako impresivna frekvencija postala je stvarnost zahvaljujući savršenom tehničkom procesu i mukotrpnom radu Nvidijinih inženjera na razvoju Pascal GPU-a.
I dok je Pascal izravni sljedbenik Maxwella, a ove se grafičke arhitekture u osnovi nisu previše različite jedna od druge, Nvidia je uvela mnoge promjene i poboljšanja, uključujući mogućnosti prikaza, motor za kodiranje i dekodiranje videa, poboljšano asinkrono izvođenje različitih vrsta izračuna na GPU, unio je promjene u renderiranje s više čipova i uveo novu metodu sinkronizacije, Fast Sync.
Nemoguće je ne istaknuti tehnologiju Simultaneous Multi-Projection, koja pomaže poboljšati performanse u sustavima virtualne stvarnosti, dobiti ispravniji prikaz scena na sustavima s više monitora i uvesti nove tehnike optimizacije performansi. Ali VR aplikacije će doživjeti najveće povećanje brzine kada podržavaju tehnologiju višestrukih projekcija, koja pomaže uštedi GPU resursa za polovicu prilikom obrade geometrijskih podataka i jedan i pol puta u izračunima po pikselu.
Među čisto softverskim promjenama ističe se platforma za kreiranje snimki zaslona u igrama pod nazivom Ansel - bit će zanimljivo isprobati je u praksi ne samo onima koji se puno igraju, već i onima koji su jednostavno zainteresirani za visokokvalitetna 3D grafika . Novost vam omogućuje da unaprijedite umjetnost stvaranja i retuširanja screenshotova na novu razinu. Pa, takve pakete za programere igara kao što su GameWorks i VRWorks, Nvidia samo nastavlja poboljšavati korak po korak - pa se u potonjem pojavila zanimljiva mogućnost visokokvalitetnog proračuna zvuka, uzimajući u obzir brojne refleksije zvučnih valova pomoću hardverskih zraka trasiranjem.
Općenito, u obliku Nvidia GeForce GTX 1080 video kartice, na tržište je ušao pravi lider, koji ima sve potrebne kvalitete za to: visoke performanse i široku funkcionalnost, kao i podršku za nove značajke i algoritme. Prvi korisnici ove grafičke kartice moći će iskusiti mnoge od ovih prednosti odmah, dok će ostale značajke rješenja biti otkrivene nešto kasnije, kada postoji široka podrška softvera. Glavna stvar je da se GeForce GTX 1080 pokazao vrlo brzim i učinkovitim, a, kako se stvarno nadamo, Nvidijini inženjeri su uspjeli popraviti neka od problematičnih područja (isti asinkroni izračuni).
Parametar | Značenje |
---|---|
Kodni naziv čipa | GP104 |
Tehnologija proizvodnje | 16nm FinFET |
Broj tranzistora | 7,2 milijarde |
Područje jezgre | 314 mm² |
Arhitektura | Unificiran, s nizom uobičajenih procesora za tok obrade brojnih vrsta podataka: vrhova, piksela, itd. |
DirectX hardverska podrška | DirectX 12, s podrškom za Feature Level 12_1 |
Sabirnica memorije | 256-bit: osam neovisnih 32-bitnih memorijskih kontrolera koji podržavaju GDDR5 i GDDR5X memoriju |
GPU frekvencija | 1506 (1683) MHz |
Računalni blokovi | 15 aktivnih (od 20 u čipu) streaming multiprocesora, uključujući 1920 (od 2560) skalarnih ALU-a za izračune s pomičnim zarezom u okviru standarda IEEE 754-2008; |
Teksturni blokovi | 120 aktivnih (od 160 u čipu) jedinica za adresiranje i filtriranje teksture s podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture |
Rasterske operativne jedinice (ROP) | 8 širokih ROP-ova (64 piksela) s podrškom za različite načine anti-aliasinga, uključujući programabilne i s formatom međuspremnika okvira FP16 ili FP32. Blokovi se sastoje od niza ALU-ova koji se mogu konfigurirati i odgovorni su za generiranje i usporedbu dubine, višestruko uzorkovanje i miješanje |
Podrška za monitor | Integrirana podrška za do četiri monitora povezana putem Dual Link DVI, HDMI 2.0b i DisplayPort 1.2 (1.3/1.4 Ready) |
Specifikacije referentne grafike GeForce GTX 1070 | |
---|---|
Parametar | Značenje |
Frekvencija jezgre | 1506 (1683) MHz |
Broj univerzalnih procesora | 1920 |
Broj blokova teksture | 120 |
Broj blokova za miješanje | 64 |
Efektivna frekvencija memorije | 8000 (4×2000) MHz |
Vrsta memorije | GDDR5 |
Sabirnica memorije | 256-bitni |
Memorija | 8 GB |
Propusnost memorije | 256 GB/s |
Računalne performanse (FP32) | oko 6,5 teraflopsa |
Teoretska maksimalna stopa punjenja | 96 gigapiksela/s |
Teorijska brzina uzorkovanja teksture | 181 gigateksel/s |
Guma | PCI Express 3.0 |
Priključci | Jedan Dual Link DVI, jedan HDMI i tri DisplayPort |
potrošnja energije | do 150 W |
Dodatna hrana | Jedan 8-pinski konektor |
Broj utora zauzetih u šasiji sustava | 2 |
Preporučena cijena | 379-449 USD (SAD), 34 990 (Rusija) |
GeForce GTX 1070 video kartica također je dobila logično ime slično istom rješenju iz prethodne GeForce serije. Od svog izravnog prethodnika GeForce GTX 970 razlikuje se samo po promijenjenom broju generacije. Novost postaje korak ispod trenutnog vrhunskog rješenja GeForce GTX 1080 u trenutnoj liniji tvrtke, koja je postala privremena perjanica nove serije do izlaska još snažnijih GPU rješenja.
Preporučene cijene za Nvidijinu novu vrhunsku video karticu su 379 USD i 449 USD za standardno izdanje Nvidia Partners i Founders Edition. U usporedbi s vrhunskim modelom, ovo je vrlo dobra cijena s obzirom da GTX 1070 u najgorem slučaju zaostaje oko 25%. A u vrijeme najave i izlaska, GTX 1070 postaje najbolje izvedbeno rješenje u svojoj klasi. Kao i GeForce GTX 1080, GTX 1070 nema izravnih konkurenata iz AMD-a, a može se usporediti samo s Radeon R9 390X i Furyjem.
GPU GP104 u modifikaciji GeForce GTX 1070 odlučio je ostaviti punu 256-bitnu memorijsku sabirnicu, iako nisu koristili novi tip GDDR5X memorije, već vrlo brzi GDDR5, koji radi na visokoj efektivnoj frekvenciji od 8 GHz. Količina memorije instalirane na video kartici s takvom sabirnicom može biti 4 ili 8 GB, a kako bi se osigurale maksimalne performanse novog rješenja u uvjetima visokih postavki i rezolucija renderiranja, opremljen je i model grafičke kartice GeForce GTX 1070 s 8 GB video memorije, kao i njegova starija sestra. Ovaj volumen dovoljan je za pokretanje bilo koje 3D aplikacije s postavkama maksimalne kvalitete nekoliko godina.
S najavom GeForce GTX 1080 početkom svibnja najavljeno je posebno izdanje video kartice pod nazivom Founders Edition, koja ima višu cijenu od običnih video kartica partnera tvrtke. Isto vrijedi i za novitet. U ovom članku ponovno ćemo govoriti o posebnom izdanju GeForce GTX 1070 video kartice pod nazivom Founders Edition. Kao iu slučaju starijeg modela, Nvidia je odlučila izbaciti ovu verziju referentne video kartice proizvođača po višoj cijeni. Tvrde da mnogi igrači i entuzijasti koji kupuju skupe vrhunske grafičke kartice žele proizvod s odgovarajućim "premium" izgledom i dojmom.
U skladu s tim, upravo će za takve korisnike na tržište biti puštena grafička kartica GeForce GTX 1070 Founders Edition, koju dizajniraju i proizvode Nvidia inženjeri od vrhunskih materijala i komponenti, kao što je aluminijski poklopac GeForce GTX 1070 Founders Edition, kao i kao niskoprofilna stražnja ploča koja pokriva stražnju stranu PCB-a i prilično popularna među entuzijastima.
Kao što možete vidjeti iz fotografija ploče, GeForce GTX 1070 Founders Edition naslijedio je potpuno isti industrijski dizajn od referentne verzije GeForce GTX 1080 Founders Edition. Oba modela koriste radijalni ventilator koji ispuhuje zagrijani zrak, što je vrlo korisno i u malim kućištima i u SLI konfiguracijama s više čipova s ograničenim fizičkim prostorom. Ispuhujući zagrijani zrak umjesto da ga cirkuliše unutar kućišta, možete smanjiti toplinski stres, poboljšati rezultate overkloka i produžiti život komponenti sustava.
Ispod poklopca referentnog sustava hlađenja GeForce GTX 1070 krije se posebno oblikovan aluminijski radijator s tri ugrađene bakrene toplinske cijevi koje odvode toplinu iz samog GPU-a. Toplinu koju raspršuju toplinske cijevi zatim raspršuje aluminijski hladnjak. Pa, niskoprofilna metalna ploča na stražnjoj strani ploče također je dizajnirana da pruži bolje toplinske performanse. Također sadrži dio koji se može uvući za bolji protok zraka između više grafičkih kartica u SLI konfiguracijama.
Što se tiče sustava napajanja ploče, GeForce GTX 1070 Founders Edition ima četverofazni sustav napajanja optimiziran za stabilno napajanje. Nvidia tvrdi da korištenje posebnih komponenti u GTX 1070 Founders Edition poboljšava energetsku učinkovitost, stabilnost i pouzdanost u odnosu na GeForce GTX 970, pružajući bolje performanse overkloka. U vlastitim testovima tvrtke GeForce GTX 1070 GPU-ovi lako su premašili 1,9 GHz, što je blizu rezultatima starijeg GTX 1080 modela.
Nvidia GeForce GTX 1070 grafička kartica bit će dostupna u maloprodajnim trgovinama od 10. lipnja. Preporučene cijene za GeForce GTX 1070 Founders Edition i partnerska rješenja su različite, a to je glavno pitanje za ovo posebno izdanje. Ako Nvidia partneri prodaju svoje GeForce GTX 1070 grafičke kartice počevši od 379 USD (na američkom tržištu), tada će Nvidijin referentni dizajn Founders Edition koštati samo 449 USD. Ima li mnogo entuzijasta koji su spremni preplatiti, da se razumijemo, sumnjive prednosti referentne verzije? Vrijeme će pokazati, ali vjerujemo da je referentna naknada zanimljivija kao opcija dostupna za kupnju na samom početku prodaje, a kasnije je točka kupnje (pa čak i po visokoj cijeni!) već svedena na nulu.
Ostaje dodati da je tiskana ploča referentne GeForce GTX 1070 slična onoj kod starije video kartice, a obje se razlikuju od uređaja prijašnjih firminih ploča. Tipična vrijednost potrošnje energije za novi proizvod je 150 W, što je gotovo 20% manje od vrijednosti za GTX 1080 i blizu potrošnje energije prethodne generacije GeForce GTX 970 video kartice. Nvidia referentna ploča ima poznati set konektora za povezivanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort. Štoviše, postoji podrška za nove verzije HDMI i DisplayPort-a, o čemu smo pisali gore u recenziji GTX 1080 modela.
GeForce GTX 1070 temelji se na GP104 čipu, prvom u novoj generaciji Nvidijine Pascal grafičke arhitekture. Ova arhitektura se temeljila na rješenjima razvijenim još u Maxwellu, ali ima i neke funkcionalne razlike, o čemu smo detaljno pisali gore - u dijelu posvećenom vrhunskoj GeForce GTX 1080 video kartici.
Glavna promjena nove arhitekture bio je tehnološki proces kojim će se izvoditi svi novi GPU-ovi. Korištenje 16 nm FinFET proizvodnog procesa u proizvodnji GP104 omogućilo je značajno povećanje složenosti čipa uz zadržavanje relativno niske površine i cijene, a prvi čip Pascal arhitekture ima znatno veći broj izvođenja jedinice, uključujući one koje pružaju novu funkcionalnost, u usporedbi s Maxwell čipovima sličnog pozicioniranja.
GP104 video čip je svojim dizajnom sličan sličnim rješenjima arhitekture Maxwell, a detaljne informacije o dizajnu modernih GPU-a možete pronaći u našim recenzijama prethodnih Nvidia rješenja. Kao i prethodni GPU-ovi, čipovi nove arhitekture imat će drugačiju konfiguraciju Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) i memorijski kontroleri, a neke promjene su se već dogodile i na GeForce GTX 1070 - dio čipa je zaključan i neaktivan (označen sivom bojom):
Iako GP104 GPU uključuje četiri GPC klastera i 20 SM multiprocesora, u verziji za GeForce GTX 1070 dobio je smanjenu modifikaciju s jednim GPC klasterom koji je hardverski onemogućio. Budući da svaki GPC klaster ima namjenski motor za rasterizaciju i uključuje pet SM-ova, a svaki se multiprocesor sastoji od 128 CUDA jezgri i osam teksturnih TMU-ova, 1920 CUDA jezgri i 120 TMU-a od 2560 stream procesora aktivno je u ovoj verziji GP104 i 160 jedinica fizičke teksture.
Grafički procesor na kojem se temelji GeForce GTX 1070 sadrži osam 32-bitnih memorijskih kontrolera, što rezultira ukupno 256-bitnom memorijskom sabirnicom - točno kao u slučaju starijeg modela GTX 1080. Memorijski podsustav nije izrezan po redu osigurati dovoljno visoku propusnost memorije uz uvjet korištenja GDDR5 memorije u GeForce GTX 1070. Svaki od memorijskih kontrolera ima osam ROP-ova i 256 KB L2 cachea, tako da GP104 čip u ovoj modifikaciji također sadrži 64 ROP-a i 2048 KB L2 razina predmemorije.
Zahvaljujući arhitektonskim optimizacijama i novoj tehnologiji procesa, GP104 GPU je postao energetski najučinkovitiji GPU do sada. Nvidijini inženjeri uspjeli su povećati brzinu takta više nego što su očekivali pri prelasku na novi proces, za što su se morali dobro pomučiti, pažljivo provjeravajući i optimizirajući sva uska grla prijašnjih rješenja koja im nisu dopuštala rad na višoj frekvenciji. U skladu s tim, GeForce GTX 1070 također radi na vrlo visokoj frekvenciji, više od 40% više od referentne vrijednosti za GeForce GTX 970.
Budući da je GeForce GTX 1070, u biti, samo nešto manje produktivna GTX 1080 s GDDR5 memorijom, podržava apsolutno sve tehnologije koje smo opisali u prethodnom odjeljku. Za više detalja o Pascal arhitekturi, kao i tehnologijama koje podržava, kao što su poboljšane jedinice za obradu izlaza i videa, podrška za Async Compute, tehnologija simultane višestruke projekcije, promjene u SLI renderiranju s više čipova i nova vrsta sinkronizacije Fast Sync , vrijedi pročitati s odjeljkom o GTX 1080.
Gore smo pisali o promjenama u memorijskom podsustavu GPU-a GP104, na kojem se temelje modeli GeForce GTX 1080 i GTX 1070 - memorijski kontroleri uključeni u ovaj GPU podržavaju i novi tip GDDR5X video memorije, što je detaljno opisano u GTX 1080 recenzija, kao i dobra stara GDDR5 memorija koju poznajemo već nekoliko godina.
Kako se kod mlađeg GTX 1070 u usporedbi sa starijim GTX 1080 ne izgubi previše u memorijskoj širini, u njemu je ostalo aktivnih svih osam 32-bitnih memorijskih kontrolera, čime je dobilo puno 256-bitno zajedničko video memorijsko sučelje. Osim toga, video kartica je bila opremljena najbržom GDDR5 memorijom dostupnom na tržištu – efektivne radne frekvencije od 8 GHz. Sve je to osiguravalo memorijsku propusnost od 256 GB/s, za razliku od 320 GB/s kod starijeg rješenja – otprilike za isti iznos smanjene su i računalne sposobnosti, tako da je ravnoteža zadržana.
Imajte na umu da, iako je vršna teoretska propusnost važna za performanse GPU-a, morate obratiti pažnju i na njegovu učinkovitost. Tijekom procesa renderiranja, mnoga različita uska grla mogu ograničiti ukupnu izvedbu, sprječavajući korištenje sve dostupne memorijske propusnosti. Kako bi smanjili ta uska grla, GPU-ovi koriste posebnu kompresiju podataka bez gubitaka kako bi poboljšali učinkovitost čitanja i pisanja podataka.
Četvrta generacija delta kompresije informacija međuspremnika već je uvedena u Pascal arhitekturu, što omogućuje GPU-u učinkovitije korištenje dostupnih mogućnosti sabirnice video memorije. Memorijski podsustav u GeForce GTX 1070 i GTX 1080 koristi poboljšane stare i nekoliko novih tehnika kompresije podataka bez gubitaka dizajniranih za smanjenje zahtjeva za propusnošću. To smanjuje količinu podataka upisanih u memoriju, poboljšava učinkovitost L2 predmemorije i smanjuje količinu podataka koji se šalju između različitih točaka na GPU-u, kao što su TMU i framebuffer.
Većina Nvidijinih partnera već je najavila tvornički overclockana rješenja temeljena na GeForce GTX 1080 i GTX 1070. Mnogi proizvođači video kartica također kreiraju posebne uslužne programe za overclocking koji vam omogućuju korištenje nove funkcionalnosti GPU Boost 3.0 tehnologije. Jedan primjer takvih uslužnih programa je EVGA Precision XOC, koji uključuje automatski skener za određivanje krivulje napon-frekvencija - u ovom načinu rada, za svaki napon, izvođenjem testa stabilnosti, nalazi se stabilna frekvencija na kojoj GPU daje povećanje performansi. Međutim, ova se krivulja može mijenjati i ručno.
Tehnologiju GPU Boost dobro poznajemo s prethodnih Nvidia grafičkih kartica. U svojim GPU-ovima koriste ovu hardversku značajku koja je dizajnirana da poveća radnu brzinu GPU-a u načinima u kojima još nije dosegao granice potrošnje energije i odvođenja topline. U Pascal GPU-ovima ovaj algoritam je doživio nekoliko promjena, od kojih je glavna finije podešavanje turbo frekvencija, ovisno o naponu.
Ako je ranije razlika između osnovne frekvencije i turbo frekvencije bila fiksna, tada je u GPU Boost 3.0 postalo moguće postaviti pomake turbo frekvencije za svaki napon zasebno. Sada se turbo frekvencija može postaviti za svaku od pojedinačnih vrijednosti napona, što vam omogućuje da u potpunosti istisnete sve mogućnosti overkloka iz GPU-a. O ovoj značajci smo detaljno pisali u recenziji GeForce GTX 1080, a za to možete koristiti uslužne programe EVGA Precision XOC i MSI Afterburner.
Budući da su se neki detalji u metodologiji overclockanja promijenili s izlaskom video kartica s podrškom za GPU Boost 3.0, Nvidia je morala dati dodatna objašnjenja u uputama za overclocking novih proizvoda. Postoje različite tehnike overkloka s različitim varijabilnim karakteristikama koje utječu na konačni rezultat. Za svaki pojedini sustav određena metoda može biti prikladnija, ali osnove su uvijek približno iste.
Mnogi overklokeri koriste Unigine Heaven 4.0 benchmark za provjeru stabilnosti sustava, koji dobro opterećuje GPU, ima fleksibilne postavke i može se pokrenuti u prozorskom načinu rada zajedno s prozorom uslužnog programa za overklok i nadzor u blizini, poput EVGA Precision ili MSI Afterburnera. Međutim, takva je provjera dovoljna samo za početne procjene, a da bi se čvrsto potvrdila stabilnost overclockanja, mora se provjeriti u nekoliko aplikacija za igre, jer različite igre zahtijevaju različita opterećenja na različitim funkcionalnim jedinicama GPU-a: matematička, teksturna, geometrijska. Heaven 4.0 benchmark je također zgodan za overclocking jer ima petljasti način rada, u kojem je zgodno mijenjati postavke overkloka, a postoji i benchmark za procjenu povećanja brzine.
Nvidia savjetuje pokretanje Heaven 4.0 i EVGA Precision XOC prozora zajedno kada overclockate nove GeForce GTX 1080 i GTX 1070 grafičke kartice. U početku je poželjno odmah povećati brzinu ventilatora. A za ozbiljan overclocking možete odmah postaviti vrijednost brzine na 100%, što će video karticu učiniti vrlo glasnom, ali će hladiti GPU i ostale komponente video kartice što je više moguće snižavanjem temperature na najnižu moguću razini, sprječavajući prigušivanje (smanjenje frekvencija zbog povećanja temperature GPU-a iznad određene vrijednosti).
Zatim morate postaviti ciljnu vrijednost snage (Power Target) također na maksimum. Ova postavka će GPU-u osigurati maksimalnu moguću količinu energije povećanjem razine potrošnje energije i ciljne temperature GPU-a (GPU Temp Target). Za neke svrhe, druga vrijednost se može odvojiti od promjene Power Target-a, a zatim se te postavke mogu individualno podešavati - kako bi se postiglo manje zagrijavanje video čipa, na primjer.
Sljedeći korak je povećanje vrijednosti GPU Clock Offseta – to znači koliko će turbo frekvencija biti veća tijekom rada. Ova vrijednost povećava frekvenciju za sve napone i rezultira boljom izvedbom. Kao i obično, pri overclockingu morate provjeriti stabilnost kada povećavate frekvenciju GPU-a u malim koracima - od 10 MHz do 50 MHz po koraku prije nego što primijetite visi, pogrešku drajvera ili aplikacije, ili čak vizualne artefakte. Kada se ova granica dosegne, trebali biste smanjiti vrijednost frekvencije za korak prema dolje i još jednom provjeriti stabilnost i performanse tijekom overclockanja.
Osim GPU frekvencije, možete povećati i frekvenciju video memorije (Memory Clock Offset), što je posebno važno u slučaju GeForce GTX 1070 opremljene GDDR5 memorijom, koja inače dobro overclocka. Proces u slučaju memorijske frekvencije točno ponavlja ono što se radi pri pronalaženju stabilne GPU frekvencije, jedina razlika je što se koraci mogu povećati - dodajte 50-100 MHz osnovnoj frekvenciji odjednom.
Osim gore navedenih koraka, možete povećati i Overvoltage limit jer se pri povećanom naponu često postiže veća frekvencija GPU-a, kada nestabilni dijelovi GPU-a dobivaju dodatnu snagu. Istina, potencijalni nedostatak povećanja ove vrijednosti je mogućnost oštećenja video čipa i njegovog ubrzanog kvara, pa morate s velikim oprezom koristiti povećanje napona.
Ljubitelji overclockinga koriste nešto drugačije tehnike, mijenjajući parametre drugim redoslijedom. Primjerice, neki overklokeri dijele eksperimente u pronalaženju stabilne frekvencije GPU-a i memorije kako ne bi ometali jedni druge, a zatim testiraju kombinirani overclocking i video čipa i memorijskih čipova, ali to su već beznačajni detalji individualnog pristupa .
Sudeći po mišljenjima na forumima i komentarima na članke, nekim korisnicima se nije svidio novi algoritam rada GPU Boost 3.0, kada frekvencija GPU-a prvo raste vrlo visoko, često više od turbo frekvencije, ali onda pod utjecajem povećanja u temperaturi GPU-a ili povećanoj potrošnji energije iznad postavljene granice, može pasti na puno niže vrijednosti. Ovo su samo specifičnosti ažuriranog algoritma, morate se naviknuti na novo ponašanje dinamički promjenjive frekvencije GPU-a, ali to nema negativnih posljedica.
GeForce GTX 1070 je drugi model nakon GTX 1080 u novoj liniji Nvidijinih grafičkih procesora baziranih na Pascal obitelji. Novi 16nm FinFET proizvodni proces i optimizacije arhitekture omogućili su ovoj grafičkoj kartici postizanje visokih brzina takta, što je podržano novom generacijom GPU Boost tehnologije. Iako je smanjen broj funkcionalnih blokova u obliku stream procesora i teksturnih modula, njihov broj ostaje dovoljan da GTX 1070 postane najisplativije i energetski najučinkovitije rješenje.
Instaliranje GDDR5 memorije na najmlađi od par objavljenih modela Nvidia video kartica na GP104 čipu, za razliku od novog tipa GDDR5X koji razlikuje GTX 1080, ne sprječava ga u postizanju visokih performansi. Prvo, Nvidia je odlučila ne rezati memorijsku sabirnicu modela GeForce GTX 1070, a kao drugo, na nju su stavili najbržu GDDR5 memoriju s efektivnom frekvencijom od 8 GHz, što je tek nešto niže od 10 GHz za GDDR5X koji se koristi u stariji model. Osim toga, s poboljšanim algoritmima delta kompresije, efektivna propusnost memorije GPU-a postala je veća od istog parametra za sličan model prethodne generacije GeForce GTX 970.
GeForce GTX 1070 je dobar po tome što nudi vrlo visoke performanse i podršku za nove značajke i algoritme po znatno nižoj cijeni u odnosu na stariji model najavljen nešto ranije. Ako si nekolicina entuzijasta može priuštiti kupnju GTX 1080 za 55.000, onda će puno veći krug potencijalnih kupaca moći platiti 35.000 samo za četvrtinu manje produktivnog rješenja s potpuno istim mogućnostima. Upravo je kombinacija relativno niske cijene i visokih performansi GeForce GTX 1070 učinila možda najprofitabilnijom kupnjom u trenutku izlaska.
Parametar | Značenje |
---|---|
Kodni naziv čipa | GP106 |
Tehnologija proizvodnje | 16nm FinFET |
Broj tranzistora | 4,4 milijarde |
Područje jezgre | 200 mm² |
Arhitektura | Unificiran, s nizom uobičajenih procesora za tok obrade brojnih vrsta podataka: vrhova, piksela, itd. |
DirectX hardverska podrška | DirectX 12, s podrškom za Feature Level 12_1 |
Sabirnica memorije | 192-bitni: šest neovisnih 32-bitnih memorijskih kontrolera koji podržavaju GDDR5 memoriju |
GPU frekvencija | 1506 (1708) MHz |
Računalni blokovi | 10 streaming multiprocesora, uključujući 1280 skalarnih ALU-a za izračune s pomičnim zarezom unutar standarda IEEE 754-2008; |
Teksturni blokovi | 80 jedinica za adresiranje i filtriranje teksture s podrškom za FP16 i FP32 komponente u teksturama i podrškom za trilinearno i anizotropno filtriranje za sve formate teksture |
Rasterske operativne jedinice (ROP) | 6 širokih ROP-ova (48 piksela) s podrškom za različite načine anti-aliasinga, uključujući programabilne i s formatom međuspremnika okvira FP16 ili FP32. Blokovi se sastoje od niza ALU-ova koji se mogu konfigurirati i odgovorni su za generiranje i usporedbu dubine, višestruko uzorkovanje i miješanje |
Podrška za monitor | Integrirana podrška za do četiri monitora povezana putem Dual Link DVI, HDMI 2.0b i DisplayPort 1.2 (1.3/1.4 Ready) |
Specifikacije referentne grafike GeForce GTX 1060 | |
---|---|
Parametar | Značenje |
Frekvencija jezgre | 1506 (1708) MHz |
Broj univerzalnih procesora | 1280 |
Broj blokova teksture | 80 |
Broj blokova za miješanje | 48 |
Efektivna frekvencija memorije | 8000 (4×2000) MHz |
Vrsta memorije | GDDR5 |
Sabirnica memorije | 192-bitni |
Memorija | 6 GB |
Propusnost memorije | 192 GB/s |
Računalne performanse (FP32) | oko 4 teraflopsa |
Teoretska maksimalna stopa punjenja | 72 gigapiksela/s |
Teorijska brzina uzorkovanja teksture | 121 gigateksel/s |
Guma | PCI Express 3.0 |
Priključci | Jedan Dual Link DVI, jedan HDMI i tri DisplayPort |
Tipična potrošnja energije | 120 W |
Dodatna hrana | Jedan 6-pinski konektor |
Broj utora zauzetih u šasiji sustava | 2 |
Preporučena cijena | 249 dolara (299 dolara) u SAD-u i 18.990 u Rusiji |
Video kartica GeForce GTX 1060 također je dobila naziv slično istom rješenju iz prethodne GeForce serije, koji se od imena svog izravnog prethodnika GeForce GTX 960 razlikuje samo po promijenjenoj prvoj znamenki generacije. Novost je u trenutnoj liniji tvrtke postala korak niža od prethodno izdanog GeForce GTX 1070 rješenja, koje je prosječno po brzini u novoj seriji.
Preporučene cijene za novu Nvidijinu video karticu su 249 dolara i 299 dolara za redovne verzije partnera tvrtke, odnosno za posebno Founder's Edition. U usporedbi s dva starija modela, ovo je vrlo povoljna cijena, budući da novi model GTX 1060, iako inferioran u odnosu na vrhunske matične ploče, nije ni blizu koliko je jeftiniji. U trenutku objave, novitet je definitivno postao najbolje izvedbeno rješenje u svojoj klasi i jedna od najisplativijih ponuda u ovom cjenovnom rangu.
Ovaj model Nvidijine obiteljske video kartice Pascal izašao je nasuprot svježoj odluci konkurentske tvrtke AMD, koja je nešto ranije objavila Radeon RX 480. Novu Nvidia video karticu možete usporediti s ovom video karticom, iako ne baš izravno, jer još uvijek se prilično značajno razlikuju u cijeni . GeForce GTX 1060 je skuplji (249-299 USD u odnosu na 199-229 USD), ali je također očito brži od svog konkurenta.
Grafički procesor GP106 ima 192-bitnu memorijsku sabirnicu, tako da količina memorije instalirane na video kartici s takvom sabirnicom može biti 3 ili 6 GB. Manja vrijednost u modernim uvjetima, iskreno, nije dovoljna, a mnogi projekti igara, čak i u Full HD rezoluciji, naići će na nedostatak video memorije, što će ozbiljno utjecati na glatkoću renderiranja. Kako bi se osigurale maksimalne performanse novog rješenja pri visokim postavkama, model GeForce GTX 1060 opremljen je sa 6 GB video memorije, što je dovoljno za pokretanje bilo koje 3D aplikacije s bilo kojim postavkama kvalitete. Štoviše, danas jednostavno nema razlike između 6 i 8 GB, a takvo rješenje će uštedjeti nešto novca.
Tipična vrijednost potrošnje energije za novi proizvod je 120 W, što je 20% manje od vrijednosti za GTX 1070 i jednako je potrošnji energije prethodne generacije GeForce GTX 960 grafičke kartice, koja ima puno manje performanse i mogućnosti. Referentna ploča ima uobičajeni set konektora za spajanje uređaja za izlaz slike: jedan Dual-Link DVI, jedan HDMI i tri DisplayPort. Štoviše, postojala je podrška za nove verzije HDMI-ja i DisplayPort-a, o čemu smo pisali u recenziji modela GTX 1080.
Duljina referentne ploče GeForce GTX 1060 je 9,8 inča (25 cm), a iz razlika u odnosu na starije opcije, posebno napominjemo da GeForce GTX 1060 ne podržava SLI multi-chip konfiguraciju renderiranja, te nema poseban konektor za to. Budući da ploča troši manje energije od starijih modela, jedan 6-pinski PCI-E vanjski priključak za napajanje je instaliran na ploču za dodatno napajanje.
GeForce GTX 1060 video kartice su se pojavile na tržištu od dana objave u obliku proizvoda partnera tvrtke: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Posebno izdanje GeForce GTX 1060 Founder’s Edition, koje proizvodi sama Nvidia, bit će objavljeno u ograničenim količinama, koje će se prodavati po cijeni od 299 dolara isključivo na web stranici Nvidia i neće biti službeno predstavljeno u Rusiji. Founder's Edition odlikuje se činjenicom da je izrađen od visokokvalitetnih materijala i komponenti, uključujući aluminijsko kućište, te koristi učinkovit sustav hlađenja, kao i strujne krugove niskog otpora i posebno dizajnirane regulatore napona.
GeForce GTX 1060 video kartica temelji se na potpuno novom grafičkom procesoru modela GP106, koji se funkcionalno ne razlikuje od prvenca Pascal arhitekture u obliku GP104 čipa, na kojem su opisani modeli GeForce GTX 1080 i GTX 1070 Ova arhitektura se temeljila na rješenjima razrađenim još u Maxwellu, ali ima i neke funkcionalne razlike o kojima smo ranije detaljno pisali.
GP106 video čip je po svom dizajnu sličan vrhunskom Pascal čipu i sličnim rješenjima Maxwell arhitekture, a detaljne informacije o dizajnu modernih GPU-a možete pronaći u našim recenzijama prethodnih Nvidia rješenja. Kao i prethodni GPU-ovi, čipovi nove arhitekture imaju drugačiju konfiguraciju klastera za grafičku obradu (GPC), višeprocesora za strujanje (SM) i memorijskih kontrolera:
Grafički procesor GP106 uključuje dva GPC klastera, koji se sastoje od 10 streaming multiprocesora (Streaming Multiprocessor - SM), odnosno točno polovica GP104. Kao i kod starijeg GPU-a, svaki od multiprocesora sadrži 128 jezgri, 8 TMU teksturnih jedinica, 256 KB registarske memorije, 96 KB dijeljene memorije i 48 KB L1 predmemorije. Kao rezultat toga, GeForce GTX 1060 sadrži ukupno 1.280 računalnih jezgri i 80 teksturnih jedinica, upola manje od GTX 1080.
No, memorijski podsustav GeForce GTX 1060 nije prepolovljen u odnosu na vrhunsko rješenje, on sadrži šest 32-bitnih memorijskih kontrolera, dajući konačnu 192-bitnu memorijsku sabirnicu. Uz efektivnu frekvenciju GDDR5 video memorije za GeForce GTX 1060 koja je jednaka 8 GHz, propusnost doseže 192 GB/s, što je sasvim dobro za rješenje u ovom cjenovnom segmentu, posebno s obzirom na visoku učinkovitost korištenja u Pascalu. Svaki od memorijskih kontrolera ima osam ROP-ova i 256 KB L2 predmemorije povezane s njim, tako da ukupno puna verzija GP106 GPU-a sadrži 48 ROP-ova i 1536 KB L2 predmemorije.
Kako bi se smanjili zahtjevi za propusnost memorije i učinila učinkovitija upotreba dostupne Pascal arhitekture, dodatno je poboljšana kompresija podataka na čipu bez gubitaka, koja je sposobna komprimirati podatke u međuspremnicima, postižući učinkovitost i povećanje performansi. Konkretno, nove metode delta kompresije s omjerima 4:1 i 8:1 dodane su čipovima nove obitelji, čime se osigurava dodatnih 20% učinkovitosti memorijskog pojasa u usporedbi s prethodnim rješenjima obitelji Maxwell.
Osnovna frekvencija novog GPU-a je 1506 MHz – frekvencija u principu ne bi trebala pasti ispod ove oznake. Tipični turbo takt (Boost Clock) je puno veći na 1708 MHz, što je prosjek stvarne frekvencije na kojoj grafički čip GeForce GTX 1060 radi u širokom rasponu igara i 3D aplikacija. Stvarna učestalost pojačanja ovisi o igri i uvjetima u kojima se test odvija.
Kao i ostatak Pascal obitelji, GeForce GTX 1060 ne samo da radi na visokoj brzini, pružajući visoke performanse, već ima i pristojnu marginu za overclocking. Prvi eksperimenti ukazuju na mogućnost postizanja frekvencija reda veličine 2 GHz. Ne čudi što partneri tvrtke pripremaju i tvornički overclockane verzije GTX 1060 video kartice.
Dakle, glavna promjena u novoj arhitekturi bio je 16 nm FinFET proces, čija je upotreba u proizvodnji GP106 omogućila značajno povećanje složenosti čipa uz zadržavanje relativno niske površine od pa ovaj čip arhitekture Pascal ima znatno veći broj izvršnih jedinica u usporedbi s Maxwell čipom sličnog pozicioniranja proizvedenom 28 nm procesnom tehnologijom.
Ako je GM206 (GTX 960) s površinom od 227 mm² imao 3 milijarde tranzistora i 1024 ALU-a, 64 TMU-a, 32 ROP-a i 128-bitnu sabirnicu, tada je novi GPU sadržavao 4,4 milijarde tranzistora, 1280 ALU-a, u 200 mm², 80 TMU-a i 48 ROP-a sa 192-bitnom sabirnicom. Štoviše, na gotovo jedan i pol puta višoj frekvenciji: 1506 (1708) naspram 1126 (1178) MHz. I to s istom potrošnjom energije od 120 vata! Kao rezultat toga, GP106 GPU je postao jedan od energetski najučinkovitijih GPU-a, zajedno s GP104.
Jedna od najzanimljivijih tehnologija tvrtke, koju podržava GeForce GTX 1060 i druga rješenja Pascal obitelji, je tehnologija Nvidia simultana višestruka projekcija. O ovoj tehnologiji smo već pisali u pregledu GeForce GTX 1080, ona vam omogućuje korištenje nekoliko novih tehnika za optimizaciju renderiranja. Konkretno - istovremeno projicirati VR sliku za dva oka odjednom, značajno povećavajući učinkovitost korištenja GPU-a u virtualnoj stvarnosti.
Za podršku SMP-a, svi GPU-ovi Pascal obitelji imaju poseban motor, koji se nalazi u PolyMorph Engine-u na kraju geometrijskog cjevovoda prije rasterizatora. S njim GPU može istovremeno projicirati geometrijski primitiv na nekoliko projekcija iz jedne točke, dok te projekcije mogu biti stereo (tj. istovremeno su podržane do 16 ili 32 projekcije). Ova mogućnost omogućuje Pascal GPU-ima da precizno reproduciraju zakrivljenu površinu za VR renderiranje, kao i da se ispravno prikazuju na sustavima s više monitora.
Važno je da se tehnologija Simultaneous Multi-Projection već integrira u popularne motore za igre (Unreal Engine i Unity) i igre, a do danas je najavljena podrška za tehnologiju za više od 30 igara u razvoju, uključujući i takve dobro poznate projekti kao što su Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft i Raw Data. Zanimljivo, iako Unreal Tournament nije VR igra, koristi SMP za postizanje boljih vizuala i performansi.
Još jedna dugo očekivana tehnologija moćan je alat za stvaranje snimki zaslona u igrama. Nvidia Ansel. Ovaj alat vam omogućuje da kreirate neobične i vrlo kvalitetne snimke zaslona iz igara, s prethodno nedostupnim značajkama, spremate ih u vrlo visokoj rezoluciji i nadopunjujete raznim efektima te dijelite svoje kreacije. Ansel vam omogućuje da doslovno napravite snimku zaslona na način na koji umjetnik to želi, omogućujući vam da instalirate kameru s bilo kojim parametrima bilo gdje u sceni, primijenite snažne naknadne filtre na sliku ili čak napravite snimak od 360 stupnjeva za gledanje u kaciga za virtualnu stvarnost.
Nvidia je standardizirala integraciju Ansel korisničkog sučelja u igre, a to je jednostavno kao dodavanje nekoliko redaka koda. Više nije potrebno čekati da se ova značajka pojavi u igrama, Anselove sposobnosti možete procijeniti već sada u Mirror's Edge: Catalyst, a nešto kasnije će postati dostupna u Witcher 3: Wild Hunt. Osim toga, u razvoju su mnogi projekti igara s omogućenim Anselom, uključujući igre kao što su Fortnite, Paragon i Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky i još mnogo toga.
Novi GeForce GTX 1060 GPU također podržava set alata Nvidia VRWorks, koji programerima pomaže u stvaranju impresivnih projekata za virtualnu stvarnost. Ovaj paket uključuje mnoge uslužne programe i alate za razvojne programere, uključujući VRWorks Audio, koji vam omogućuje vrlo precizan izračun refleksije zvučnih valova od objekata scene koristeći praćenje GPU zraka. Paket također uključuje integraciju u VR i PhysX fizičke efekte kako bi se osiguralo fizički ispravno ponašanje objekata u sceni.
Jedna od najuzbudljivijih VR igara koje imaju koristi od VRWorksa je VR Funhouse, Nvidijina vlastita VR igra, dostupna besplatno na Valveovoj Steam usluzi. Ovu igru pokreće Unreal Engine 4 (Epic Games) i radi na grafičkim karticama GeForce GTX 1080, 1070 i 1060 u kombinaciji s HTC Vive VR slušalicama. Štoviše, izvorni kod ove igre bit će javno dostupan, što će drugim programerima omogućiti korištenje gotovih ideja i koda koji su već u svojim VR atrakcijama. Vjerujte nam na riječ, ovo je jedna od najimpresivnijih demonstracija mogućnosti virtualne stvarnosti.
Uključujući i zahvaljujući SMP i VRWorks tehnologijama, korištenje GeForce GTX 1060 GPU-a u VR aplikacijama pruža performanse koje su sasvim dovoljne za početnu virtualnu stvarnost, a dotični GPU zadovoljava minimalnu potrebnu razinu hardvera, uključujući i za SteamVR, postajući jedna od najuspješnijih akvizicija za korištenje u sustavima sa službenom podrškom za VR.
Budući da se model GeForce GTX 1060 temelji na čipu GP106, koji ni na koji način nije inferioran u odnosu na grafički procesor GP104, koji je postao osnova za starije modifikacije, podržava apsolutno sve gore opisane tehnologije.
GeForce GTX 1060 treći je model u Nvidijinoj novoj liniji grafičkih procesora baziranih na Pascal obitelji. Nova 16nm FinFET procesna tehnologija i optimizacije arhitekture omogućile su svim novim grafičkim karticama postizanje visokih brzina takta i postavljanje više funkcionalnih blokova u GPU u obliku stream procesora, teksturnih modula i drugih, u usporedbi s video čipovima prethodne generacije. Zato je GTX 1060 postao najisplativije i energetski najučinkovitije rješenje u svojoj klasi i općenito.
Posebno je važno da GeForce GTX 1060 nudi dovoljno visoke performanse i podršku za nove značajke i algoritme po znatno nižoj cijeni u odnosu na starija rješenja bazirana na GP104. Grafički čip GP106 korišten u novom modelu pruža najbolje performanse i energetsku učinkovitost u klasi. GeForce GTX 1060 je posebno dizajniran i savršeno prikladan za sve moderne igre na visokim i maksimalnim grafičkim postavkama pri rezoluciji od 1920x1080, pa čak i sa anti-aliasingom preko cijelog zaslona omogućenim raznim metodama (FXAA, MFAA ili MSAA).
A za one koji žele još više performansi s zaslonima ultra visoke razlučivosti, Nvidia ima vrhunske grafičke kartice GeForce GTX 1070 i GTX 1080 koje su također prilično dobre u pogledu performansi i energetske učinkovitosti. Pa ipak, kombinacija niske cijene i dovoljnih performansi prilično povoljno izdvaja GeForce GTX 1060 od pozadine starijih rješenja. U usporedbi s konkurentskim Radeon RX 480, Nvidijino rješenje je nešto brže s manje složenosti i GPU-a, te ima znatno bolju energetsku učinkovitost. Istina, prodaje se malo skuplje, tako da svaka video kartica ima svoju nišu.
Prelazimo na još jednu značajku GeForce GTX 1080 koja ju je učinila prvom takve vrste - podršku za GDDR5X memoriju. U tom svojstvu, GTX 1080 će neko vrijeme biti jedini proizvod na tržištu, budući da je već poznato da će GeForce GTX 1070 biti opremljen standardnim GDDR5 čipovima. U kombinaciji s novim algoritmima kompresije boja (više o tome kasnije), velika propusnost memorije omogućit će GP104 učinkovitije upravljanje dostupnim računalnim resursima nego što to mogu priuštiti proizvodi bazirani na GM104 i GM200 čipovima.
JEDEC je konačne specifikacije novog standarda objavio tek u siječnju ove godine, a jedini proizvođač GDDR5X u ovom trenutku je Micron. Na 3DNews nije postojao poseban članak o ovoj tehnologiji pa ćemo u ovoj recenziji ukratko opisati inovacije koje donosi GDDR5X.
GDDR5X protokol ima mnogo zajedničkog s GDDR5 (iako se oba čipa razlikuju električni i fizički) – za razliku od HBM memorije, koja je bitno drugačijeg tipa, što čini suživot s GDDR5 (X) sučeljem u jednom GPU-u praktički nemogućim. Iz tog razloga se tako zove GDDR5X, a ne npr. GDDR6.
Jedna od ključnih razlika između GDDR5X i GDDR5 je mogućnost prijenosa četiri bita podataka po ciklusu signala (QDR - Quad Data Rate) za razliku od dva bita (DDR - Double Data Rate), kao što je bio slučaj u svim prethodnim modifikacijama DDR SDRAM memorija. Fizičke frekvencije memorijskih jezgri i sučelja za prijenos podataka nalaze se približno u istom rasponu kao i kod GDDR5 čipova.
A kako bi povećao propusnost čipova zasitio podacima, GDDR5X koristi prethodno dohvaćanje podataka povećano s 8n na 16n. Uz 32-bitno sučelje zasebnog čipa, to znači da kontroler odabire ne 32, već 64 bajta podataka u jednom ciklusu pristupa memoriji. Kao rezultat toga, rezultirajuća propusnost sučelja doseže 10-14 Gb / s po pinu na frekvenciji CK (naredbenog takta) od 1250-1750 MHz - to je frekvencija koju uslužni programi za praćenje i overclocking video kartica, kao što je GPU-Z, pokazati. Barem za sada, takve brojke su uključene u standard, ali u budućnosti Micron planira doseći brojke do 16 Gb / s.
Sljedeća prednost GDDR5X je povećani volumen čipa - s 8 na 16 Gb. GeForce GTX 1080 dolazi s osam 8Gb čipova, ali u budućnosti će proizvođači grafičkih kartica moći udvostručiti količinu RAM-a kako čipovi postaju dostupniji. Kao i GDDR5, GDDR5X omogućuje korištenje dva čipa na jednom 32-bitnom kontroleru u takozvanom clamshell načinu rada, što omogućuje adresiranje 32 GB memorije na 256-bitnoj GP104 sabirnici. Osim toga, standard GDDR5X, uz jednake snage dvojke, opisuje volumen čipa od 6 i 12 Gb, što će vam omogućiti da "djelomično" mijenjate ukupnu količinu ugrađene memorije video kartica - na primjer, opremite kartica s 384-bitnom RAM sabirnicom s čipovima za ukupno 9 GB.
Suprotno očekivanjima koja su pratila prve informacije o GDDR5X, koje su se pojavile u javnosti, potrošnja energije nove vrste memorije usporediva je s GDDR5 ili tek nešto veća od potonje. Kako bi kompenzirali povećanu snagu pri velikim propusnim opsegima, kreatori standarda su smanjili napon napajanja jezgri sa 1,5 V, standardnog za GDDR5, na 1,35 V. Osim toga, standard uvodi kontrolu frekvencije čipa kao obveznu mjeru ovisno o senzor temperature. Još uvijek nije poznato koliko nova memorija doista ovisi o kvaliteti odvođenja topline, no moguće je da ćemo sada češće viđati sustave hlađenja na video karticama koje služe ne samo GPU-ima, već i RAM čipovima, dok proizvođači GDDR5 baziranih na kartice većinom zanemaruju ovu mogućnost.
Moglo bi se steći dojam da je prijelaz s GDDR5 na GDDR5X bio lak zadatak za NVIDIA zbog povezanosti ovih tehnologija. Osim toga, GeForce GTX 1080 opremljen je najnižom propusnošću memorije definiranom standardom - 10 Gb / s po pinu. Međutim, praktična implementacija novog sučelja povezana je s nizom inženjerskih poteškoća. Prijenos podataka na tako visokim frekvencijama zahtijevao je pažljiv dizajn topologije sabirnice podataka na ploči kako bi se smetnje i slabljenje signala u vodičima minimizirali.
Rezultirajuća propusnost sabirnice od 256-bita u GeForce GTX 1080 je 320 GB/s, što nije značajno manje od brzine od 336 GB/s, koju karakterizira GeForce GTX 980 Ti (TITAN X) sa svojim 384-bitnim GDDR5 sabirnica pri 7 Gb/s po pinu.
Sada PolyMorph Engine može kreirati do 16 projekcija (viewports) u isto vrijeme, proizvoljno postavljenih i fokusiranih na jednu ili dvije točke, pomaknute duž horizontalne osi jedna u odnosu na drugu. Ove se pretvorbe u potpunosti izvode u hardveru i ne uzrokuju nikakvu degradaciju performansi same po sebi.
Ova tehnologija ima dvije prilično predvidljive primjene. Prvi su VR kacige. Zbog dva projekcijska centra, Pascal može stvoriti stereo sliku u jednom prolazu (međutim, ovdje se radi samo o geometriji – GPU ipak mora obaviti dvostruko više posla kako bi rasterirao teksture u dva okvira).
Osim toga, SMP omogućuje na razini geometrije kompenzaciju izobličenja slike, koju unose leće kacige. Za to se slika za svako oko formira od četiri odvojene projekcije, koje se zatim lijepe u ravninu pomoću filtera za naknadnu obradu. Time se postiže ne samo geometrijska točnost konačne slike, već i potreba za obradom 1/3 piksela, koji bi inače bili izgubljeni tijekom završne korekcije standardne ravne projekcije za zakrivljenost leća. eliminiran.
Jedina optimizacija za VR koju je Maxwell imao bila je da se periferna područja slike, koja su najjače komprimirana za izlaz kroz leće, mogu prikazati u nižoj razlučivosti, što je rezultiralo uštedom propusnosti od samo 10-15%.
Sljedeće područje u kojem je značajka SMP tražena je u konfiguracijama s više monitora. Bez SMP-a, slika na više usidrenih zaslona je ravnina s gledišta GPU-a i izgleda geometrijski ispravno pod uvjetom da su ekrani ispred gledatelja poredani, ali pristajanje pod kutom više ne izgleda ispravno - kao da jednostavno ste savili veliku fotografiju na nekoliko mjesta . Da ne spominjemo da u svakom slučaju gledatelj vidi točno ravnu sliku, a ne prozor u virtualni svijet: ako okrenete glavu prema bočnom ekranu, objekti u njemu će ostati rastegnuti, jer virtualna kamera još uvijek gleda u središnjoj točki.
Uz pomoć SMP-a, upravljački program grafičke kartice može dobiti informacije o fizičkoj lokaciji nekoliko ekrana kako bi projicirao sliku za svaki od njih kroz vlastiti okvir za prikaz, što u konačnici funkcionalno približava sklop više monitora punopravnom "prozor".
Ukratko, svrha trostrukog međuspremnika je odvojiti proces generiranja novih okvira u GPU cjevovodu od skeniranja slike iz međuspremnika okvira dopuštajući grafičkoj kartici da kreira nove okvire proizvoljno velikom brzinom, zapisujući ih u dva rotirajuća okvira tamponima. U tom slučaju, sadržaj posljednjeg okvira s frekvencijom koja je višekratnik brzine osvježavanja zaslona kopira se u treći međuspremnik, odakle ga monitor može pokupiti bez prekida slike. Dakle, okvir koji udari na zaslon u trenutku kada skeniranje počinje uvijek sadrži najnovije informacije koje je proizveo GPU.
Trostruko međuspremnik je najkorisniji na monitorima sa stopom osvježavanja od 50-60Hz. Na frekvencijama od 120-144 Hz, kao što smo već pisali u članku o G-Sync-u, uključivanje vertikalne sinkronizacije već, u principu, neznatno povećava latenciju, ali Fast Sync će je ukloniti na minimum.
Ako se pitate kako se Fast Sync uspoređuje s G-Sync (i AMD-ovim kolegom Free Sync - ali to je čisto teorijsko pitanje jer NVIDIA podržava samo svoju varijantu), onda G-Sync smanjuje kašnjenje kada GPU nema vremena za proizvodnju novi okvir do trenutka kada skeniranje započne, a Fast Sync, naprotiv, smanjuje kašnjenje kada je stopa osvježavanja okvira u cjevovodu renderiranja veća od brzine osvježavanja zaslona. Osim toga, ove tehnologije mogu raditi zajedno.
GeForce GTX 1080 Founder's Edition:oblikovati
Ovo pompozno ime sada je referentna verzija GeForce GTX 1080. Počevši od GeForce GTX 690, NVIDIA je puno pažnje posvetila obliku u kojem njihovi novi proizvodi izlaze na tržište. Referentni uzorci modernih video kartica pod markom GeForce daleko su od svojih neupadljivih prethodnika, opremljeni relativno neučinkovitim i bučnim sustavima hlađenja.
GeForce GTX 1080 Founder's Edition uključuje najbolje značajke dizajna Kepler i Maxwell grafičkih kartica: aluminijski pokrov turbine, propeler hladnjaka izrađen od niskošumnog materijala i masivni aluminijski okvir koji dodaje krutost strukturi i uklanja toplinu iz RAM čipovi.
Kao dio GTX 1080, postoje dvije komponente u isto vrijeme koje se povremeno pojavljuju i nestaju s NVIDIA referentnih video kartica - GPU hladnjak s parnom komorom i stražnjom pločom. Potonji se djelomično demontira bez odvijača kako bi se omogućio protok zraka do hladnjaka susjedne video kartice u SLI načinu rada.
Uz njegovu reprezentativnu funkciju, potreban je referentni uzorak video kartice kako bi je proizvođači krajnjih kartica mogli kupiti - u ovom slučaju od NVIDIA-e - i zadovoljiti potražnju dok uređaji originalnog dizajna na istom GPU-u ne budu spremni. No ovoga puta NVIDIA planira zadržati referentnu verziju u prodaji tijekom cijelog vijeka trajanja modela i distribuirati, između ostalog, putem svoje službene web stranice. To motivira 100$ višu cijenu GTX 1080 FE u odnosu na preporučenih 599$ za sve ostale. Uostalom, Founder's Edition ne izgleda niti se osjeća kao jeftin proizvod.
Istodobno, video kartica ima referentne frekvencije ispod kojih, kao i obično, neće pasti niti jedan proizvođač kartica izvornog dizajna. Također nema govora o bilo kakvom izboru GPU-a za GTX 1080 FE u smislu overclocking potencijala. Stoga u cijeloj masi implementacija GeForce GTX 1080 može biti i skupljih. No, neko vrijeme će Founder's Edition biti prevladavajuća, pa čak i jedina verzija vodećeg Pascala, koji automatski podiže svoje maloprodajne cijene za 100 dolara iznad NVIDIA-ine "preporuke".
GeForce GTX 1080 Ti ima 11 GB GDDR5X memorije, GPU od 1583 MHz (overclockati na 2000 MHz uz standardno hlađenje), 11 GHz QDR memoriju i 35% bolje performanse od GeForce GTX 1080. I to po sniženoj cijeni od 699 dolara.
Nova grafička kartica istiskuje GeForce GTX 1080 s pozicije flagshipa u GeForce liniji i postaje najbrži grafička kartica koja danas postoji, kao i najmoćnija kartica na Pascal arhitekturi.
NVIDIA GeForce GTX 1080 Ti je san igrača, koji konačno može uživati u najnovijim igrama AAA klase, igrati se u kacigama za virtualnu stvarnost visoke razlučivosti, uživati u jasnoći i točnosti grafike.
GTX 1080 Ti je dizajnirana da bude prva potpuna grafička kartica za 4K igranje. Opremljena je najnovijim i tehnološki najnaprednijim hardverom kojim se danas ne može pohvaliti nijedna druga video kartica.
Ovdje službeno predstavljanje NVIDIA GeForce GTX 1080 Ti
“Vrijeme je za nešto novo. Onaj koji je 35% brži od GTX 1080. On koji je brži od Titana X. Nazovimo ga ultimativnim…
Iz godine u godinu videoigre su sve ljepše i ljepše, stoga predstavljamo vrhunski proizvod sljedeće generacije kako biste mogli uživati u igrama sljedeće generacije.”
Jen-Xun
NVIDIA nije štedjela na nadjevu za svoju novu i super-moćnu video karticu.
Opremljen je istim GPU Pascal GP102 GPU, poput Titana X (P), ali superiorniji od potonjeg u svim aspektima.
Procesor je opremljen s 12 milijardi tranzistora i ima šest klastera za obradu grafike, od kojih su dva blokirana. Ovo daje ukupno 28 višenitnih procesora 128 jezgri svaka.
Dakle, grafička kartica GeForce GTX 1080 Ti ima 3584 CUDA jezgri, 224 jedinice za mapiranje tekstura i 88 ROP-ova (jedinica odgovornih za z-buffering, anti-aliasing, pisanje konačne slike u međuspremnik okvira video memorije).
Raspon overclockinga kreće se od 1582 MHz do 2 GHz. Pascal arhitektura je stvorena uglavnom za overclockanje u referentnim i ekstremnije overclockanje u nestandardnim modelima.
GeForce GTX 1080 Ti također ima 11 GB GDDR5X memorije, radeći kroz 352-bitnu sabirnicu. Vodeći model također ima najbrže G5X rješenje do sada.
S novim sustavom kompresije i predmemoriranjem pločica, propusnost grafičke kartice GTX 1080 Ti može se povećati do 1200 Gb/s, što je superiornije od AMD-ove HBM2 tehnologije.
Karakteristike | GTX TItan X Pascal | GTX 1080 Ti | GTX 1080 |
---|---|---|---|
Procesna tehnologija | 16 nm | 16 nm | 16 nm |
tranzistori | 12 milijardi | 12 milijardi | 7,2 milijarde |
Kristalno područje | 471 mm² | 471 mm² | 314 mm² |
Memorija | 12 GB GDDR5X | 11 GB GDDR5X | 8GB GDDR5X |
Brzina memorije | 10 Gb/s | 11 Gb/s | 11 Gb/s |
Memorijsko sučelje | 384-bitni | 352-bitni | 256-bitni |
Širina pojasa | 480 GB/s | 484 GB/s | 320 GB/s |
CUDA jezgre | 3584 | 3584 | 2560 |
bazna frekvencija | 1417 | 1607 | |
Učestalost ubrzanja | 1530MHz | 1583 MHz | 1730 MHz |
Računalna snaga | 11 teraflopsa | 11,5 teraflopsa | 9 teraflopsa |
Toplinska snaga | 250W | 250W | 180W |
Cijena | 1200$ | 699 američkih dolara | 499$ |
GeForce GTX 1080 Ti Founders ima novo rješenje za protok zraka koje omogućuje bolje hlađenje ploče i također je tiše od prethodnih dizajna. Sve to omogućuje više overclocking video kartice i postizanje još veće brzine. Osim toga, učinkovitost hlađenja je poboljšana 7-fazno napajanje na 14 visokoučinkovitih dualFET tranzistora.
GeForce GTX 1080 Ti dolazi s najnovijim NVTTM dizajnom, koji uvodi novu komoru za hlađenje parom koja ima dvostruko veće područje hlađenja od Titan X (P). Ovaj novi toplinski dizajn pomaže u postizanju optimalnog hlađenja i ubrzava GPU vaše grafičke kartice iznad specifikacije uz GPU Boost 3.0 tehnologiju.
Dakle, što da radimo s ovom impresivnom snagom video kartice? Odgovor je očigledan - overclock do krajnjih granica. Tijekom događaja, NVIDIA je demonstrirala izniman overclocking potencijal svoje GTX 1080 Ti grafičke kartice. Podsjetimo, uspjeli su postići frekvenciju procesora od 2,03 GHz pri blokiranih 60 FPS.
nanbaby.ru - Zdravlje i ljepota. Moda. Djeca i roditelji. Slobodno vrijeme. Gen. Kuća