Kartu video. Mengenal kartu Pascal GPU GP104

2016 akan segera berakhir, tetapi kontribusinya pada industri game akan tetap bersama kami untuk waktu yang lama. Pertama, kartu video dari kubu merah menerima pembaruan yang sukses secara tak terduga di kisaran harga menengah, dan kedua, NVIDIA sekali lagi membuktikan bahwa tidak sia-sia menempati 70% pasar. Maxwells bagus, GTX 970 dianggap sebagai salah satu kartu terbaik untuk uang, tetapi Pascal adalah masalah yang sama sekali berbeda.

Perangkat keras generasi baru di depan GTX 1080 dan 1070 benar-benar mengubur hasil sistem tahun lalu dan pasar perangkat keras bekas unggulan, sementara garis "lebih muda" di depan GTX 1060 dan 1050 mengkonsolidasikan kesuksesan mereka dalam harga yang lebih terjangkau. segmen. Pemilik GTX980Ti dan Titans lainnya menangis dengan air mata buaya: uber-gun mereka untuk ribuan rubel kehilangan 50% dari biaya dan 100% dari pamer sekaligus. NVIDIA sendiri mengklaim bahwa 1080 lebih cepat dari TitanX tahun lalu, 1070 dengan mudah "menimbun" 980Ti, dan anggaran 1060 yang relatif akan merugikan pemilik semua kartu lainnya.

Apakah ini benar-benar dari mana kaki kinerja tinggi tumbuh dan apa yang harus dilakukan dengan itu semua pada malam liburan dan kegembiraan finansial yang tiba-tiba, serta apa yang sebenarnya menyenangkan diri sendiri, Anda dapat mengetahuinya dalam waktu yang lama dan sedikit membosankan ini. artikel.

Anda dapat menyukai Nvidia atau ... tidak menyukainya, tetapi hanya hit dari alam semesta alternatif yang akan menyangkal bahwa Nvidia saat ini adalah pemimpin di bidang teknik video. Karena AMD Vega belum diumumkan, kami belum melihat RX unggulan di Polaris, dan R9 Fury, dengan memori eksperimental 4 GB, tidak dapat dianggap sebagai kartu yang menjanjikan (VR dan 4K masih ingin sedikit lebih banyak, daripada yang dia miliki) - kita memiliki apa yang kita miliki. Sementara 1080 Ti dan RX 490, RX Fury dan RX 580 hanya rumor dan harapan, kami punya waktu untuk memilah jajaran NVIDIA saat ini dan melihat apa yang telah dicapai perusahaan dalam beberapa tahun terakhir.

Kekacauan dan Sejarah Asal Usul Pascal

NVIDIA secara teratur memberikan alasan untuk "tidak mencintai diri sendiri." Sejarah GTX 970 dan "memori 3,5 GB", "NVIDIA, Persetan!" dari Linus Torvalds, pornografi lengkap di garis grafik desktop, penolakan untuk bekerja dengan sistem FreeSync gratis dan jauh lebih umum demi miliknya sendiri ... Secara umum, ada cukup banyak alasan. Salah satu hal yang paling menjengkelkan bagi saya pribadi adalah apa yang terjadi dengan dua generasi terakhir dari kartu video. Jika kita mengambil gambaran kasar, maka GPU "modern" telah datang dari hari-hari dukungan DX10. Dan jika Anda mencari "kakek" dari seri ke-10 hari ini, maka awal arsitektur modern akan berada di wilayah seri ke-400 akselerator video dan arsitektur Fermi. Di situlah ide desain "blok" dari apa yang disebut. "CUDA core" dalam terminologi NVIDIA.

Fermi

Jika kartu video seri 8000, 9000 dan 200 adalah langkah pertama dalam menguasai konsep, "arsitektur modern" dengan prosesor shader universal (seperti AMD, ya), maka seri ke-400 sudah semirip mungkin dengan apa yang kami lihat di beberapa 1070. Ya, Fermi masih memiliki penopang Legacy kecil dari generasi sebelumnya: unit shader bekerja pada dua kali frekuensi inti yang bertanggung jawab untuk menghitung geometri, tetapi gambaran keseluruhan dari beberapa GTX 480 tidak jauh berbeda dari beberapa 780, multiprosesor SM dikelompokkan, cluster berkomunikasi melalui cache umum dengan pengontrol memori, dan hasil pekerjaan ditampilkan oleh blok rasterisasi umum untuk cluster:


Diagram blok prosesor GF100 yang digunakan di GTX 480.

Pada seri ke-500, masih ada Fermi yang sama, "bagian dalam" yang sedikit lebih baik dan dengan lebih sedikit perkawinan, sehingga solusi teratas menerima 512 inti CUDA alih-alih 480 untuk generasi sebelumnya. Secara visual, diagram alur umumnya tampak kembar:


GF110 adalah jantung dari GTX 580.

Di beberapa tempat mereka meningkatkan frekuensi, sedikit mengubah desain chip itu sendiri, tidak ada revolusi. Semua teknologi proses 40 nm yang sama dan memori video 1,5 GB pada bus 384-bit.

Kepler

Dengan munculnya arsitektur Kepler, banyak yang telah berubah. Kita dapat mengatakan bahwa generasi inilah yang memberi kartu video NVIDIA vektor pengembangan yang menyebabkan munculnya model saat ini. Tidak hanya arsitektur GPU yang berubah, tetapi juga dapur untuk mengembangkan perangkat keras baru di dalam NVIDIA. Jika Fermi berfokus pada menemukan solusi yang akan memberikan kinerja tinggi, maka Kepler bertaruh pada efisiensi energi, penggunaan sumber daya yang wajar, frekuensi tinggi, dan kemudahan optimalisasi mesin permainan untuk kemampuan arsitektur kinerja tinggi.

Perubahan serius dibuat dalam desain GPU: bukan "unggulan" GF100 / GF110 yang diambil sebagai dasarnya, tetapi "anggaran" GF104 / GF114, yang digunakan di salah satu kartu paling populer saat itu - GTX 460.


Arsitektur prosesor keseluruhan telah disederhanakan dengan hanya menggunakan dua blok besar dengan empat modul multiprosesor shader terpadu. Tata letak flagships baru terlihat seperti ini:


GK104 dipasang di GTX 680.

Seperti yang Anda lihat, masing-masing unit komputasi telah meningkat secara signifikan dibandingkan dengan arsitektur sebelumnya, dan diberi nama SMX. Bandingkan struktur balok dengan apa yang ditunjukkan di atas pada bagian Fermi.


Multiprosesor SMX GPU GK104

Seri keenam ratus tidak memiliki kartu video pada prosesor lengkap yang berisi enam blok modul komputasi, andalannya adalah GTX 680 dengan GK104 terpasang, dan lebih keren daripada hanya 690 "berkepala dua", di mana hanya dua prosesor dibiakkan dengan semua binding dan memori yang diperlukan. Setahun kemudian, GTX 680 unggulan dengan perubahan kecil berubah menjadi GTX 770, dan mahkota evolusi arsitektur Kepler adalah kartu video berdasarkan kristal GK110: GTX Titan dan Titan Z, 780Ti dan 780 biasa. Di dalam - semua sama 28 nanometer, satu-satunya peningkatan kualitatif (yang TIDAK pergi ke kartu video konsumen berdasarkan GK110) - kinerja dengan operasi presisi ganda.

Maxwell

Kartu video pertama berdasarkan arsitektur Maxwell adalah… NVIDIA GTX 750Ti. Beberapa saat kemudian, potongannya muncul di depan GTX 750 dan 745 (disediakan hanya sebagai solusi terintegrasi), dan pada saat kemunculannya, kartu kelas bawah benar-benar mengguncang pasar untuk akselerator video murah. Arsitektur baru diuji pada chip GK107: sepotong kecil flagship masa depan dengan heatsink besar dan harga yang menakutkan. Itu terlihat seperti ini:


Ya, hanya ada satu unit komputasi, tetapi betapa lebih rumitnya daripada pendahulunya, bandingkan sendiri:


Alih-alih blok SMX besar, yang digunakan sebagai "batu bata bangunan" dasar, pembuatan GPU menggunakan blok SMM baru yang lebih ringkas. Unit komputasi dasar Kepler bagus, tetapi mengalami utilisasi kapasitas yang buruk - rasa lapar yang dangkal akan instruksi: sistem tidak dapat menyebarkan instruksi ke sejumlah besar aktuator. Pentium 4 memiliki masalah yang kira-kira sama: daya tidak digunakan, dan kesalahan dalam prediksi cabang sangat mahal. Di Maxwell, setiap modul komputasi dibagi menjadi empat bagian, masing-masing dengan buffer instruksi dan penjadwal warp sendiri - jenis operasi yang sama pada sekelompok utas. Akibatnya, efisiensi meningkat, dan GPU itu sendiri menjadi lebih fleksibel daripada pendahulunya, dan yang paling penting, dengan mengorbankan sedikit darah dan kristal yang cukup sederhana, mereka telah membuat arsitektur baru. Ceritanya berputar-putar, hehe.

Solusi seluler paling diuntungkan dari inovasi: area kristal telah tumbuh seperempat, dan jumlah unit eksekusi multiprosesor hampir dua kali lipat. Seperti keberuntungan, itu adalah seri ke-700 dan ke-800 yang membuat kekacauan utama dalam klasifikasi. Di dalam 700 saja, ada kartu video berdasarkan arsitektur Kepler, Maxwell dan bahkan Fermi! Itulah sebabnya desktop Maxwells, untuk menjauh dari gado-gado generasi sebelumnya, menerima seri 900 yang umum, dari mana kartu seluler GTX 9xx M kemudian diputar.

Pascal - pengembangan logis dari arsitektur Maxwell

Apa yang diletakkan di Kepler dan dilanjutkan pada generasi Maxwell tetap ada di Pascals: kartu video konsumen pertama dirilis berdasarkan chip GP104 yang tidak terlalu besar, yang terdiri dari empat klaster pemrosesan grafis. GP100 enam cluster berukuran penuh menjadi GPU semi-profesional yang mahal di bawah merek TITAN X. Namun, bahkan 1080 yang "dipotong" menyala sehingga generasi sebelumnya merasa sakit.

Peningkatan performa

yayasan yayasan

Maxwell menjadi fondasi arsitektur baru, diagram prosesor yang sebanding (GM104 dan GP104) terlihat hampir sama, perbedaan utama adalah jumlah multiprosesor yang dikemas ke dalam cluster. Di Kepler (generasi ke-700) ada dua multiprosesor SMX besar, yang masing-masing dibagi menjadi 4 bagian di Maxwell, menyediakan pengikat yang diperlukan (mengubah nama menjadi SMM). Di Pascal, dua lagi ditambahkan ke delapan yang ada di blok, sehingga ada 10 di antaranya, dan singkatannya sekali lagi terputus: sekarang multiprosesor tunggal lagi disebut SM.


Sisanya adalah kesamaan visual yang lengkap. Benar, ada lebih banyak perubahan di dalam.

Mesin kemajuan

Ada banyak perubahan tidak senonoh di dalam blok multiprosesor. Agar tidak masuk ke detail yang sangat membosankan tentang apa yang telah dilakukan ulang, bagaimana itu dioptimalkan dan bagaimana sebelumnya, saya akan menjelaskan perubahannya dengan sangat singkat, jika tidak, beberapa sudah menguap.

Pertama-tama, Pascal mengoreksi bagian yang bertanggung jawab atas komponen geometris gambar. Ini diperlukan untuk konfigurasi multi-monitor dan bekerja dengan helm VR: dengan dukungan yang tepat dari mesin game (dan dukungan ini akan segera muncul melalui upaya NVIDIA), kartu video dapat menghitung geometri sekali dan mendapatkan beberapa proyeksi geometri untuk masing-masing dari layar. Ini secara signifikan mengurangi beban dalam VR tidak hanya di bidang bekerja dengan segitiga (di sini peningkatannya hanya dua kali lipat), tetapi juga dalam bekerja dengan komponen piksel.

980Ti bersyarat akan membaca geometri dua kali (untuk setiap mata), dan kemudian mengisinya dengan tekstur dan melakukan pasca-pemrosesan untuk setiap gambar, memproses total sekitar 4,2 juta poin, di mana sekitar 70% benar-benar akan digunakan, sisanya akan dipotong atau jatuh ke area , yang sama sekali tidak ditampilkan untuk masing-masing mata.

1080 akan memproses geometri sekali, dan piksel yang tidak termasuk dalam gambar akhir tidak akan dihitung.


Dengan komponen piksel, semuanya menjadi lebih keren. Karena meningkatkan bandwidth memori hanya dapat dilakukan di dua sisi (meningkatkan frekuensi dan bandwidth per jam), dan kedua metode membutuhkan biaya, dan "kelaparan" GPU dalam hal memori semakin terasa selama bertahun-tahun karena pertumbuhan resolusi dan pengembangan VR tetap meningkatkan metode "gratis" untuk meningkatkan bandwidth. Jika Anda tidak dapat memperluas bus dan menaikkan frekuensi - Anda perlu mengompres data. Pada generasi sebelumnya, kompresi perangkat keras sudah diterapkan, tetapi di Pascal itu dibawa ke tingkat yang baru. Sekali lagi, kita akan melakukannya tanpa matematika yang membosankan, dan mengambil contoh yang sudah jadi dari NVIDIA. Di sebelah kiri - Maxwell, di sebelah kanan - Pascal, titik-titik yang komponen warnanya mengalami kompresi lossless diisi dengan warna merah muda.


Alih-alih mentransfer ubin tertentu 8x8 poin, memori berisi warna "rata-rata" + matriks penyimpangan darinya, data tersebut mengambil dari hingga dari volume aslinya. Dalam tugas nyata, beban pada subsistem memori telah berkurang dari 10 menjadi 30%, tergantung pada jumlah gradien dan keseragaman pengisian dalam adegan kompleks di layar.


Bagi para insinyur, ini tampaknya tidak cukup, dan untuk memori kartu video unggulan (GTX 1080) dengan peningkatan bandwidth digunakan: GDDR5X mentransmisikan bit data dua kali lebih banyak (bukan instruksi) per jam, dan menghasilkan lebih dari 10 Gb / s di puncak. Mentransfer data dengan kecepatan gila membutuhkan tata letak memori yang benar-benar baru, dan efisiensi memori total meningkat 60-70% dibandingkan dengan flagships generasi sebelumnya.

Kurangi penundaan dan waktu henti

Kartu video telah lama terlibat tidak hanya dalam pemrosesan grafik, tetapi juga dalam perhitungan terkait. Fisika sering dikaitkan dengan bingkai animasi dan sangat paralel, yang berarti jauh lebih efisien untuk menghitung pada GPU. Tetapi generator masalah terbesar belakangan ini adalah industri VR. Banyak mesin permainan, metodologi pengembangan, dan banyak teknologi lain yang digunakan untuk bekerja dengan grafik sama sekali tidak dirancang untuk VR, kasus memindahkan kamera atau mengubah posisi kepala pengguna selama rendering bingkai tidak diproses. Jika Anda membiarkan semuanya apa adanya, maka desinkronisasi aliran video dan gerakan Anda akan menyebabkan serangan mabuk laut dan hanya mengganggu perendaman di dunia game, yang berarti bahwa bingkai yang "salah" harus dibuang setelah rendering dan mulai bekerja lagi. Dan ini adalah penundaan baru dalam menampilkan gambar di layar. Ini tidak memiliki efek positif pada kinerja.

Pascal mempertimbangkan masalah ini dan memperkenalkan penyeimbangan beban dinamis dan kemungkinan interupsi asinkron: sekarang unit eksekusi dapat menginterupsi tugas saat ini (menyimpan hasil pekerjaan dalam cache) untuk memproses tugas yang lebih mendesak, atau cukup menyetel ulang bingkai yang digambar dan memulai yang baru, secara signifikan mengurangi penundaan dalam pembentukan gambar. Penerima manfaat utama di sini adalah, tentu saja, VR dan game, tetapi teknologi ini juga dapat membantu perhitungan tujuan umum: simulasi tumbukan partikel menerima peningkatan kinerja 10-20%.

Tingkatkan 3.0

Kartu video NVIDIA menerima overclocking otomatis sejak lama, pada generasi ke-700 berdasarkan arsitektur Kepler. Di Maxwell, overclocking ditingkatkan, tetapi tetap saja, secara halus, begitu-begitu: ya, kartu video bekerja sedikit lebih cepat, selama paket termal mengizinkannya, tambahan 20-30 megahertz untuk inti dan 50 -100 untuk memori, kabel dari pabrik, memberikan peningkatan, tetapi kecil . Ini bekerja seperti ini:


Bahkan jika ada margin untuk suhu GPU, kinerja tidak meningkat. Dengan munculnya Pascal, para insinyur mengguncang rawa berdebu ini. Boost 3.0 bekerja di tiga bidang: analisis suhu, peningkatan kecepatan clock, dan peningkatan voltase on-chip. Sekarang semua jus dikeluarkan dari GPU: driver NVIDIA standar tidak melakukan ini, tetapi perangkat lunak vendor memungkinkan Anda membuat kurva profil dalam satu klik, yang akan memperhitungkan kualitas contoh kartu video spesifik Anda.

EVGA adalah salah satu yang pertama di bidang ini, utilitas Precision XOC-nya memiliki pemindai bersertifikat NVIDIA yang secara berurutan melewati seluruh rentang suhu, frekuensi, dan voltase, mencapai kinerja maksimum di semua mode.

Tambahkan di sini teknologi proses baru, memori berkecepatan tinggi, segala macam pengoptimalan dan pengurangan paket panas chip, dan hasilnya akan sangat tidak senonoh. Dari 1500 "basis" MHz, GTX 1060 dapat diperas lebih dari 2000 MHz jika salinan yang baik ditemukan, dan vendor tidak mengacaukan pendinginan.

Meningkatkan kualitas gambar dan persepsi dunia game

Performa telah ditingkatkan di semua lini, tetapi ada sejumlah poin di mana tidak ada perubahan kualitatif selama beberapa tahun: dalam kualitas gambar yang ditampilkan. Dan ini bukan tentang efek grafis, ini disediakan oleh pengembang game, tetapi tentang apa yang sebenarnya kita lihat di monitor dan bagaimana tampilan game itu bagi pengguna akhir.

Sinkronisasi vertikal cepat

Fitur paling penting dari Pascal adalah buffer tiga kali untuk output bingkai, yang secara bersamaan memberikan penundaan yang sangat rendah dalam rendering dan memastikan sinkronisasi vertikal. Gambar keluaran disimpan dalam satu buffer, frame terakhir yang dirender disimpan di buffer lain, dan yang sekarang digambar di buffer ketiga. Selamat tinggal garis-garis horizontal dan sobek, halo kinerja tinggi. Tidak ada penundaan yang sesuai dengan V-Sync klasik di sini (karena tidak ada yang menahan kinerja kartu video dan selalu menggambar pada kecepatan bingkai setinggi mungkin), dan hanya bingkai yang terbentuk sepenuhnya yang dikirim ke monitor. Saya pikir setelah tahun baru saya akan menulis posting besar terpisah tentang V-Sync, G-Sync, Free-Sync dan algoritma sinkronisasi cepat baru dari Nvidia ini, ada terlalu banyak detail.

Tangkapan layar biasa

Tidak, tangkapan layar yang sekarang hanya memalukan. Hampir semua game menggunakan banyak teknologi untuk membuat gambar bergerak menjadi menakjubkan dan menakjubkan, dan tangkapan layar telah menjadi mimpi buruk yang nyata: alih-alih gambar realistis memukau yang terdiri dari animasi, efek khusus yang memanfaatkan kekhasan penglihatan manusia, Anda melihat beberapa jenis sudut Saya tidak mengerti apa dengan warna-warna aneh dan gambar yang benar-benar tak bernyawa.

Teknologi NVIDIA Ansel baru memecahkan masalah dengan tangkapan layar. Ya, implementasinya memerlukan integrasi kode khusus dari pengembang game, tetapi manipulasi nyata minimal, tetapi keuntungannya sangat besar. Ansel tahu cara menjeda permainan, mentransfer kendali kamera ke tangan Anda, dan kemudian - ruang untuk kreativitas. Anda hanya dapat mengambil gambar tanpa GUI dan sudut favorit Anda.


Anda dapat merender pemandangan yang ada dalam resolusi ultra-tinggi, memotret panorama 360 derajat, menggabungkannya menjadi bidang, atau membiarkannya dalam bentuk tiga dimensi untuk dilihat dalam helm VR. Ambil foto dengan 16 bit per channel, simpan sebagai semacam file RAW, lalu mainkan dengan eksposur, white balance, dan pengaturan lainnya agar tangkapan layar menjadi menarik kembali. Kami mengharapkan banyak konten keren dari penggemar game dalam satu atau dua tahun.

Pemrosesan suara video

Pustaka NVIDIA Gameworks baru menambahkan banyak fitur yang tersedia untuk pengembang. Mereka terutama ditujukan untuk VR dan mempercepat berbagai perhitungan, serta meningkatkan kualitas gambar, tetapi salah satu fitur adalah yang paling menarik dan layak disebutkan. VRWorks Audio membawa pekerjaan dengan suara ke tingkat yang baru secara fundamental, menghitung suara bukan dengan formula rata-rata dangkal tergantung pada jarak dan ketebalan rintangan, tetapi melakukan pelacakan sinyal audio lengkap, dengan semua pantulan dari lingkungan, gema dan penyerapan suara di berbagai bahan. NVIDIA memiliki contoh video yang bagus tentang cara kerja teknologi ini:


Tonton lebih baik dengan headphone

Murni secara teoritis, tidak ada yang mencegah menjalankan simulasi seperti itu di Maxwell, tetapi optimasi dalam hal eksekusi instruksi yang tidak sinkron dan sistem interupsi baru yang dibangun ke dalam Pascal memungkinkan Anda untuk melakukan perhitungan tanpa terlalu memengaruhi kecepatan bingkai.

Pascal total

Bahkan, ada lebih banyak perubahan, dan banyak di antaranya sangat mendalam dalam arsitektur sehingga orang dapat menulis artikel besar tentang masing-masing perubahan tersebut. Inovasi utama adalah peningkatan desain chip itu sendiri, pengoptimalan pada level terendah dalam hal geometri dan operasi asinkron dengan penanganan interupsi penuh, banyak fitur yang disesuaikan untuk bekerja dengan resolusi tinggi dan VR, dan, tentu saja, frekuensi gila yang generasi masa lalu kartu video tidak bisa bermimpi. Dua tahun lalu, 780 Ti hampir tidak melewati ambang 1 GHz, hari ini 1080 berjalan pada dua dalam beberapa kasus: dan di sini kelebihannya tidak hanya dalam teknologi proses yang dikurangi dari 28 nm menjadi 16 atau 14 nm: banyak hal dioptimalkan di level terendah, dimulai dengan desain transistor , diakhiri dengan topologinya dan pengikatan di dalam chip itu sendiri.

Untuk setiap kasus individu

Jajaran kartu video NVIDIA 10-series ternyata benar-benar seimbang, dan cukup padat mencakup semua kasus pengguna game, dari opsi "untuk memainkan strategi dan diablo" hingga "Saya ingin game teratas dalam 4k". Tes permainan dipilih menurut satu teknik sederhana: untuk mencakup tes seluas mungkin dengan serangkaian tes sekecil mungkin. BF1 adalah contoh yang bagus dari pengoptimalan yang baik dan memungkinkan Anda untuk membandingkan kinerja DX11 vs DX12 dalam kondisi yang sama. DOOM dipilih untuk alasan yang sama, hanya untuk membandingkan OpenGL dan Vulkan. "Penyihir" ketiga di sini bertindak sebagai mainan yang sangat dioptimalkan, di mana pengaturan grafis maksimum memungkinkan flagship apa pun untuk dikacaukan hanya berdasarkan kode kotoran. Ini menggunakan DX11 klasik, yang telah teruji waktu dan bekerja dengan sempurna di driver dan akrab bagi pengembang game. Overwatch mengambil rap untuk semua game "turnamen" yang memiliki kode yang dioptimalkan dengan baik, sebenarnya menarik untuk seberapa tinggi rata-rata FPS dalam game yang tidak terlalu berat dari sudut pandang grafis, dipertajam untuk bekerja di " rata-rata" config tersedia di seluruh dunia.

Saya akan memberikan beberapa komentar umum segera: Vulkan sangat rakus dalam hal memori video, untuk itu karakteristik ini adalah salah satu indikator utama, dan Anda akan melihat tesis ini tercermin dalam tolok ukur. DX12 pada kartu AMD berperilaku jauh lebih baik daripada di NVIDIA, jika yang "hijau" menunjukkan penurunan FPS rata-rata pada API baru, maka yang "merah", sebaliknya, menunjukkan peningkatan.

divisi junior

GTX 1050

NVIDIA yang lebih muda (tanpa huruf Ti) tidak semenarik saudara perempuannya yang diisi dengan huruf Ti. Takdirnya adalah solusi game untuk game MOBA, strategi, penembak turnamen, dan game lainnya di mana detail dan kualitas gambar tidak terlalu menarik bagi siapa pun, dan frame rate yang stabil untuk uang minimal adalah apa yang diperintahkan dokter.


Dalam semua gambar tidak ada frekuensi inti, karena itu adalah individu untuk setiap contoh: 1050 tanpa tambahan. daya mungkin tidak mengejar, dan saudara perempuannya dengan konektor 6-pin akan dengan mudah mengambil 1,9 GHz bersyarat. Dalam hal daya dan panjang, opsi paling populer ditampilkan, Anda selalu dapat menemukan kartu video dengan sirkuit berbeda atau pendingin lain yang tidak sesuai dengan "standar" yang ditentukan.

DOOM 2016 (1080p, ULTRA): OpenGL - 68 FPS, Vulkan - 55 FPS;
The Witcher 3: Perburuan Liar (1080p, MAX, HairWorks Off): DX11 - 38 FPS;
Medan Perang 1 (1080p, ULTRA): DX11 - 49 FPS, DX12 - 40 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS;

GTX 1050 memiliki prosesor grafis GP107, yang diwarisi dari kartu lama dengan sedikit pemangkasan blok fungsional. Memori video 2 GB tidak akan membiarkan Anda berlari liar, tetapi untuk disiplin e-sports dan bermain beberapa jenis tank, itu sempurna, karena harga untuk kartu junior mulai dari 9,5 ribu rubel. Daya tambahan tidak diperlukan, kartu video hanya membutuhkan 75 watt dari motherboard melalui slot PCI-Express. Benar, di segmen harga ini juga ada AMD Radeon RX460, yang dengan memori 2 GB yang sama lebih murah, dan kualitasnya hampir tidak kalah, dan dengan uang yang hampir sama Anda bisa mendapatkan RX460, tetapi dalam 4 GB Versi: kapan. Bukan karena mereka banyak membantunya, tetapi semacam cadangan untuk masa depan. Pilihan vendor tidak begitu penting, Anda dapat mengambil apa yang tersedia dan tidak mengeluarkan seribu rubel ekstra, yang lebih baik dihabiskan untuk surat-surat berharga Ti.

GTX 1050 Ti

Sekitar 10 ribu untuk 1050 biasa tidak buruk, tetapi untuk versi yang dibebankan (atau penuh, sebut saja apa yang Anda inginkan) mereka meminta lebih sedikit (rata-rata, 1-1,5 ribu lebih), tetapi isiannya jauh lebih menarik . Omong-omong, seluruh seri 1050 diproduksi bukan dari pemotongan / penolakan chip "besar" yang tidak cocok untuk 1060, tetapi sebagai produk yang sepenuhnya independen. Ini memiliki proses manufaktur yang lebih kecil (14 nm), pabrik yang berbeda (kristal ditanam oleh pabrik Samsung), dan ada spesimen yang sangat menarik dengan tambahan. catu daya: paket termal dan konsumsi dasar masih sama 75 W, tetapi potensi overclocking dan kemampuan untuk melampaui apa yang diizinkan sama sekali berbeda.


Jika Anda terus bermain pada resolusi FullHD (1920x1080), tidak berencana untuk meningkatkan, dan perangkat keras Anda yang lain berusia 3-5 tahun, ini adalah cara yang bagus untuk meningkatkan kinerja mainan dengan sedikit kerugian. Sebaiknya fokus pada solusi ASUS dan MSI dengan catu daya 6-pin tambahan, opsi dari Gigabyte tidak buruk, tetapi harganya tidak terlalu menggembirakan.

DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Perburuan Liar (1080p, MAX, HairWorks Off): DX11 - 44 FPS;
Medan Perang 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.

Divisi tengah

Kartu video dari baris ke-60 telah lama dianggap sebagai pilihan terbaik bagi mereka yang tidak ingin menghabiskan banyak uang, dan pada saat yang sama bermain dengan pengaturan grafis tinggi dalam segala hal yang akan dirilis dalam beberapa tahun ke depan. Dimulai dari masa GTX 260, yang memiliki dua versi (lebih sederhana, 192 stream processor, dan lebih gemuk, 216 “stones”), berlanjut pada generasi ke-400, ke-500, dan ke-700, dan sekarang NVIDIA kembali jatuh ke hampir sempurna. kombinasi harga dan kualitas. Dua versi "menengah" kembali tersedia: GTX 1060 dengan memori video 3 dan 6 GB berbeda tidak hanya dalam jumlah RAM yang tersedia, tetapi juga dalam kinerja.

GTX 1060 3GB

Ratu esports. Harga yang wajar, kinerja yang luar biasa untuk FullHD (dan di eSports mereka jarang menggunakan resolusi yang lebih tinggi: hasil lebih penting daripada hal-hal indah di sana), jumlah memori yang wajar (3 GB, selama satu menit, dua tahun lalu di flagship GTX 780 Ti, yang menghabiskan uang tidak senonoh). Dalam hal kinerja, 1060 yang lebih muda dengan mudah mengalahkan GTX 970 tahun lalu dengan memori 3,5 GB yang mengesankan, dan dengan mudah menyeret 780 Ti super-flagship tahun sebelumnya ke telinga.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 87 FPS;
The Witcher 3: Perburuan Liar (1080p, MAX, HairWorks Off): DX11 - 70 FPS;
Medan Perang 1 (1080p, ULTRA): DX11 - 92 FPS, DX12 - 85 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS.

Di sini favorit mutlak dalam hal harga dan knalpot adalah versi dari MSI. Frekuensi bagus, sistem pendingin senyap, dan dimensi waras. Baginya, mereka tidak meminta apa pun, di wilayah 15 ribu rubel.

GTX 1060 6GB

Versi 6GB adalah tiket anggaran ke VR dan resolusi tinggi. Ini tidak akan kekurangan memori, sedikit lebih cepat dalam semua pengujian dan dengan percaya diri akan mengungguli GTX 980 di mana kartu video tahun lalu tidak akan memiliki cukup memori video 4 GB.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 121 FPS;
The Witcher 3: Perburuan Liar (1080p, MAX, HairWorks Off): DX11 - 73 FPS;
Medan Perang 1 (1080p, ULTRA): DX11 - 94 FPS, DX12 - 90 FPS;
Overwatch (1080p, ULTRA): DX11 - 166 FPS.

Saya ingin sekali lagi mencatat perilaku kartu video saat menggunakan Vulkan API. 1050 dengan memori 2 GB - penarikan FPS. 1050 Ti dengan 4 GB - hampir setara. 1060 3 GB - penarikan. 1060 6 GB - pertumbuhan hasil. Trennya, menurut saya, jelas: Vulkan membutuhkan memori video 4+ GB.

Masalahnya adalah kedua 1060-an itu bukan kartu video kecil. Tampaknya paket panas masuk akal, dan papan di sana sangat kecil, tetapi banyak vendor memutuskan untuk hanya menyatukan sistem pendingin antara 1080, 1070 dan 1060. Seseorang memiliki kartu video setinggi 2 slot, tetapi panjangnya 28+ sentimeter, seseorang membuat mereka lebih pendek, tetapi lebih tebal (2,5 slot). Pilih dengan hati-hati.

Sayangnya, tambahan memori video 3 GB dan unit komputasi yang tidak terkunci akan dikenakan biaya ~ 5-6 ribu rubel di atas harga versi 3-gig. Dalam hal ini, Palit memiliki pilihan harga dan kualitas yang paling menarik. ASUS telah merilis sistem pendingin 28-cm yang mengerikan, yang dipahat pada 1080, dan 1070, dan 1060, dan kartu video semacam itu tidak akan muat di mana pun, versi tanpa biaya overclocking pabrik hampir sama, dan knalpotnya lebih sedikit, dan mereka mintalah lebih banyak untuk MSI yang relatif ringkas daripada pesaing dengan tingkat kualitas dan overclocking pabrik yang hampir sama.

Liga Utama

Bermain untuk semua uang pada tahun 2016 itu sulit. Ya, 1080 sangat keren, tetapi perfeksionis dan kutu buku perangkat keras tahu bahwa NVIDIA MENYEMBUNYIKAN keberadaan 1080 Ti super-flagship, yang seharusnya sangat keren. Spesifikasi pertama sudah bocor secara online, dan jelas bahwa hijau sedang menunggu merah-putih untuk masuk: semacam uber-gun yang dapat langsung dipasang oleh raja baru grafis 3D, yang hebat dan GTX 1080 Ti yang perkasa. Nah, untuk saat ini, kami memiliki apa yang kami miliki.

GTX 1070

Petualangan tahun lalu dari mega-populer GTX 970 dan memori 4-gigabyte yang tidak cukup jujur ​​​​secara aktif disortir dan disedot di seluruh Internet. Ini tidak menghentikannya untuk menjadi kartu grafis game paling populer di dunia. Ini memegang tempat pertama di Steam Hardware & Software Survey menjelang perubahan tahun di kalender. Ini dapat dimengerti: kombinasi harga dan kinerja sangat sempurna. Dan jika Anda melewatkan upgrade tahun lalu dan 1060 sepertinya tidak cukup keren, GTX 1070 adalah pilihan Anda.

Resolusi 2560x1440 dan 3840x2160 yang dicerna kartu video dengan keras. Sistem overclocking Boost 3.0 akan mencoba menambahkan kayu bakar ketika beban pada GPU meningkat (yaitu, dalam adegan yang paling sulit, ketika FPS merosot di bawah serangan efek khusus), meng-overclock prosesor kartu video ke 2100+ yang menakjubkan MHz. Memori dengan mudah mendapatkan 15-18% dari frekuensi efektif di atas nilai pabrik. Hal monster.


Perhatian, semua tes dilakukan dalam 2.5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Perburuan Liar (1440p, MAX, HairWorks Off): DX11 - 73 FPS;
Medan Perang 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.

Tentu saja, tidak mungkin untuk mengeluarkan pengaturan ultra dalam 4k dan tidak pernah melorot di bawah 60 frame per detik baik dengan kartu ini atau 1080, tetapi Anda dapat bermain di pengaturan "tinggi" bersyarat, mematikan atau sedikit menurunkan fitur yang paling rakus secara penuh. resolusi, dan dalam hal kinerja sebenarnya, kartu grafis dengan mudah mengalahkan 980 Ti tahun lalu, yang harganya hampir dua kali lipat. Gigabyte memiliki opsi yang paling menarik: mereka berhasil menjejalkan 1070 penuh ke dalam kasing standar ITX. Berkat paket termal sederhana dan desain hemat energi. Harga untuk kartu mulai dari 29-30 ribu rubel untuk pilihan yang lezat.

GTX 1080

Ya, flagship tidak memiliki huruf Ti. Ya, itu tidak menggunakan GPU terbesar yang tersedia dari NVIDIA. Ya, tidak ada memori HBM 2 yang keren di sini, dan kartu grafisnya tidak terlihat seperti Death Star atau, dalam kasus ekstrem, kapal penjelajah Imperial kelas Star Destroyer. Dan ya, ini adalah kartu grafis gaming paling keren saat ini. Satu per satu mengambil dan menjalankan DOOM pada resolusi 5k3k pada 60fps pada pengaturan ultra. Semua mainan baru tunduk padanya, dan untuk satu atau dua tahun ke depan itu tidak akan mengalami masalah: sampai teknologi baru yang disematkan di Pascal tersebar luas, sampai mesin permainan belajar bagaimana memuat sumber daya yang tersedia secara efisien ... Ya, dalam beberapa tahun kami akan mengatakan: "Di sini, lihat GTX 1260, beberapa tahun yang lalu Anda membutuhkan flagship untuk bermain di pengaturan itu", tetapi untuk saat ini, kartu grafis terbaik tersedia sebelum tahun baru dengan harga yang sangat wajar. harga.


Perhatian, semua tes dilakukan dalam 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Perburuan Liar (2160p, MAX, HairWorks Off): DX11 - 55 FPS;
Medan Perang 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.

Tetap hanya untuk memutuskan: Anda membutuhkannya, atau Anda dapat menghemat uang dan mengambil 1070. Tidak ada banyak perbedaan antara bermain di pengaturan "ultra" atau "tinggi", karena mesin modern menggambar gambar dengan sempurna dalam resolusi tinggi bahkan pada pengaturan sedang. : setelah semua, kami memiliki Anda bukan konsol sabun yang tidak dapat memberikan kinerja yang cukup untuk 4k yang jujur ​​​​dan 60fps yang stabil.

Jika kami membuang opsi yang paling murah, maka Palit akan kembali memiliki kombinasi harga dan kualitas terbaik dalam versi GameRock (sekitar 43-45 ribu rubel): ya, sistem pendinginnya "tebal", 2,5 slot, tetapi kartu video lebih pendek dari pesaing, dan sepasang 1080 jarang dipasang . SLI perlahan-lahan sekarat, dan bahkan injeksi jembatan berkecepatan tinggi yang memberi kehidupan tidak banyak membantu. Opsi ASUS ROG tidak buruk jika Anda memiliki banyak tambahan yang diinstal. Anda tidak ingin menutupi slot ekspansi tambahan: kartu video mereka memiliki tebal persis 2 slot, tetapi membutuhkan 29 sentimeter ruang kosong dari dinding belakang ke keranjang hard drive. Saya ingin tahu apakah Gigabyte akan dapat merilis monster ini dalam format ITX?

Hasil

Kartu video NVIDIA baru baru saja membenamkan pasar perangkat keras bekas. Hanya GTX 970 yang bertahan, yang dapat direbut seharga 10-12 ribu rubel. Pembeli potensial dari 7970 dan R9 280 bekas sering tidak memiliki tempat untuk meletakkannya dan tidak memberinya makan, dan banyak opsi dari pasar sekunder tidak menjanjikan, dan sebagai peningkatan murah untuk beberapa tahun ke depan, mereka tidak bagus: hanya ada sedikit memori, teknologi baru tidak didukung. Keindahan dari generasi baru kartu video adalah bahwa bahkan permainan yang tidak dioptimalkan untuk mereka berjalan jauh lebih ceria daripada grafik GPU veteran beberapa tahun terakhir, dan sulit untuk membayangkan apa yang akan terjadi dalam setahun, ketika mesin permainan belajar menggunakan sepenuhnya kekuatan teknologi baru.

GTX 1050 dan 1050Ti

Sayangnya, saya tidak bisa merekomendasikan pembelian Pascal yang paling murah. RX 460 biasanya dijual dengan harga kurang dari seribu atau dua, dan jika anggaran Anda sangat terbatas sehingga Anda mengambil kartu video "untuk yang terbaru", maka Radeon secara objektif merupakan investasi yang lebih menarik. Di sisi lain, 1050 sedikit lebih cepat, dan jika harga di kota Anda untuk kedua kartu video ini hampir sama, ambillah.

1050Ti, pada gilirannya, adalah pilihan yang bagus bagi mereka yang menghargai cerita dan gameplay lebih dari lonceng dan peluit dan bulu hidung yang realistis. Itu tidak memiliki hambatan dalam bentuk memori video 2 GB, itu tidak akan "turun" setelah satu tahun. Anda dapat menaruh uang di atasnya - lakukanlah. The Witcher pada pengaturan tinggi, GTA V, DOOM, BF 1 - tidak ada masalah. Ya, Anda harus mengorbankan sejumlah peningkatan, seperti bayangan ekstra panjang, tesselasi kompleks, atau perhitungan "mahal" dari model bayangan sendiri dengan penelusuran sinar terbatas, tetapi dalam panasnya pertempuran Anda akan melupakan keindahan ini setelah 10 menit bermain, dan 50-60 frame per detik yang stabil akan memberikan efek yang jauh lebih mendalam daripada lompatan saraf dari 25 ke 40, tetapi dengan pengaturan ke "maksimum".

Jika Anda memiliki kartu video Radeon 7850, GTX 760 atau lebih muda, dengan memori video 2 GB atau kurang, Anda dapat menggantinya dengan aman.

GTX 1060

1060 yang lebih muda akan menyenangkan mereka yang menganggap frame rate 100 FPS lebih penting daripada lonceng dan peluit grafis. Pada saat yang sama, ini akan memungkinkan Anda untuk memainkan semua mainan yang dirilis dengan nyaman dalam resolusi FullHD dengan pengaturan tinggi atau maksimum dan stabil 60 frame per detik, dan harganya sangat berbeda dari semua yang datang setelahnya. 1060 yang lebih lama dengan memori 6 gigabyte adalah solusi tanpa kompromi untuk FullHD dengan margin kinerja selama satu atau dua tahun, keakraban dengan VR dan kandidat yang sepenuhnya dapat diterima untuk bermain dalam resolusi tinggi pada pengaturan sedang.

Tidak masuk akal untuk mengubah GTX 970 Anda ke GTX 1060, itu akan memakan waktu satu tahun lagi. Tetapi unit 960, 770, 780, R9 280X dan yang lebih lama yang mengganggu dapat diperbarui dengan aman ke 1060.

Segmen teratas: GTX 1070 dan 1080

1070 tidak mungkin menjadi sepopuler GTX 970 (namun, sebagian besar pengguna memiliki siklus pembaruan besi setiap dua tahun), tetapi dalam hal harga dan kualitas, ini tentu saja merupakan kelanjutan yang layak dari baris ke-70. Itu hanya menggiling game pada 1080p arus utama, dengan mudah menangani 2560x1440, tahan terhadap cobaan 21 hingga 9 yang tidak dioptimalkan, dan cukup mampu menampilkan 4k, meskipun tidak pada pengaturan maksimum.


Ya, SLI juga bisa seperti itu.

Kami mengucapkan selamat tinggal pada setiap 780 Ti, R9 390X, dan 980-an tahun lalu lainnya, terutama jika kami ingin bermain dalam definisi tinggi. Dan, ya, ini adalah pilihan terbaik bagi mereka yang suka membuat kotak neraka dalam format Mini-ITX dan menakut-nakuti tamu dengan game 4k di TV 60-70 inci yang dijalankan di komputer seukuran pembuat kopi.
gtx 1050 riwayat kartu grafis Tambahkan tag

Menurut bukti anekdot yang baru-baru ini dirilis, keluarga GPU Pascal bisa menjadi salah satu jajaran NVIDIA terlengkap dalam beberapa tahun terakhir. Hanya dalam beberapa bulan, perusahaan telah memperkenalkan empat GPU berbasis Pascal dan tidak akan berhenti di situ. Menurut kepala perusahaan, jauh dari semua chip Pascal, belum lagi produk asli, disajikan. Rupanya, dalam waktu dekat ini kami sedang menunggu pengumuman baru.

NVIDIA Pascal: delapan produk dalam empat bulan

Sejak April tahun ini, NVIDIA telah memperkenalkan empat chip berbasis Pascal: GP100 dengan memori HBM2 16 GB, GP102 dengan dukungan GDDR5X, GP104 dan GP106. Pada saat yang sama, perusahaan mengumumkan delapan produk berdasarkan GPU ini (tidak termasuk produk individual dari berbagai jenis edisi khusus berikut, serta perangkat khusus seperti DGX-1): GeForce GTX 1080/1070 (GP104), GeForce GTX 1060 (GP106), TITAN X (GP102 + 12GB GDDR5X), Quadro P5000 (GP104GL + 16GB GDDR5X), Quadro P6000 (GP102GL + 24GB GDDR5X), Tesla P100 SXM dan Tesla P100 PCIe (keduanya berdasarkan GP100 + 16GB HBM2).

Sementara empat GPU dan delapan produk dalam empat bulan merupakan pencapaian luar biasa, terlihat bahwa perusahaan belum memperkenalkan satu solusi notebook baru, atau satu kartu grafis baru di bawah $250. Menurut kepala NVIDIA, perusahaan sedang mempersiapkan GPU baru berdasarkan Pascal, mereka sudah ada di silikon, tetapi mereka akan memasuki pasar hanya setelah beberapa waktu.

NVIDIA: Semua Pascal sudah siap, tetapi tidak semua disajikan

“Kami telah merancang, memverifikasi, dan memulai produksi semuaGPU berbasis arsitekturPascal», kata Jen-Hsun Huang, kepala eksekutif NVIDIA, selama panggilan konferensi dengan investor dan analis keuangan. “Namun, kami belum memperkenalkan semua GPU ini.”

Konfigurasi Baru

Namun, bukan internal GP107, GP108 dan GP102 yang menarik bagi para gamer dan penggemar performa, tetapi fakta bahwa setiap chip Pascal akan ada setidaknya dalam dua konfigurasi dasar (dalam hal ID PCIe yang digunakan driver NVIDIA ) . Ini membuka peluang untuk menciptakan sejumlah produk baru berdasarkan chip GP100, GP102, GP104 dan GP106.

Jadi, GP104 ada dalam konfigurasi GP104-A dan GP104-B, serta versi dengan akselerasi yang diaktifkan untuk aplikasi profesional - GP104GL-A dan GP104GL-B. Kami tidak tahu persis apa yang sesuai dengan huruf "A" dan "B", tetapi kami dapat mengasumsikan bahwa "A" menunjukkan sirkuit mikro dalam konfigurasi maksimum. Jadi GP104-A bisa menandingi GeForce GTX 1080 dan GP104-B bisa menandingi GeForce GTX 1070.

Mempertimbangkan bahwa sirkuit mikro GP102 dan GP106 juga ada dalam dua konfigurasi (dalam hal apa pun, ini ditunjukkan oleh database AIDA64 dan driver NVIDIA), tetapi hanya ada satu produk berdasarkan mereka (GeForce GTX 1060 dan TITAN X), kami dapat dengan baik mengharapkan munculnya solusi baru berdasarkan mereka. Apakah kartu-kartu ini akan lebih cepat atau lebih lambat dari yang sudah ada, waktu akan memberi tahu. Bagaimanapun, GP102 dapat menskalakan "naik" (hingga 3840 prosesor aliran) dan "turun". Pada saat yang sama, tentu saja, seseorang tidak dapat mengesampingkan kemungkinan hipotetis kemunculan versi ketiga GP102-C, jika NVIDIA membutuhkannya.

Dengan satu atau lain cara, jelas bahwa NVIDIA berencana untuk memperluas keluarga kartu grafis berbasis Pascal. Meskipun rencana segera harus dengan jelas menyertakan GPU seluler dan arus utama, kemungkinan besar kami akan melihat solusi baru untuk PC gaming berperforma tinggi di masa mendatang.

ParameterBerarti
Nama kode chipGP104
Teknologi produksiFinFET 16nm
Jumlah transistor7,2 miliar
Area inti314 mm²
Arsitektur
Dukungan perangkat keras DirectX
Bus memori
1607 (1733) MHz
Blok komputasi20 Multiprosesor Streaming termasuk 2560 IEEE 754-2008 floating point skalar ALU;
Blok tekstur160 unit pengalamatan dan pemfilteran tekstur dengan dukungan untuk komponen FP16 dan FP32 dalam tekstur dan dukungan untuk pemfilteran trilinear dan anisotropik untuk semua format tekstur
Memantau dukungan
Spesifikasi Grafis Referensi GeForce GTX 1080
ParameterBerarti
Frekuensi inti1607 (1733) MHz
2560
Jumlah blok tekstur160
Jumlah blok pencampuran64
Frekuensi memori yang efektif10000 (4×2500) MHz
Jenis memoriGDDR5X
Bus memori256-bit
Penyimpanan8 GB
320 GB/dtk
sekitar 9 teraflop
103 gigapiksel/dtk
257 gigatexel/dtk
BanPCI Express 3.0
konektor
penggunaan dayahingga 180 W
Makanan tambahanSatu konektor 8-pin
2
Harga yang direkomendasikan$599-699 (AS), 54990 RUB (Rusia)

Model baru kartu video GeForce GTX 1080 menerima nama logis untuk solusi pertama dari seri GeForce baru - ini berbeda dari pendahulunya langsung hanya dalam figur generasi yang diubah. Kebaruan tidak hanya menggantikan solusi top-end di lini perusahaan saat ini, tetapi juga menjadi unggulan dari seri baru untuk beberapa waktu, hingga Titan X dirilis pada GPU yang bahkan lebih kuat. Di bawahnya dalam hierarki juga ada model GeForce GTX 1070 yang sudah diumumkan, berdasarkan versi chip GP104 yang dilucuti, yang akan kami pertimbangkan di bawah.

Harga yang disarankan untuk kartu grafis baru Nvidia masing-masing adalah $599 dan $699 untuk Regular dan Founders Edition (lihat di bawah), yang merupakan kesepakatan yang cukup bagus mengingat GTX 1080 tidak hanya unggul dari GTX 980 Ti, tetapi juga Titan X. Hari ini, produk baru adalah solusi terbaik dalam hal kinerja di pasar kartu video chip tunggal tanpa pertanyaan, dan pada saat yang sama lebih murah daripada kartu video paling kuat dari generasi sebelumnya. Sejauh ini, GeForce GTX 1080 pada dasarnya tidak memiliki pesaing dari AMD, sehingga Nvidia mampu menetapkan harga yang sesuai untuk mereka.

Kartu video yang dimaksud didasarkan pada chip GP104, yang memiliki bus memori 256-bit, tetapi jenis baru memori GDDR5X beroperasi pada frekuensi efektif yang sangat tinggi 10 GHz, yang memberikan bandwidth puncak tinggi 320 GB / s - yang hampir setara dengan GTX 980 Ti dengan bus 384 -bit. Jumlah memori yang dipasang pada kartu video dengan bus seperti itu bisa 4 atau 8 GB, tetapi akan bodoh untuk menetapkan jumlah yang lebih kecil untuk solusi yang begitu kuat dalam kondisi modern, sehingga GTX 1080 mendapat memori 8 GB, dan jumlah ini cukup untuk menjalankan aplikasi 3D apa pun dengan pengaturan kualitas apa pun selama beberapa tahun mendatang.

Dapat dimengerti bahwa PCB GeForce GTX 1080 sangat berbeda dari PCB perusahaan sebelumnya. Nilai konsumsi daya tipikal untuk item baru adalah 180 watt - sedikit lebih tinggi dari GTX 980, tetapi jauh lebih rendah daripada Titan X dan GTX 980 Ti yang kurang bertenaga. Papan referensi memiliki rangkaian konektor biasa untuk menghubungkan perangkat output gambar: satu DVI Dual-Link, satu HDMI, dan tiga DisplayPort.

Desain referensi Edisi Pendiri

Bahkan dengan pengumuman GeForce GTX 1080 pada awal Mei, edisi khusus kartu video yang disebut Founders Edition diumumkan, yang memiliki harga lebih tinggi daripada kartu video biasa dari mitra perusahaan. Bahkan, edisi ini adalah referensi desain kartu dan sistem pendingin, dan diproduksi oleh Nvidia sendiri. Anda dapat memiliki sikap yang berbeda terhadap opsi kartu video seperti itu, tetapi desain referensi yang dikembangkan oleh para insinyur perusahaan dan diproduksi menggunakan komponen berkualitas tinggi memiliki penggemarnya sendiri.

Tetapi apakah mereka akan membayar beberapa ribu rubel lebih untuk kartu video dari Nvidia itu sendiri adalah pertanyaan yang hanya bisa dijawab oleh latihan. Bagaimanapun, pada awalnya itu akan menjadi kartu video referensi dari Nvidia yang akan dijual dengan harga yang lebih tinggi, dan tidak banyak yang bisa dipilih - ini terjadi dengan setiap pengumuman, tetapi referensi GeForce GTX 1080 berbeda dalam hal itu. itu direncanakan untuk dijual dalam bentuk ini sepanjang masa pakainya, hingga rilis solusi generasi berikutnya.

Nvidia percaya bahwa edisi ini memiliki kelebihan bahkan di atas karya-karya mitra terbaik. Misalnya, desain pendingin dua slot memudahkan untuk merakit PC game dengan faktor bentuk yang relatif kecil dan sistem video multi-chip berdasarkan kartu video yang kuat ini (meskipun mode tiga dan empat chip tidak direkomendasikan oleh perusahaan). GeForce GTX 1080 Founders Edition memiliki beberapa keunggulan dalam bentuk pendingin yang efisien menggunakan ruang penguapan dan kipas yang mendorong udara panas keluar dari casing - ini adalah solusi pertama Nvidia yang mengkonsumsi daya kurang dari 250 watt.

Dibandingkan dengan desain produk referensi perusahaan sebelumnya, sirkuit daya telah ditingkatkan dari empat fase menjadi lima fase. Nvidia juga berbicara tentang peningkatan komponen yang menjadi dasar produk baru, kebisingan listrik juga telah dikurangi untuk meningkatkan stabilitas tegangan dan potensi overclocking. Sebagai hasil dari semua peningkatan, efisiensi daya papan referensi telah meningkat sebesar 6% dibandingkan dengan GeForce GTX 980.

Dan agar berbeda dari model "biasa" dari GeForce GTX 1080 dan secara lahiriah, desain casing "cincang" yang tidak biasa dikembangkan untuk Founders Edition. Yang, bagaimanapun, mungkin juga menyebabkan komplikasi bentuk ruang penguapan dan radiator (lihat foto), yang mungkin menjadi salah satu alasan untuk membayar $ 100 ekstra untuk edisi khusus seperti itu. Kami ulangi bahwa di awal penjualan, pembeli tidak akan memiliki banyak pilihan, tetapi di masa depan dimungkinkan untuk memilih solusi dengan desain mereka sendiri dari salah satu mitra perusahaan, dan dilakukan oleh Nvidia sendiri.

Generasi baru arsitektur grafis Pascal

Kartu video GeForce GTX 1080 adalah solusi pertama perusahaan yang didasarkan pada chip GP104, yang termasuk dalam generasi baru arsitektur grafis Pascal Nvidia. Meskipun arsitektur baru didasarkan pada solusi yang dikerjakan di Maxwell, arsitektur ini juga memiliki perbedaan fungsional yang penting, yang akan kita tulis nanti. Perubahan utama dari sudut pandang global adalah proses teknologi baru, yang dengannya prosesor grafis baru dibuat.

Penggunaan teknologi proses FinFET 16 nm dalam produksi prosesor grafis GP104 di pabrik-pabrik perusahaan Taiwan TSMC memungkinkan untuk secara signifikan meningkatkan kompleksitas chip sambil mempertahankan area dan biaya yang relatif rendah. Bandingkan jumlah transistor dan area chip GP104 dan GM204 - mereka berdekatan (chip yang baru bahkan secara fisik lebih kecil), tetapi chip arsitektur Pascal memiliki jumlah transistor yang jauh lebih besar, dan karenanya , unit eksekusi, termasuk yang menyediakan fungsionalitas baru.

Dari sudut pandang arsitektur, Pascal game pertama sangat mirip dengan solusi serupa dari arsitektur Maxwell, meskipun ada beberapa perbedaan. Seperti Maxwell, prosesor arsitektur Pascal akan memiliki konfigurasi yang berbeda dari Graphics Processing Clusters (GPCs), Streaming Multiprocessors (SMs), dan pengontrol memori. Multiprosesor SM adalah multiprosesor yang sangat paralel yang menjadwalkan dan menjalankan warps (warps, kelompok 32 aliran instruksi) pada inti CUDA dan unit eksekusi lainnya di multiprosesor. Anda dapat menemukan informasi terperinci tentang desain semua blok ini di ulasan kami tentang solusi Nvidia sebelumnya.

Setiap multiprosesor SM dipasangkan dengan Mesin PolyMorph, yang menangani pengambilan sampel tekstur, tessellation, transformasi, pengaturan atribut vertex, dan koreksi perspektif. Tidak seperti solusi perusahaan sebelumnya, Mesin PolyMorph dalam chip GP104 juga berisi blok Multi-Proyeksi Simultan baru, yang akan kita bahas di bawah. Kombinasi multiprosesor SM dengan satu Mesin Polymorph secara tradisional disebut TPC - Kluster Prosesor Tekstur untuk Nvidia.

Secara total, chip GP104 di GeForce GTX 1080 berisi empat cluster GPC dan 20 multiprosesor SM, serta delapan pengontrol memori yang digabungkan dengan 64 ROP. Setiap cluster GPC memiliki mesin rasterisasi khusus dan mencakup lima SM. Setiap multiprosesor, pada gilirannya, terdiri dari 128 inti CUDA, file register 256 KB, memori bersama 96 KB, cache L1 48 KB, dan delapan unit tekstur TMU. Artinya, secara total, GP104 berisi 2.560 CUDA core dan 160 unit TMU.

Selain itu, prosesor grafis yang menjadi dasar GeForce GTX 1080 berisi delapan pengontrol memori 32-bit (berlawanan dengan 64-bit yang digunakan sebelumnya), yang memberi kita bus memori 256-bit terakhir. Delapan ROP dan 256 KB cache L2 terikat pada masing-masing pengontrol memori. Artinya, secara total, chip GP104 berisi 64 ROP dan cache L2 2048 KB.

Berkat optimalisasi arsitektur dan teknologi proses baru, Pascal gaming pertama telah menjadi GPU paling hemat energi yang pernah ada. Selain itu, ada kontribusi untuk ini baik dari salah satu proses teknologi tercanggih FinFET 16 nm, dan dari optimasi arsitektur yang dilakukan di Pascal, dibandingkan dengan Maxwell. Nvidia mampu meningkatkan kecepatan clock bahkan lebih dari yang mereka harapkan ketika pindah ke teknologi proses baru. GP104 berjalan pada frekuensi yang lebih tinggi daripada GM204 hipotetis yang dibuat menggunakan proses 16nm. Untuk melakukan ini, teknisi Nvidia harus hati-hati memeriksa dan mengoptimalkan semua kemacetan solusi sebelumnya yang mencegah overclocking di atas ambang batas tertentu. Hasilnya, GeForce GTX 1080 baru berjalan pada kecepatan clock lebih dari 40% lebih tinggi daripada GeForce GTX 980. Namun bukan hanya itu perubahan clock GPU.

Teknologi GPU Boost 3.0

Seperti yang kita ketahui dengan baik dari kartu grafis Nvidia sebelumnya, mereka menggunakan teknologi perangkat keras GPU Boost di GPU mereka, yang dirancang untuk meningkatkan kecepatan jam operasi GPU dalam mode di mana ia belum mencapai konsumsi daya dan batas termal. Selama bertahun-tahun, algoritme ini telah mengalami banyak perubahan, dan generasi ketiga dari teknologi ini telah digunakan dalam chip video arsitektur Pascal - GPU Boost 3.0, inovasi utamanya adalah pengaturan frekuensi turbo yang lebih baik, tergantung pada voltase.

Jika Anda mengingat prinsip pengoperasian versi teknologi sebelumnya, maka perbedaan antara frekuensi dasar (nilai frekuensi minimum yang dijamin di bawah yang GPU tidak jatuh, setidaknya dalam game) dan frekuensi turbo diperbaiki. Artinya, frekuensi turbo selalu sejumlah megahertz di atas pangkalan. GPU Boost 3.0 memperkenalkan kemampuan untuk mengatur offset frekuensi turbo untuk setiap voltase secara terpisah. Cara termudah untuk memahami ini adalah dengan ilustrasi:

Di sebelah kiri adalah Peningkatan GPU dari versi kedua, di sebelah kanan - yang ketiga, yang muncul di Pascal. Perbedaan tetap antara frekuensi dasar dan turbo tidak memungkinkan untuk mengungkapkan kemampuan penuh GPU, dalam beberapa kasus, GPU generasi sebelumnya dapat bekerja lebih cepat pada tegangan yang disetel, tetapi kelebihan tetap dari frekuensi turbo tidak memungkinkan ini. Di GPU Boost 3.0, fitur ini muncul, dan frekuensi turbo dapat diatur untuk masing-masing nilai voltase individual, sepenuhnya memeras semua jus dari GPU.

Utilitas praktis diperlukan untuk mengelola overclocking dan mengatur kurva frekuensi turbo. Nvidia sendiri tidak melakukan ini, tetapi membantu mitranya membuat utilitas semacam itu untuk memfasilitasi overclocking (tentu saja dalam batas yang wajar). Misalnya, fungsionalitas baru GPU Boost 3.0 telah terungkap di EVGA Precision XOC, yang mencakup pemindai overclocking khusus yang secara otomatis menemukan dan mengatur perbedaan non-linear antara frekuensi dasar dan frekuensi turbo pada voltase yang berbeda dengan menjalankan built-in uji kinerja dan stabilitas. Hasilnya, pengguna mendapatkan kurva frekuensi turbo yang sangat cocok dengan kemampuan chip tertentu. Yang, apalagi, dapat dimodifikasi sesuka Anda dalam mode manual.

Seperti yang Anda lihat di tangkapan layar utilitas, selain informasi tentang GPU dan sistem, ada juga pengaturan untuk overclocking: Target Daya (menentukan konsumsi daya tipikal selama overclocking, sebagai persentase dari standar), Target Temp GPU (suhu inti maksimum yang diizinkan), GPU Clock Offset (melebihi frekuensi dasar untuk semua nilai voltase), Memory Offset (melebihi frekuensi memori video di atas nilai default), Overvoltage (kesempatan tambahan untuk meningkatkan voltase).

Utilitas Precision XOC mencakup tiga mode overclocking: Basic, Linear, dan Manual. Dalam mode utama, Anda dapat mengatur satu nilai overclock (frekuensi turbo tetap) di atas nilai dasar, seperti halnya untuk GPU sebelumnya. Mode linier memungkinkan Anda untuk mengatur peningkatan frekuensi dari nilai tegangan minimum ke maksimum untuk GPU. Nah, dalam mode manual, Anda dapat mengatur nilai frekuensi GPU unik untuk setiap titik tegangan pada grafik.

Utilitas ini juga mencakup pemindai khusus untuk overclocking otomatis. Anda dapat mengatur tingkat frekuensi Anda sendiri atau membiarkan utilitas Precision XOC memindai GPU pada semua voltase dan menemukan frekuensi paling stabil untuk setiap titik pada kurva voltase dan frekuensi sepenuhnya secara otomatis. Selama proses pemindaian, Precision XOC secara bertahap meningkatkan frekuensi GPU dan memeriksa operasinya untuk stabilitas atau artefak, membangun frekuensi dan kurva tegangan ideal yang akan unik untuk setiap chip tertentu.

Pemindai ini dapat disesuaikan dengan kebutuhan Anda sendiri dengan mengatur interval waktu untuk menguji setiap nilai tegangan, frekuensi minimum dan maksimum yang akan diuji, dan langkahnya. Jelas bahwa untuk mencapai hasil yang stabil, akan lebih baik untuk menetapkan langkah kecil dan durasi pengujian yang layak. Selama pengujian, pengoperasian driver video dan sistem yang tidak stabil dapat diamati, tetapi jika pemindai tidak membeku, pemindai akan memulihkan pengoperasian dan terus menemukan frekuensi optimal.

Jenis baru memori video GDDR5X dan kompresi yang ditingkatkan

Jadi, kekuatan GPU telah tumbuh secara signifikan, dan bus memori hanya tersisa 256-bit - apakah bandwidth memori akan membatasi kinerja keseluruhan dan apa yang dapat dilakukan untuk mengatasinya? Tampaknya HBM generasi kedua yang menjanjikan masih terlalu mahal untuk diproduksi, sehingga pilihan lain harus dicari. Sejak pengenalan memori GDDR5 pada tahun 2009, para insinyur Nvidia telah menjajaki kemungkinan menggunakan jenis memori baru. Akibatnya, perkembangan telah sampai pada pengenalan standar memori baru GDDR5X - standar paling kompleks dan canggih hingga saat ini, memberikan kecepatan transfer 10 Gbps.

Nvidia memberikan contoh menarik tentang seberapa cepat ini. Hanya berselang 100 picoseconds antara bit yang ditransmisikan - selama waktu ini, seberkas cahaya akan menempuh jarak hanya satu inci (sekitar 2,5 cm). Dan saat menggunakan memori GDDR5X, sirkuit penerima data harus memilih nilai bit yang ditransmisikan dalam waktu kurang dari setengah dari waktu ini sebelum yang berikutnya dikirim - ini hanya agar Anda memahami apa yang telah dicapai oleh teknologi modern.

Untuk mencapai kecepatan ini diperlukan pengembangan arsitektur sistem I/O baru yang memerlukan beberapa tahun pengembangan bersama dengan produsen chip memori. Selain peningkatan kecepatan transfer data, efisiensi energi juga meningkat - chip memori GDDR5X menggunakan voltase lebih rendah 1,35 V dan diproduksi menggunakan teknologi baru, yang memberikan konsumsi daya yang sama pada frekuensi 43% lebih tinggi.

Insinyur perusahaan harus mengerjakan ulang jalur transmisi data antara inti GPU dan chip memori, memberikan perhatian lebih untuk mencegah kehilangan sinyal dan penurunan sinyal sepanjang jalan dari memori ke GPU dan sebaliknya. Jadi, dalam ilustrasi di atas, sinyal yang ditangkap ditampilkan sebagai "mata" simetris besar, yang menunjukkan optimalisasi yang baik dari seluruh rangkaian dan relatif mudahnya menangkap data dari sinyal. Selain itu, perubahan yang dijelaskan di atas tidak hanya mengarah pada kemungkinan penggunaan GDDR5X pada 10 GHz, tetapi juga akan membantu mendapatkan bandwidth memori yang tinggi pada produk mendatang yang menggunakan memori GDDR5 yang lebih dikenal.

Nah, kami mendapat lebih dari 40% peningkatan bandwidth memori dari penggunaan memori baru. Tapi apakah itu tidak cukup? Untuk lebih meningkatkan efisiensi bandwidth memori, Nvidia terus meningkatkan kompresi data tingkat lanjut yang diperkenalkan pada arsitektur sebelumnya. Subsistem memori di GeForce GTX 1080 menggunakan peningkatan dan beberapa teknik kompresi data lossless baru yang dirancang untuk mengurangi kebutuhan bandwidth - sudah merupakan generasi keempat dari kompresi on-chip.

Algoritma untuk kompresi data dalam memori membawa beberapa aspek positif sekaligus. Kompresi mengurangi jumlah data yang ditulis ke memori, hal yang sama berlaku untuk data yang ditransfer dari memori video ke cache tingkat kedua, yang meningkatkan efisiensi penggunaan cache L2, karena ubin terkompresi (blok beberapa piksel framebuffer) memiliki ukuran yang lebih kecil ukuran daripada yang tidak terkompresi. Ini juga mengurangi jumlah data yang dikirim antara titik yang berbeda, seperti modul tekstur TMU dan framebuffer.

Pipa kompresi data di GPU menggunakan beberapa algoritme, yang ditentukan tergantung pada "kompresibilitas" data - algoritme terbaik yang tersedia dipilih untuk mereka. Salah satu yang paling penting adalah algoritma kompresi warna delta. Metode kompresi ini mengkodekan data sebagai perbedaan antara nilai berurutan, bukan data itu sendiri. GPU menghitung perbedaan nilai warna antara piksel dalam satu blok (ubin) dan menyimpan blok sebagai beberapa warna rata-rata untuk seluruh blok ditambah data tentang perbedaan nilai untuk setiap piksel. Untuk data grafik, metode ini biasanya cocok, karena warna di dalam ubin kecil untuk semua piksel seringkali tidak terlalu berbeda.

GPU GP104 di GeForce GTX 1080 mendukung lebih banyak algoritma kompresi daripada chip Maxwell sebelumnya. Dengan demikian, algoritme kompresi 2:1 menjadi lebih efisien, dan selain itu, dua algoritme baru telah muncul: mode kompresi 4:1, cocok untuk kasus di mana perbedaan nilai warna piksel blok sangat kecil, dan mode 8:1, yang menggabungkan kompresi 4:1 konstan dari blok 2x2 piksel dengan kompresi delta 2x antar blok. Ketika kompresi tidak memungkinkan sama sekali, itu tidak digunakan.

Namun, pada kenyataannya, yang terakhir ini sangat jarang terjadi. Ini dapat dilihat dari contoh tangkapan layar dari game Project CARS, yang dikutip Nvidia untuk menggambarkan peningkatan rasio kompresi di Pascal. Dalam ilustrasi, ubin penyangga bingkai yang dapat dikompresi oleh GPU diarsir dalam warna magenta, dan ubin yang tidak dapat dikompresi tanpa kehilangan tetap dengan warna aslinya (atas - Maxwell, bawah - Pascal).

Seperti yang Anda lihat, algoritma kompresi baru di GP104 benar-benar bekerja jauh lebih baik daripada di Maxwell. Meskipun arsitektur lama juga mampu mengompresi sebagian besar ubin di tempat kejadian, banyak rumput dan pohon di sekitar tepinya, serta suku cadang mobil, tidak tunduk pada algoritme kompresi lama. Tetapi dengan masuknya teknik baru dalam Pascal, sejumlah kecil area gambar tetap tidak terkompresi - peningkatan efisiensi terbukti.

Sebagai hasil dari peningkatan kompresi data, GeForce GTX 1080 mampu secara signifikan mengurangi jumlah data yang dikirim per frame. Dalam jumlah, peningkatan kompresi menghemat 20% tambahan bandwidth memori efektif. Selain lebih dari 40% peningkatan bandwidth memori GeForce GTX 1080 dibandingkan dengan GTX 980 dari penggunaan memori GDDR5X, semuanya ini memberikan peningkatan bandwidth memori efektif sekitar 70% dibandingkan model generasi sebelumnya.

Dukungan untuk Async Compute

Sebagian besar game modern menggunakan perhitungan rumit selain grafik. Misalnya, perhitungan saat menghitung perilaku tubuh fisik tidak dapat dilakukan sebelum atau sesudah perhitungan grafis, tetapi secara bersamaan dengan mereka, karena mereka tidak terkait satu sama lain dan tidak bergantung satu sama lain dalam kerangka yang sama. Contoh lain adalah pasca-pemrosesan bingkai yang sudah dirender dan pemrosesan data audio, yang juga dapat dilakukan secara paralel dengan rendering.

Contoh jelas lainnya dari penggunaan fungsionalitas adalah teknik Asynchronous Time Warp yang digunakan dalam sistem VR untuk mengubah bingkai keluaran sesuai dengan gerakan kepala pemain tepat sebelum dikeluarkan, mengganggu rendering yang berikutnya. Pemuatan kapasitas GPU yang tidak sinkron seperti itu memungkinkan peningkatan efisiensi penggunaan unit eksekusinya.

Beban kerja ini membuat dua skenario penggunaan GPU baru. Yang pertama mencakup beban yang tumpang tindih, karena banyak jenis tugas tidak sepenuhnya menggunakan kemampuan GPU, dan beberapa sumber daya tidak digunakan. Dalam kasus seperti itu, Anda cukup menjalankan dua tugas berbeda pada GPU yang sama, memisahkan unit eksekusinya untuk mendapatkan penggunaan yang lebih efisien - misalnya, efek PhysX yang berjalan bersamaan dengan rendering 3D bingkai.

Untuk meningkatkan kinerja skenario ini, arsitektur Pascal memperkenalkan penyeimbangan beban dinamis. Dalam arsitektur Maxwell sebelumnya, beban kerja yang tumpang tindih diimplementasikan sebagai distribusi statis sumber daya GPU antara grafis dan komputasi. Pendekatan ini efektif asalkan keseimbangan antara dua beban kerja kira-kira sesuai dengan pembagian sumber daya dan tugas-tugas berjalan sama dalam waktu. Jika komputasi non-grafis memakan waktu lebih lama daripada komputasi grafis, dan keduanya menunggu penyelesaian pekerjaan umum, maka bagian dari GPU akan menganggur selama sisa waktu, yang akan menyebabkan penurunan kinerja secara keseluruhan dan meniadakan semua manfaat. Penyeimbangan beban dinamis perangkat keras, di sisi lain, memungkinkan Anda untuk menggunakan sumber daya GPU yang dibebaskan segera setelah tersedia - untuk pemahaman, kami akan memberikan ilustrasi.

Ada juga tugas yang kritis terhadap waktu, dan ini adalah skenario kedua untuk komputasi asinkron. Misalnya, eksekusi algoritma distorsi waktu asinkron dalam VR harus selesai sebelum pemindaian atau frame akan dibuang. Dalam kasus seperti itu, GPU harus mendukung interupsi tugas yang sangat cepat dan beralih ke tugas lain untuk mengambil tugas yang kurang kritis dari eksekusi pada GPU, membebaskan sumber dayanya untuk tugas-tugas penting - ini disebut preemption.

Perintah render tunggal dari mesin game dapat berisi ratusan panggilan undian, setiap panggilan undian pada gilirannya berisi ratusan segitiga yang dirender, masing-masing berisi ratusan piksel untuk dihitung dan digambar. Pendekatan GPU tradisional hanya menggunakan interupsi tugas tingkat tinggi, dan saluran grafis harus menunggu semua pekerjaan selesai sebelum beralih tugas, menghasilkan latensi yang sangat tinggi.

Untuk memperbaikinya, arsitektur Pascal pertama kali memperkenalkan kemampuan untuk menginterupsi tugas pada level piksel - Pixel Level Preemption. Unit eksekusi GPU Pascal dapat terus memantau kemajuan tugas rendering, dan ketika interupsi diminta, mereka dapat menghentikan eksekusi, menyimpan konteks untuk penyelesaian nanti dengan beralih ke tugas lain dengan cepat.

Interupsi dan sakelar tingkat utas untuk operasi komputasi bekerja mirip dengan interupsi tingkat piksel untuk komputasi grafis. Beban kerja komputasi terdiri dari beberapa grid, masing-masing berisi beberapa thread. Ketika permintaan interupsi diterima, utas yang berjalan pada multiprosesor menghentikan eksekusinya. Blok lain menyimpan statusnya sendiri untuk melanjutkan dari titik yang sama di masa mendatang, dan GPU beralih ke tugas lain. Seluruh proses pengalihan tugas membutuhkan waktu kurang dari 100 mikrodetik setelah utas yang sedang berjalan keluar.

Untuk beban kerja game, kombinasi interupsi level piksel untuk grafik, dan interupsi level utas untuk tugas komputasi memberi GPU arsitektur Pascal kemampuan untuk beralih antar tugas dengan cepat dengan kehilangan waktu minimal. Dan untuk tugas komputasi di CUDA, juga dimungkinkan untuk menginterupsi dengan perincian minimal - pada tingkat instruksi. Dalam mode ini, semua utas menghentikan eksekusi sekaligus, segera beralih ke tugas lain. Pendekatan ini membutuhkan penyimpanan lebih banyak informasi tentang keadaan semua register dari setiap utas, tetapi dalam beberapa kasus perhitungan non-grafis itu cukup dibenarkan.

Penggunaan interupsi cepat dan pengalihan tugas dalam tugas-tugas grafis dan komputasi ditambahkan ke arsitektur Pascal sehingga tugas-tugas grafis dan non-grafis dapat diinterupsi pada tingkat instruksi individu, daripada seluruh utas, seperti halnya dengan Maxwell dan Kepler . Teknologi ini dapat meningkatkan eksekusi asinkron dari berbagai beban kerja GPU dan meningkatkan responsivitas saat menjalankan banyak tugas secara bersamaan. Pada acara Nvidia, mereka menunjukkan demonstrasi pekerjaan perhitungan asinkron menggunakan contoh perhitungan efek fisik. Jika tanpa perhitungan asinkron kinerjanya berada di level 77-79 FPS, maka dengan masuknya fitur-fitur ini, frame rate meningkat menjadi 93-94 FPS.

Kami telah memberikan contoh salah satu kemungkinan untuk menggunakan fungsi ini dalam game dalam bentuk distorsi waktu asinkron di VR. Ilustrasi tersebut menunjukkan pengoperasian teknologi ini dengan interupsi tradisional (preemption) dan cepat. Dalam kasus pertama, proses distorsi waktu asinkron dicoba dilakukan selambat mungkin, tetapi sebelum mulai memperbarui gambar di layar. Tetapi pekerjaan algoritme harus diberikan pada eksekusi di GPU beberapa milidetik sebelumnya, karena tanpa interupsi yang cepat tidak ada cara untuk mengeksekusi pekerjaan secara akurat pada waktu yang tepat, dan GPU menganggur selama beberapa waktu.

Dalam kasus gangguan yang tepat pada tingkat piksel dan utas (ditunjukkan di sebelah kanan), kemampuan ini memberikan akurasi yang lebih besar dalam menentukan momen gangguan, dan pembengkokan waktu asinkron dapat dimulai lebih lama dengan keyakinan dalam penyelesaian pekerjaan sebelum pembaruan informasi pada layar dimulai. Dan menganggur untuk beberapa waktu dalam kasus pertama, GPU dapat dimuat dengan beberapa pekerjaan grafis tambahan.

Teknologi Multi-Proyeksi Simultan

GPU GP104 baru menambahkan dukungan untuk teknologi Simultaneous Multi-Projection (SMP) baru yang memungkinkan GPU untuk merender data lebih efisien pada sistem tampilan modern. SMP memungkinkan chip video untuk secara bersamaan menampilkan data dalam beberapa proyeksi, yang memerlukan pengenalan blok perangkat keras baru di GPU sebagai bagian dari mesin PolyMorph di ujung pipa geometris sebelum blok rasterisasi. Blok ini bertanggung jawab untuk bekerja dengan beberapa proyeksi untuk aliran geometri tunggal.

Mesin multi-proyeksi memproses data geometris secara bersamaan untuk 16 proyeksi pra-konfigurasi yang menggabungkan titik proyeksi (kamera), proyeksi ini dapat diputar atau dimiringkan secara independen. Karena setiap primitif geometri dapat muncul secara bersamaan dalam beberapa proyeksi, mesin SMP menyediakan fungsionalitas ini, memungkinkan aplikasi untuk menginstruksikan chip video untuk mereplikasi geometri hingga 32 kali (16 proyeksi di dua pusat proyeksi) tanpa pemrosesan tambahan.

Seluruh proses pemrosesan dipercepat perangkat keras, dan karena multiproyeksi bekerja setelah mesin geometri, tidak perlu mengulangi semua tahapan pemrosesan geometri beberapa kali. Sumber daya yang disimpan penting ketika kecepatan rendering dibatasi oleh kinerja pemrosesan geometri, seperti tessellation, ketika pekerjaan geometris yang sama dilakukan beberapa kali untuk setiap proyeksi. Dengan demikian, dalam kasus puncak, multi-proyeksi dapat mengurangi kebutuhan pemrosesan geometri hingga 32 kali.

Tapi mengapa semua ini perlu? Ada beberapa contoh bagus di mana teknologi multi-proyeksi dapat berguna. Misalnya, sistem multi-monitor dari tiga layar dipasang pada sudut satu sama lain cukup dekat dengan pengguna (konfigurasi keliling). Dalam situasi umum, pemandangan ditampilkan dalam satu proyeksi, yang menyebabkan distorsi geometris dan rendering geometri yang salah. Cara yang benar adalah tiga proyeksi berbeda untuk masing-masing monitor, sesuai dengan sudut di mana mereka berada.

Dengan kartu video pada chip dengan arsitektur Pascal, ini dapat dilakukan dalam satu lintasan geometri, dengan menetapkan tiga proyeksi berbeda, masing-masing untuk monitor berbeda. Dan pengguna, dengan demikian, akan dapat mengubah sudut di mana monitor terletak satu sama lain tidak hanya secara fisik, tetapi juga secara virtual - dengan memutar proyeksi untuk monitor samping untuk mendapatkan perspektif yang benar dalam adegan 3D dengan sudut pandang yang lebih lebar (FOV). Benar, ada batasan di sini - untuk dukungan seperti itu, aplikasi harus dapat membuat adegan dengan FOV lebar dan menggunakan panggilan API SMP khusus untuk mengaturnya. Artinya, Anda tidak dapat melakukan ini di setiap pertandingan, Anda memerlukan dukungan khusus.

Bagaimanapun, hari-hari proyeksi tunggal pada satu monitor datar sudah berakhir, sekarang ada banyak konfigurasi multi-monitor dan tampilan melengkung yang juga dapat menggunakan teknologi ini. Belum lagi sistem virtual reality yang menggunakan lensa khusus antara layar dan mata pengguna, yang membutuhkan teknik baru untuk memproyeksikan gambar 3D menjadi gambar 2D. Banyak dari teknologi dan teknik ini masih dalam pengembangan awal, yang utama adalah bahwa GPU lama tidak dapat secara efektif menggunakan lebih dari satu proyeksi planar. Mereka membutuhkan beberapa lintasan rendering, beberapa pemrosesan geometri yang sama, dan seterusnya.

Chip Maxwell memiliki dukungan terbatas untuk Multi-Resolution untuk membantu meningkatkan efisiensi, tetapi SMP Pascal dapat melakukan lebih banyak lagi. Maxwell dapat memutar proyeksi sebesar 90 derajat untuk pemetaan kubus atau resolusi proyeksi yang berbeda, tetapi ini hanya berguna dalam berbagai aplikasi terbatas seperti VXGI.

Kemungkinan lain untuk menggunakan SMP termasuk rendering pada resolusi yang berbeda dan rendering stereo single-pass. Misalnya, rendering pada resolusi yang berbeda (Multi-Res Shading) dapat digunakan dalam game untuk mengoptimalkan kinerja. Saat diterapkan, resolusi yang lebih tinggi digunakan di bagian tengah bingkai, dan di bagian tepinya dikurangi untuk mendapatkan kecepatan rendering yang lebih cepat.

Rendering stereo single-pass digunakan dalam VR, telah ditambahkan ke paket VRWorks dan menggunakan fitur multi-proyeksi untuk mengurangi jumlah pekerjaan geometris yang diperlukan dalam rendering VR. Jika fitur ini digunakan, GPU GeForce GTX 1080 memproses geometri pemandangan hanya sekali, menghasilkan dua proyeksi untuk setiap mata sekaligus, yang mengurangi beban geometrik pada GPU hingga setengahnya, dan juga mengurangi kerugian dari driver dan OS.

Teknik yang lebih canggih untuk meningkatkan efisiensi rendering VR adalah Lens Matched Shading, yang menggunakan beberapa proyeksi untuk mensimulasikan distorsi geometrik yang diperlukan dalam rendering VR. Metode ini menggunakan multi-proyeksi untuk merender adegan 3D ke permukaan yang mendekati permukaan yang disesuaikan lensa saat dirender untuk output headset VR, menghindari banyak piksel tambahan di periferal yang akan dibuang. Cara termudah untuk memahami esensi metode ini adalah dengan ilustrasi - empat proyeksi yang sedikit diperluas digunakan di depan setiap mata (dalam Pascal, Anda dapat menggunakan 16 proyeksi untuk setiap mata - untuk mensimulasikan lensa lengkung dengan lebih akurat) daripada satu:

Pendekatan ini dapat menghasilkan penghematan kinerja yang signifikan. Misalnya, gambar khas Oculus Rift per mata adalah 1,1 megapiksel. Namun karena perbedaan proyeksi, untuk merendernya, gambar aslinya adalah 2,1 megapiksel - 86% lebih dari yang diperlukan! Penggunaan multi-proyeksi, yang diimplementasikan dalam arsitektur Pascal, memungkinkan pengurangan resolusi gambar yang dirender menjadi 1,4 megapiksel, memperoleh penghematan 1,5 kali lipat dalam kecepatan pemrosesan piksel, dan juga menghemat bandwidth memori.

Dan bersama dengan penghematan dua kali lipat dalam kecepatan pemrosesan geometri karena rendering stereo single-pass, prosesor grafis GeForce GTX 1080 mampu memberikan peningkatan yang signifikan dalam kinerja rendering VR, yang sangat menuntut kecepatan pemrosesan geometri, dan lebih dari itu. pemrosesan piksel.

Peningkatan output video dan blok pemrosesan

Selain kinerja dan fungsionalitas baru yang terkait dengan rendering 3D, perlu untuk mempertahankan tingkat output gambar yang baik, serta decoding dan encoding video. Dan prosesor grafis arsitektur Pascal pertama tidak mengecewakan - ia mendukung semua standar modern dalam pengertian ini, termasuk decoding perangkat keras dari format HEVC, yang diperlukan untuk melihat video 4K di PC. Selain itu, pemilik kartu grafis GeForce GTX 1080 di masa mendatang akan segera dapat menikmati streaming video 4K dari Netflix dan penyedia lain di sistem mereka.

Dalam hal output tampilan, GeForce GTX 1080 memiliki dukungan untuk HDMI 2.0b dengan HDCP 2.2 serta DisplayPort. Sejauh ini, versi DP 1.2 disertifikasi, tetapi GPU siap untuk sertifikasi untuk versi standar yang lebih baru: DP 1.3 Ready dan DP 1.4 Ready. Yang terakhir memungkinkan layar 4K ditampilkan pada 120Hz, dan 5K dan 8K ditampilkan pada 60Hz menggunakan sepasang kabel DisplayPort 1.3. Jika untuk GTX 980 resolusi maksimum yang didukung adalah 5120x3200 pada 60Hz, maka untuk model GTX 1080 baru telah berkembang menjadi 7680x4320 pada 60Hz yang sama. Referensi GeForce GTX 1080 memiliki tiga output DisplayPort, satu HDMI 2.0b dan satu DVI Dual-Link digital.

Model kartu video Nvidia yang baru juga menerima blok yang ditingkatkan untuk decoding dan encoding data video. Dengan demikian, chip GP104 sesuai dengan standar tinggi PlayReady 3.0 (SL3000) untuk pemutaran video streaming, yang memungkinkan Anda memastikan bahwa memutar konten berkualitas tinggi dari penyedia terkenal seperti Netflix akan menjadi kualitas tertinggi dan hemat energi. . Detail tentang dukungan untuk berbagai format video selama penyandian dan penguraian kode diberikan dalam tabel, produk baru ini jelas lebih baik daripada solusi sebelumnya:

Tetapi hal baru yang lebih menarik adalah dukungan untuk apa yang disebut tampilan High Dynamic Range (HDR), yang akan menyebar luas di pasar. TV dijual pada awal 2016 (dengan empat juta TV HDR diharapkan akan terjual hanya dalam satu tahun), dan monitor tahun depan. HDR adalah terobosan terbesar dalam teknologi tampilan selama bertahun-tahun, menghadirkan nada warna dua kali lipat (75% spektrum yang terlihat vs. 33% untuk RGB), tampilan yang lebih cerah (1000 nits) dengan rasio kontras yang lebih tinggi (10000:1) dan warna yang kaya.

Munculnya kemampuan untuk memutar konten dengan perbedaan kecerahan yang lebih besar dan warna yang lebih kaya dan lebih jenuh akan membawa gambar di layar lebih dekat dengan kenyataan, warna hitam akan menjadi lebih dalam, cahaya terang akan menyilaukan, seperti di dunia nyata. . Dengan demikian, pengguna akan melihat lebih detail di area gambar yang terang dan gelap dibandingkan dengan monitor dan TV standar.

Untuk mendukung tampilan HDR, GeForce GTX 1080 memiliki semua yang Anda butuhkan - keluaran warna 12-bit, dukungan untuk standar BT.2020 dan SMPTE 2084, dan resolusi HDMI 2.0b 10/12-bit 4K HDR. Maxwell. Selain itu, Pascal telah menambahkan dukungan untuk mendekode format HEVC dalam resolusi 4K pada 60 Hz dan warna 10 atau 12-bit, yang digunakan untuk video HDR, serta mengkodekan format yang sama dengan parameter yang sama, tetapi hanya dalam 10 -bit untuk perekaman atau streaming video HDR. Selain itu, hal baru ini siap untuk standarisasi DisplayPort 1.4 untuk transmisi data HDR melalui konektor ini.

Omong-omong, encoding video HDR mungkin diperlukan di masa mendatang untuk mentransfer data tersebut dari PC rumahan ke konsol game SHIELD yang dapat memainkan HEVC 10-bit. Artinya, pengguna akan dapat menyiarkan game dari PC dalam format HDR. Tunggu, di mana saya bisa mendapatkan game dengan dukungan seperti itu? Nvidia terus bekerja dengan pengembang game untuk menerapkan dukungan ini, memberi mereka semua yang mereka butuhkan (dukungan driver, contoh kode, dll.) untuk merender gambar HDR dengan benar yang kompatibel dengan tampilan yang ada.

Pada saat rilis kartu video, GeForce GTX 1080, game seperti Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle dan Shadow Warrior 2 memiliki dukungan untuk output HDR. Tapi daftar ini adalah diharapkan dapat diisi ulang dalam waktu dekat.

Perubahan pada rendering SLI multi-chip

Ada juga beberapa perubahan yang terkait dengan teknologi rendering multi-chip SLI yang dipatenkan, meskipun tidak ada yang mengharapkan ini. SLI digunakan oleh para penggemar game PC untuk meningkatkan kinerja baik secara ekstrim dengan menjalankan kartu grafis chip tunggal yang paling kuat secara bersamaan, atau untuk mendapatkan frame rate yang sangat tinggi dengan membatasi diri pada beberapa solusi kelas menengah yang terkadang lebih murah daripada satu ujung atas (keputusan kontroversial, tetapi mereka melakukannya). Dengan monitor 4K, pemain hampir tidak memiliki pilihan lain selain memasang beberapa kartu video, karena model papan atas pun sering kali tidak dapat memberikan permainan yang nyaman pada pengaturan maksimum dalam kondisi seperti itu.

Salah satu komponen penting dari Nvidia SLI adalah jembatan yang menghubungkan kartu video ke dalam subsistem video umum dan berfungsi untuk mengatur saluran digital untuk transfer data di antara mereka. Kartu grafis GeForce secara tradisional menampilkan konektor SLI ganda yang digunakan untuk menghubungkan antara dua atau empat kartu grafis dalam konfigurasi SLI 3 Arah dan 4 Arah. Masing-masing kartu video harus terhubung ke masing-masing, karena semua GPU mengirim bingkai yang mereka render ke GPU utama, itulah sebabnya dua antarmuka diperlukan di setiap papan.

Dimulai dengan GeForce GTX 1080, semua kartu grafis Nvidia berdasarkan arsitektur Pascal memiliki dua antarmuka SLI yang dihubungkan bersama untuk meningkatkan kinerja transfer data antar kartu grafis, dan mode SLI saluran ganda baru ini meningkatkan kinerja dan kenyamanan saat menampilkan informasi visual di tampilan resolusi sangat tinggi atau sistem multi-monitor.

Untuk moda ini juga dibutuhkan jembatan baru yang disebut SLI HB. Mereka menggabungkan sepasang kartu video GeForce GTX 1080 melalui dua saluran SLI sekaligus, meskipun kartu video baru juga kompatibel dengan jembatan lama. Untuk resolusi 1920x1080 dan 2560x1440 piksel pada kecepatan refresh 60 Hz, jembatan standar dapat digunakan, tetapi dalam mode yang lebih menuntut (4K, 5K dan sistem multi-monitor), hanya jembatan baru yang akan memberikan hasil yang lebih baik dalam hal perubahan frame halus, meskipun yang lama akan bekerja, tapi agak lebih buruk.

Selain itu, saat menggunakan jembatan SLI HB, antarmuka data GeForce GTX 1080 berjalan pada 650 MHz, dibandingkan dengan 400 MHz untuk jembatan SLI konvensional pada GPU lama. Selain itu, untuk beberapa jembatan lama yang tangguh, kecepatan transfer data yang lebih tinggi juga tersedia dengan chip video arsitektur Pascal. Dengan peningkatan kecepatan transfer data antara GPU melalui antarmuka SLI dua kali lipat dengan frekuensi operasi yang meningkat, tampilan bingkai yang lebih halus pada layar juga disediakan, dibandingkan dengan solusi sebelumnya:

Perlu juga dicatat bahwa dukungan untuk rendering multi-chip di DirectX 12 agak berbeda dari apa yang biasa dilakukan sebelumnya. Dalam versi terbaru dari API grafis, Microsoft telah membuat banyak perubahan terkait dengan pengoperasian sistem video tersebut. Ada dua opsi multi-GPU yang tersedia untuk pengembang perangkat lunak di DX12: mode Multi Display Adapter (MDA) dan Linked Display Adapter (LDA).

Selain itu, mode LDA memiliki dua bentuk: LDA implisit (yang digunakan Nvidia untuk SLI) dan LDA Eksplisit (ketika pengembang game mengambil tugas mengelola rendering multi-chip. Mode MDA dan LDA eksplisit baru saja diimplementasikan di DirectX 12 di agar pengembang game memiliki lebih banyak kebebasan dan peluang saat menggunakan sistem video multi-chip. Perbedaan antara mode terlihat jelas pada tabel berikut:

Dalam mode LDA, memori masing-masing GPU dapat dihubungkan ke memori yang lain dan ditampilkan sebagai volume total yang besar, tentu saja, dengan segala keterbatasan kinerja saat data diambil dari memori "asing". Dalam mode MDA, setiap memori GPU bekerja secara terpisah, dan GPU yang berbeda tidak dapat langsung mengakses data dari memori GPU lain. Mode LDA dirancang untuk sistem multi-chip dengan kinerja serupa, sedangkan mode MDA tidak terlalu membatasi dan dapat bekerja sama dengan GPU terpisah dan terintegrasi atau solusi diskrit dengan chip dari produsen berbeda. Namun mode ini juga membutuhkan perhatian dan kerja lebih dari developer saat memprogram kolaborasi agar GPU bisa saling berkomunikasi.

Secara default, sistem SLI berbasis GeForce GTX 1080 hanya mendukung dua GPU, dan konfigurasi tiga dan empat GPU secara resmi tidak digunakan lagi, karena game modern menjadi semakin sulit untuk mencapai peningkatan kinerja dengan menambahkan GPU ketiga dan keempat. Misalnya, banyak game mengandalkan kemampuan prosesor pusat sistem saat mengoperasikan sistem video multi-chip, dan game baru semakin banyak menggunakan teknik temporal (temporal) yang menggunakan data dari frame sebelumnya, di mana pengoperasian beberapa GPU sekaligus secara efisien tidak mungkin.

Namun, pengoperasian sistem di sistem multi-chip (non-SLI) lainnya tetap dimungkinkan, seperti mode MDA atau LDA Explicit di DirectX 12 atau sistem SLI dua chip dengan GPU ketiga khusus untuk efek fisik PhysX. Tapi bagaimana dengan catatan di benchmark, apakah Nvidia benar-benar meninggalkannya sama sekali? Tidak, tentu saja, tetapi karena sistem seperti itu diminati di dunia oleh hampir beberapa pengguna, Enthusiast Key khusus diciptakan untuk penggemar ultra tersebut, yang dapat diunduh dari situs web Nvidia dan membuka kunci fitur ini. Untuk melakukan ini, pertama-tama Anda harus mendapatkan ID GPU unik dengan menjalankan aplikasi khusus, kemudian meminta Enthusiast Key di situs web dan, setelah mengunduhnya, instal kunci ke dalam sistem, sehingga membuka kunci 3-Way dan 4-Way konfigurasi SLI.

Teknologi Sinkronisasi Cepat

Beberapa perubahan telah terjadi dalam teknologi sinkronisasi saat menampilkan informasi di layar. Ke depan, tidak ada yang baru di G-Sync, juga teknologi Adaptive Sync tidak didukung. Namun Nvidia memutuskan untuk meningkatkan kelancaran output dan sinkronisasi untuk game yang menunjukkan performa sangat tinggi saat kecepatan bingkai secara signifikan lebih tinggi daripada kecepatan refresh monitor. Ini sangat penting untuk game yang membutuhkan latensi minimal dan respons cepat, dan yang merupakan pertarungan dan kompetisi multipemain.

Sinkronisasi Cepat adalah alternatif baru untuk sinkronisasi vertikal yang tidak memiliki artefak visual dalam bentuk robekan gambar pada gambar dan tidak terikat pada kecepatan refresh tetap, yang meningkatkan penundaan. Apa masalah dengan sinkronisasi vertikal di game seperti Counter-Strike: Global Offensive? Game dengan GPU modern yang kuat ini berjalan pada beberapa ratus frame per detik, dan pemain memiliki pilihan apakah akan mengaktifkan v-sync atau tidak.

Dalam game multipemain, pengguna paling sering mengejar penundaan minimal dan mematikan VSync, mendapatkan robekan gambar yang terlihat jelas, yang sangat tidak menyenangkan bahkan pada kecepatan bingkai tinggi. Jika Anda mengaktifkan v-sync, maka pemain akan mengalami peningkatan penundaan yang signifikan antara tindakannya dan gambar di layar, ketika saluran grafik melambat ke kecepatan refresh monitor.

Beginilah cara kerja pipa tradisional. Namun Nvidia memutuskan untuk memisahkan proses rendering dan menampilkan gambar di layar menggunakan teknologi Fast Sync. Hal ini memungkinkan bagian dari GPU yang merender frame dengan kecepatan penuh untuk terus beroperasi pada efisiensi maksimum dengan menyimpan frame tersebut di Last Rendered Buffer khusus sementara.

Metode ini memungkinkan Anda untuk mengubah metode tampilan dan mengambil yang terbaik dari mode VSync On dan VSync Off, mendapatkan latensi rendah, tetapi tanpa artefak gambar. Dengan Sinkronisasi Cepat, tidak ada kontrol aliran bingkai, mesin permainan berjalan dalam mode sinkronisasi-off dan tidak disuruh menunggu untuk menggambar yang lain, sehingga latensi hampir serendah mode VSync Off. Tetapi karena Sinkronisasi Cepat secara independen memilih buffer untuk ditampilkan di layar dan menampilkan seluruh bingkai, tidak ada jeda gambar juga.

Sinkronisasi Cepat menggunakan tiga buffer berbeda, dua buffer pertama bekerja mirip dengan buffering ganda dalam pipeline klasik. Buffer utama (Front Buffer - FB) adalah buffer, informasi yang ditampilkan di layar, bingkai yang dirender sepenuhnya. Back buffer (Back Buffer - BB) adalah buffer yang menerima informasi saat melakukan rendering.

Saat menggunakan sinkronisasi vertikal dalam kondisi kecepatan bingkai tinggi, game menunggu hingga interval penyegaran tercapai untuk menukar buffer utama dengan buffer sekunder untuk menampilkan gambar satu frame di layar. Ini memperlambat segalanya, dan menambahkan lebih banyak buffer seperti buffering rangkap tiga tradisional hanya akan menambah penundaan.

Dengan Sinkronisasi Cepat, Last Rendered Buffer (LRB) ketiga ditambahkan, yang digunakan untuk menyimpan semua frame yang baru saja dirender di buffer sekunder. Nama buffer berbicara untuk dirinya sendiri, itu berisi salinan dari frame terakhir yang dirender sepenuhnya. Dan ketika saatnya tiba untuk memperbarui buffer utama, buffer LRB ini disalin ke primer secara keseluruhan, dan bukan sebagian, seperti dari sekunder dengan sinkronisasi vertikal yang dinonaktifkan. Karena menyalin informasi dari buffer tidak efisien, mereka hanya ditukar (atau diganti namanya, karena akan lebih mudah untuk dipahami), dan logika baru dari swapping buffer, yang diperkenalkan di GP104, mengatur proses ini.

Dalam praktiknya, penyertaan metode sinkronisasi baru Fast Sync masih memberikan penundaan yang sedikit lebih besar dibandingkan dengan sinkronisasi vertikal yang sepenuhnya dinonaktifkan - rata-rata 8 ms lebih banyak, tetapi ini menampilkan bingkai pada monitor secara keseluruhan, tanpa artefak yang tidak menyenangkan di layar yang merobek gambar. Metode baru ini dapat diaktifkan dari pengaturan grafis panel kontrol Nvidia di bagian kontrol sinkronisasi vertikal. Namun, nilai default tetap kontrol aplikasi, dan Anda tidak perlu mengaktifkan Sinkronisasi Cepat di semua aplikasi 3D, lebih baik memilih metode ini khusus untuk game dengan FPS tinggi.

Teknologi realitas virtual Nvidia VRWorks

Kami telah menyentuh topik hangat VR lebih dari satu kali dalam artikel ini, tetapi sebagian besar tentang meningkatkan frekuensi gambar dan memastikan latensi rendah, yang sangat penting untuk VR. Semua ini sangat penting dan memang ada kemajuan, tetapi sejauh ini game VR tidak terlihat mengesankan seperti game 3D modern "biasa" terbaik. Hal ini terjadi bukan hanya karena pengembang game terkemuka belum secara khusus terlibat dalam aplikasi VR, tetapi juga karena VR lebih menuntut kecepatan bingkai, yang mencegah penggunaan banyak teknik biasa dalam game semacam itu karena tuntutan yang tinggi.

Untuk mengurangi perbedaan kualitas antara game VR dan game biasa, Nvidia memutuskan untuk merilis seluruh paket teknologi VRWorks terkait, yang mencakup sejumlah besar API, perpustakaan, mesin, dan teknologi yang dapat meningkatkan kualitas dan kinerja secara signifikan. VR- aplikasi. Bagaimana hubungannya dengan pengumuman solusi game pertama di Pascal? Ini sangat sederhana - beberapa teknologi telah diperkenalkan ke dalamnya yang membantu meningkatkan produktivitas dan meningkatkan kualitas, dan kami telah menulis tentangnya.

Dan meskipun ini tidak hanya menyangkut grafik, pertama-tama kita akan membicarakannya sedikit. Rangkaian teknologi VRWorks Graphics mencakup teknologi yang disebutkan sebelumnya, seperti Lens Matched Shading, menggunakan fitur multi-proyeksi yang muncul di GeForce GTX 1080. Produk baru ini memungkinkan Anda untuk mendapatkan peningkatan kinerja 1,5-2 kali dibandingkan dengan solusi yang tidak memiliki dukungan tersebut. Kami juga menyebutkan teknologi lain, seperti MultiRes Shading, yang dirancang untuk dirender pada resolusi berbeda di tengah bingkai dan di pinggirannya.

Namun yang jauh lebih tidak terduga adalah pengumuman teknologi VRWorks Audio, yang dirancang untuk penghitungan data suara berkualitas tinggi dalam adegan 3D, yang sangat penting dalam sistem realitas virtual. Di mesin konvensional, posisi sumber suara di lingkungan virtual dihitung dengan cukup benar, jika musuh menembak dari kanan, maka suara lebih keras dari sisi sistem audio ini, dan perhitungan seperti itu tidak terlalu menuntut daya komputasi. .

Namun pada kenyataannya, suara tidak hanya mengarah ke pemain, tetapi ke segala arah dan memantul dari berbagai material, mirip dengan bagaimana sinar cahaya memantul. Dan pada kenyataannya, kita mendengar pantulan ini, meskipun tidak sejelas gelombang suara langsung. Refleksi suara tidak langsung ini biasanya disimulasikan oleh efek reverb khusus, tetapi ini adalah pendekatan yang sangat primitif untuk tugas tersebut.

VRWorks Audio menggunakan rendering gelombang suara yang mirip dengan ray tracing dalam rendering, di mana jalur sinar cahaya dilacak ke beberapa refleksi dari objek dalam adegan virtual. VRWorks Audio juga mensimulasikan propagasi gelombang suara di lingkungan ketika gelombang langsung dan gelombang pantul dilacak, tergantung pada sudut datang dan sifat bahan reflektif. Dalam pekerjaannya, VRWorks Audio menggunakan mesin ray tracing Nvidia OptiX berperforma tinggi yang dikenal untuk tugas grafis. OptiX dapat digunakan untuk berbagai tugas, seperti perhitungan pencahayaan tidak langsung dan pemetaan cahaya, dan sekarang juga untuk penelusuran gelombang suara di VRWorks Audio.

Nvidia telah membangun perhitungan gelombang suara yang akurat ke dalam demo VR Funhouse-nya, yang menggunakan beberapa ribu sinar dan menghitung hingga 12 pantulan dari objek. Dan untuk mempelajari keunggulan teknologi menggunakan contoh yang jelas, kami sarankan Anda menonton video tentang pengoperasian teknologi dalam bahasa Rusia:

Penting bahwa pendekatan Nvidia berbeda dari mesin suara tradisional, termasuk metode akselerasi perangkat keras dari pesaing utama menggunakan blok khusus di GPU. Semua metode ini hanya memberikan pemosisian yang akurat dari sumber suara, tetapi tidak menghitung pantulan gelombang suara dari objek dalam adegan 3D, meskipun metode ini dapat mensimulasikan ini menggunakan efek gema. Namun, penggunaan teknologi ray tracing bisa jauh lebih realistis, karena hanya pendekatan seperti itu yang akan memberikan tiruan akurat dari berbagai suara, dengan mempertimbangkan ukuran, bentuk, dan bahan objek dalam pemandangan. Sulit untuk mengatakan apakah akurasi komputasi seperti itu diperlukan untuk pemain biasa, tetapi kami dapat mengatakan dengan pasti: dalam VR, ini dapat menambah realisme yang masih kurang dalam game konvensional kepada pengguna.

Nah, tetap bagi kami untuk hanya memberi tahu tentang teknologi VR SLI, yang berfungsi di OpenGL dan DirectX. Prinsipnya sangat sederhana: sistem video dua GPU dalam aplikasi VR akan bekerja sedemikian rupa sehingga setiap mata dialokasikan GPU terpisah, berbeda dengan rendering AFR yang akrab dengan konfigurasi SLI. Ini sangat meningkatkan kinerja keseluruhan, yang sangat penting untuk sistem realitas virtual. Secara teoritis, lebih banyak GPU dapat digunakan, tetapi jumlahnya harus genap.

Pendekatan ini diperlukan karena AFR tidak cocok untuk VR, karena dengan bantuannya GPU pertama akan menggambar bingkai genap untuk kedua mata, dan yang kedua akan membuat yang ganjil, yang tidak mengurangi penundaan yang penting untuk virtual. sistem realitas. Meskipun frame rate akan cukup tinggi. Jadi dengan bantuan VR SLI, pengerjaan setiap frame dibagi menjadi dua GPU - satu bekerja pada bagian frame untuk mata kiri, yang kedua untuk kanan, dan kemudian bagian frame ini digabungkan menjadi satu kesatuan.

Memisahkan pekerjaan seperti ini di antara sepasang GPU menghasilkan peningkatan kinerja 2x, menghasilkan frekuensi gambar yang lebih tinggi dan latensi yang lebih rendah dibandingkan dengan sistem yang didasarkan pada kartu grafis tunggal. Benar, penggunaan VR SLI memerlukan dukungan khusus dari aplikasi untuk menggunakan metode penskalaan ini. Tapi teknologi VR SLI sudah dibangun ke dalam aplikasi demo VR seperti Valve's The Lab dan ILMxLAB's Trials on Tatooine, dan ini baru permulaan - Nvidia menjanjikan aplikasi lain akan segera hadir, serta penerapan teknologi di mesin game Unreal Engine 4 , Persatuan dan Maks Bermain.

Platform Tangkapan Layar Game Ansel

Salah satu pengumuman paling menarik yang terkait dengan perangkat lunak ini adalah rilis teknologi untuk menangkap tangkapan layar berkualitas tinggi dalam aplikasi game, yang dinamai menurut salah satu fotografer terkenal - Ansel. Game telah lama tidak hanya menjadi permainan, tetapi juga tempat untuk menggunakan tangan yang menyenangkan untuk berbagai kepribadian kreatif. Seseorang mengubah skrip untuk game, seseorang merilis set tekstur berkualitas tinggi untuk game, dan seseorang membuat tangkapan layar yang indah.

Nvidia memutuskan untuk membantu yang terakhir dengan memperkenalkan platform baru untuk membuat (yaitu, membuat, karena ini bukan proses yang mudah) bidikan berkualitas tinggi dari game. Mereka percaya bahwa Ansel dapat membantu menciptakan jenis seni kontemporer baru. Lagi pula, sudah ada beberapa artis yang menghabiskan sebagian besar hidup mereka di PC, membuat tangkapan layar yang indah dari game, dan mereka masih tidak memiliki alat yang nyaman untuk ini.

Ansel memungkinkan Anda untuk tidak hanya menangkap gambar dalam game, tetapi juga mengubahnya sesuai kebutuhan pembuatnya. Dengan menggunakan teknologi ini, Anda dapat menggerakkan kamera di sekitar pemandangan, memutar dan memiringkannya ke segala arah untuk mendapatkan komposisi bingkai yang diinginkan. Misalnya, dalam permainan seperti penembak orang pertama, Anda hanya dapat memindahkan pemain, Anda tidak dapat benar-benar mengubah apa pun, sehingga semua tangkapan layar cukup monoton. Dengan kamera gratis di Ansel, Anda dapat melampaui kamera game dengan memilih sudut yang Anda butuhkan untuk gambar yang bagus, atau bahkan menangkap gambar stereo 360 derajat penuh dari titik yang diperlukan, dan dalam resolusi tinggi untuk dilihat nanti di helm VR.

Ansel bekerja cukup sederhana - dengan bantuan perpustakaan khusus dari Nvidia, platform ini disematkan dalam kode permainan. Untuk melakukan ini, pengembangnya hanya perlu menambahkan sepotong kecil kode ke proyeknya untuk memungkinkan driver video Nvidia mencegat data buffer dan shader. Sangat sedikit pekerjaan yang harus dilakukan, membawa Ansel ke dalam permainan membutuhkan waktu kurang dari satu hari untuk diterapkan. Jadi, penyertaan fitur ini di The Witness membutuhkan sekitar 40 baris kode, dan di The Witcher 3 - sekitar 150 baris kode.

Ansel akan datang dengan paket pengembangan terbuka - SDK. Hal utama adalah bahwa pengguna mendapatkan seperangkat pengaturan standar yang memungkinkannya untuk mengubah posisi dan sudut kamera, menambahkan efek, dll. Platform Ansel bekerja seperti ini: menjeda permainan, menyalakan kamera gratis dan memungkinkan Anda mengubah bingkai ke tampilan yang diinginkan dengan merekam hasilnya dalam bentuk tangkapan layar biasa, gambar 360 derajat, pasangan stereo, atau sekadar panorama resolusi tinggi.

Satu-satunya peringatan adalah bahwa tidak semua game akan menerima dukungan untuk semua fitur platform tangkapan layar game Ansel. Beberapa pengembang game, karena satu dan lain alasan, tidak ingin memasukkan kamera yang sepenuhnya gratis ke dalam game mereka - misalnya, karena kemungkinan penipu menggunakan fungsi ini. Atau mereka ingin membatasi perubahan sudut pandang untuk alasan yang sama - sehingga tidak ada yang mendapat keuntungan yang tidak adil. Nah, atau agar pengguna tidak melihat sprite yang menyedihkan di latar belakang. Semua ini adalah keinginan yang cukup normal dari pembuat game.

Salah satu fitur paling menarik dari Ansel adalah pembuatan tangkapan layar dengan resolusi yang sangat besar. Tidak masalah jika game mendukung resolusi hingga 4K, misalnya, dan monitor pengguna adalah Full HD. Dengan menggunakan platform tangkapan layar, Anda dapat menangkap gambar dengan kualitas yang jauh lebih tinggi, yang dibatasi oleh ukuran dan kinerja drive. Platform ini menangkap tangkapan layar hingga 4,5 gigapiksel dengan mudah, digabungkan menjadi 3600 buah!

Jelas bahwa dalam gambar seperti itu Anda dapat melihat semua detail, hingga teks di koran yang tergeletak di kejauhan, jika tingkat detail seperti itu disediakan pada prinsipnya dalam permainan - Ansel juga dapat mengontrol tingkat detail, pengaturan level maksimal untuk mendapatkan kualitas gambar terbaik. Tetapi Anda masih dapat mengaktifkan supersampling. Semua ini memungkinkan Anda untuk membuat gambar dari game yang dapat Anda cetak dengan aman di spanduk besar dan tenang tentang kualitasnya.

Menariknya, kode akselerasi perangkat keras khusus berdasarkan CUDA digunakan untuk menjahit gambar besar. Lagi pula, tidak ada kartu video yang dapat merender gambar multi-gigapiksel secara keseluruhan, tetapi ia dapat melakukannya dalam potongan-potongan, yang hanya perlu Anda gabungkan nanti, dengan mempertimbangkan kemungkinan perbedaan dalam pencahayaan, warna, dan sebagainya.

Setelah menggabungkan panorama seperti itu, pemrosesan pasca khusus digunakan untuk seluruh bingkai, juga dipercepat pada GPU. Dan untuk menangkap gambar dalam rentang dinamis yang lebih tinggi, Anda dapat menggunakan format gambar khusus - EXR, standar terbuka dari Industrial Light and Magic, nilai warna di setiap saluran yang direkam dalam format floating point 16-bit (FP16).

Format ini memungkinkan Anda untuk mengubah kecerahan dan rentang dinamis gambar dalam pasca-pemrosesan, membawanya ke yang diinginkan untuk setiap tampilan tertentu dengan cara yang sama seperti yang dilakukan dengan format RAW dari kamera. Dan untuk penggunaan selanjutnya dari filter pasca-pemrosesan dalam program pemrosesan gambar, format ini sangat berguna, karena berisi lebih banyak data daripada format gambar biasa.

Tetapi platform Ansel sendiri mengandung banyak filter pasca-pemrosesan, yang sangat penting karena memiliki akses tidak hanya ke gambar akhir, tetapi juga ke semua buffer yang digunakan oleh game saat rendering, yang dapat digunakan untuk efek yang sangat menarik. , seperti kedalaman bidang. Untuk melakukan ini, Ansel memiliki API pasca-pemrosesan khusus, dan efek apa pun dapat dimasukkan ke dalam game dengan dukungan untuk platform ini.

Post-filter Ansel meliputi: kurva warna, ruang warna, transformasi, desaturasi, kecerahan/kontras, butiran film, mekar, suar lensa, silau anamorfik, distorsi, heathaze, mata ikan, aberasi warna, pemetaan nada, kotoran lensa, lightshafts , sketsa, koreksi gamma, konvolusi, penajaman, deteksi tepi, blur, sepia, denoise, FXAA, dan lainnya.

Sedangkan untuk tampilan support Ansel di dalam game, maka kita harus menunggu sebentar hingga developer mengimplementasikan dan mengujinya. Tetapi Nvidia berjanji bahwa dukungan tersebut akan segera muncul di game-game terkenal seperti The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament, dan lainnya.

Teknologi proses FinFET 16nm baru dan optimalisasi arsitektur telah memungkinkan kartu grafis GeForce GTX 1080 berbasis GPU GP104 untuk mencapai kecepatan clock tinggi 1,6-1,7 GHz bahkan dalam bentuk referensi, dan generasi baru menjamin frekuensi tertinggi dalam game. Teknologi Peningkatan GPU. Bersama dengan peningkatan jumlah unit eksekusi, peningkatan ini menjadikannya tidak hanya kartu grafis chip tunggal berperforma tertinggi sepanjang masa, tetapi juga solusi paling hemat energi di pasar.

GeForce GTX 1080 adalah kartu grafis pertama yang menampilkan memori grafis GDDR5X baru, generasi baru chip berkecepatan tinggi yang mencapai kecepatan data sangat tinggi. Dalam kasus GeForce GTX 1080 yang dimodifikasi, jenis memori ini beroperasi pada frekuensi efektif 10 GHz. Dikombinasikan dengan algoritme kompresi framebuffer yang ditingkatkan, hal ini menghasilkan peningkatan 1,7x dalam bandwidth memori efektif untuk GPU ini dibandingkan dengan pendahulunya langsung, GeForce GTX 980.

Nvidia dengan bijak memutuskan untuk tidak merilis arsitektur baru yang radikal pada teknologi proses yang sama sekali baru untuk dirinya sendiri, agar tidak menghadapi masalah yang tidak perlu selama pengembangan dan produksi. Sebaliknya, mereka secara serius meningkatkan arsitektur Maxwell yang sudah baik dan sangat efisien dengan menambahkan beberapa fitur. Akibatnya, semuanya baik-baik saja dengan produksi GPU baru, dan dalam kasus model GeForce GTX 1080, para insinyur telah mencapai potensi frekuensi yang sangat tinggi - dalam versi overclock dari mitra, frekuensi GPU diharapkan hingga 2 GHz! Frekuensi yang mengesankan seperti itu menjadi kenyataan berkat proses teknis yang sempurna dan kerja keras para insinyur Nvidia dalam pengembangan GPU Pascal.

Dan sementara Pascal adalah pengikut langsung Maxwell, dan arsitektur grafis ini pada dasarnya tidak terlalu berbeda satu sama lain, Nvidia telah memperkenalkan banyak perubahan dan peningkatan, termasuk kemampuan tampilan, mesin pengodean dan penguraian kode video, peningkatan eksekusi asinkron dari berbagai jenis perhitungan pada GPU, membuat perubahan pada rendering multi-chip dan memperkenalkan metode sinkronisasi baru, Fast Sync.

Mustahil untuk tidak menyoroti teknologi Multi-Proyeksi Simultan, yang membantu meningkatkan kinerja dalam sistem realitas virtual, mendapatkan tampilan pemandangan yang lebih tepat pada sistem multi-monitor, dan memperkenalkan teknik pengoptimalan kinerja baru. Tetapi aplikasi VR akan melihat peningkatan kecepatan terbesar ketika mereka mendukung teknologi multi-proyeksi, yang membantu menghemat sumber daya GPU hingga setengahnya saat memproses data geometris dan satu setengah kali dalam perhitungan per piksel.

Di antara perubahan perangkat lunak murni, platform untuk membuat tangkapan layar dalam game yang disebut Ansel menonjol - akan menarik untuk mencobanya dalam praktik tidak hanya bagi mereka yang banyak bermain, tetapi juga bagi mereka yang hanya tertarik pada grafik 3D berkualitas tinggi . Kebaruan memungkinkan Anda untuk memajukan seni membuat dan retouching screenshot ke tingkat yang baru. Nah, paket untuk pengembang game seperti GameWorks dan VRWorks, Nvidia terus meningkat selangkah demi selangkah - jadi, yang terakhir, kemungkinan menarik untuk perhitungan suara berkualitas tinggi telah muncul, dengan mempertimbangkan banyak pantulan gelombang suara menggunakan sinar perangkat keras pelacakan.

Secara umum, dalam bentuk kartu video Nvidia GeForce GTX 1080, pemimpin sejati memasuki pasar, memiliki semua kualitas yang diperlukan untuk ini: kinerja tinggi dan fungsionalitas luas, serta dukungan untuk fitur dan algoritma baru. Pembeli awal kartu grafis ini akan dapat merasakan banyak manfaat yang disebutkan segera, sementara fitur lain dari solusi ini akan terungkap sedikit kemudian, ketika ada dukungan luas dari perangkat lunak. Hal utama adalah bahwa GeForce GTX 1080 ternyata sangat cepat dan efisien, dan, seperti yang sangat kami harapkan, teknisi Nvidia berhasil memperbaiki beberapa area masalah (perhitungan asinkron yang sama).

Akselerator grafis GeForce GTX 1070

ParameterBerarti
Nama kode chipGP104
Teknologi produksiFinFET 16nm
Jumlah transistor7,2 miliar
Area inti314 mm²
ArsitekturTerpadu, dengan serangkaian prosesor umum untuk pemrosesan aliran berbagai jenis data: simpul, piksel, dll.
Dukungan perangkat keras DirectXDirectX 12, dengan dukungan untuk Feature Level 12_1
Bus memori256-bit: delapan pengontrol memori 32-bit independen yang mendukung memori GDDR5 dan GDDR5X
frekuensi GPU1506 (1683) MHz
Blok komputasi15 multiprosesor streaming aktif (dari 20 dalam chip), termasuk 1920 (dari 2560) skalar ALU untuk perhitungan floating point dalam kerangka standar IEEE 754-2008;
Blok tekstur120 unit pengalamatan dan pemfilteran tekstur aktif (dari 160 dalam chip) dengan dukungan untuk komponen FP16 dan FP32 dalam tekstur dan dukungan untuk pemfilteran trilinear dan anisotropik untuk semua format tekstur
Unit Operasi Raster (ROP)8 ROP lebar (64 piksel) dengan dukungan untuk berbagai mode anti-aliasing, termasuk yang dapat diprogram dan dengan format buffer bingkai FP16 atau FP32. Blok terdiri dari array ALU yang dapat dikonfigurasi dan bertanggung jawab untuk pembuatan dan perbandingan kedalaman, multisampling, dan pencampuran
Memantau dukunganDukungan terintegrasi hingga empat monitor yang terhubung melalui Dual Link DVI, HDMI 2.0b dan DisplayPort 1.2 (Siap 1.3/1.4)

Spesifikasi Grafis Referensi GeForce GTX 1070
ParameterBerarti
Frekuensi inti1506 (1683) MHz
Jumlah prosesor universal1920
Jumlah blok tekstur120
Jumlah blok pencampuran64
Frekuensi memori yang efektif8000 (4×2000) MHz
Jenis memoriGDDR5
Bus memori256-bit
Penyimpanan8 GB
Bandwidth Memori256 GB/dtk
Performa komputasi (FP32)sekitar 6,5 teraflop
Rasio pengisian maksimum teoretis96 gigapiksel/dtk
Tingkat pengambilan sampel tekstur teoretis181 gigatexel/s
BanPCI Express 3.0
konektorSatu DVI Tautan Ganda, satu HDMI, dan tiga DisplayPort
penggunaan dayahingga 150 W
Makanan tambahanSatu konektor 8-pin
Jumlah slot yang ditempati di sasis sistem2
Harga yang direkomendasikan$379-449 (AS), 34.990 (Rusia)

Kartu video GeForce GTX 1070 juga menerima nama logis yang mirip dengan solusi yang sama dari seri GeForce sebelumnya. Ini berbeda dari pendahulunya langsung GeForce GTX 970 hanya dalam nomor generasi yang diubah. Kebaruan menjadi selangkah di bawah solusi teratas saat ini GeForce GTX 1080 di lini perusahaan saat ini, yang menjadi unggulan sementara dari seri baru hingga rilis solusi GPU yang lebih kuat.

Harga yang direkomendasikan untuk kartu video teratas baru Nvidia adalah $379 dan $449 untuk Nvidia Partners dan Founders Edition reguler. Dibandingkan dengan model teratas, ini adalah harga yang sangat bagus mengingat GTX 1070 paling buruk sekitar 25% di belakangnya. Dan pada saat pengumuman dan perilisannya, GTX 1070 menjadi solusi performa terbaik di kelasnya. Seperti GeForce GTX 1080, GTX 1070 tidak memiliki pesaing langsung dari AMD, dan hanya dapat dibandingkan dengan Radeon R9 390X dan Fury.

GPU GP104 dalam modifikasi GeForce GTX 1070 memutuskan untuk meninggalkan bus memori 256-bit penuh, meskipun mereka tidak menggunakan jenis memori GDDR5X baru, tetapi GDDR5 yang sangat cepat, yang beroperasi pada frekuensi efektif tinggi 8 GHz. Jumlah memori yang dipasang pada kartu video dengan bus semacam itu dapat mencapai 4 atau 8 GB, dan untuk memastikan kinerja maksimum dari solusi baru dalam kondisi pengaturan tinggi dan resolusi rendering, model kartu video GeForce GTX 1070 juga dilengkapi dengan memori video 8 GB, seperti kakak perempuannya. Volume ini cukup untuk menjalankan aplikasi 3D apa pun dengan pengaturan kualitas maksimum selama beberapa tahun.

GeForce GTX 1070 Founders Edition

Dengan diumumkannya GeForce GTX 1080 pada awal Mei, edisi khusus kartu video yang disebut Founders Edition diumumkan, yang memiliki harga lebih tinggi daripada kartu video biasa dari mitra perusahaan. Hal yang sama berlaku untuk kebaruan. Pada artikel ini, kita akan kembali berbicara tentang video card GeForce GTX 1070 edisi khusus yang disebut Founders Edition. Seperti halnya model lama, Nvidia memutuskan untuk merilis versi kartu video referensi pabrikan ini dengan harga lebih tinggi. Mereka mengklaim bahwa banyak gamer dan penggemar yang membeli kartu grafis kelas atas yang mahal menginginkan produk dengan tampilan dan nuansa "premium" yang sesuai.

Oleh karena itu, untuk pengguna seperti itulah kartu video GeForce GTX 1070 Founders Edition akan dirilis ke pasar, yang dirancang dan diproduksi oleh para insinyur Nvidia dari bahan dan komponen premium, seperti penutup aluminium GeForce GTX 1070 Founders Edition, serta sebagai pelat belakang profil rendah yang menutupi bagian belakang PCB dan cukup populer di kalangan penggemar.

Seperti yang Anda lihat dari foto-foto papan, GeForce GTX 1070 Founders Edition mewarisi desain industri yang persis sama dari versi referensi GeForce GTX 1080 Founders Edition. Kedua model menggunakan kipas radial yang mengeluarkan udara panas, yang sangat berguna dalam kasus kecil dan konfigurasi SLI multi-chip dengan ruang fisik terbatas. Dengan menghembuskan udara panas keluar alih-alih mengedarkannya di dalam casing, Anda dapat mengurangi tekanan termal, meningkatkan hasil overclocking, dan memperpanjang umur komponen sistem.

Di bawah penutup sistem pendingin referensi GeForce GTX 1070, ada radiator aluminium berbentuk khusus dengan tiga pipa panas tembaga built-in yang menghilangkan panas dari GPU itu sendiri. Panas yang dikeluarkan oleh pipa panas kemudian dibuang oleh heatsink aluminium. Nah, pelat logam profil rendah di bagian belakang papan juga dirancang untuk memberikan kinerja termal yang lebih baik. Ini juga memiliki bagian yang dapat ditarik untuk aliran udara yang lebih baik antara beberapa kartu grafis dalam konfigurasi SLI.

Untuk sistem daya board, GeForce GTX 1070 Founders Edition memiliki sistem daya empat fase yang dioptimalkan untuk catu daya yang stabil. Nvidia mengklaim bahwa penggunaan komponen khusus dalam GTX 1070 Founders Edition meningkatkan efisiensi daya, stabilitas, dan keandalan di atas GeForce GTX 970, memberikan kinerja overclocking yang lebih baik. Dalam pengujian perusahaan sendiri, GPU papan GeForce GTX 1070 dengan mudah melampaui 1,9 GHz, yang mendekati hasil model GTX 1080 yang lebih lama.

Kartu grafis Nvidia GeForce GTX 1070 akan tersedia di toko ritel mulai 10 Juni. Harga yang direkomendasikan untuk GeForce GTX 1070 Founders Edition dan solusi mitra berbeda, dan ini adalah pertanyaan utama untuk edisi khusus ini. Jika mitra Nvidia menjual kartu grafis GeForce GTX 1070 mereka mulai dari $379 (di pasar AS), maka desain referensi Nvidia Founders Edition hanya akan berharga $449. Apakah ada banyak peminat yang siap membayar lebih untuk, mari kita hadapi, keuntungan yang meragukan dari versi referensi? Waktu akan memberi tahu, tetapi kami percaya bahwa biaya referensi lebih menarik sebagai opsi yang tersedia untuk pembelian di awal penjualan, dan kemudian titik untuk mendapatkannya (dan bahkan dengan harga tinggi!) sudah dikurangi menjadi nol.

Tetap menambahkan bahwa papan sirkuit tercetak dari referensi GeForce GTX 1070 mirip dengan kartu video yang lebih lama, dan keduanya berbeda dari perangkat papan perusahaan sebelumnya. Nilai konsumsi daya khas untuk produk baru ini adalah 150 W, yang hampir 20% lebih rendah dari nilai untuk GTX 1080 dan mendekati konsumsi daya kartu video GeForce GTX 970 generasi sebelumnya. Papan referensi Nvidia memiliki rangkaian yang sudah dikenal konektor untuk menghubungkan perangkat output gambar: satu DVI Dual-Link , satu HDMI, dan tiga DisplayPort. Selain itu, ada dukungan untuk versi baru HDMI dan DisplayPort, yang kami tulis di atas dalam ulasan model GTX 1080.

Perubahan arsitektur

GeForce GTX 1070 didasarkan pada chip GP104, yang pertama dari generasi baru arsitektur grafis Pascal Nvidia. Arsitektur ini didasarkan pada solusi yang dikembangkan kembali di Maxwell, tetapi juga memiliki beberapa perbedaan fungsional, yang kami tulis secara rinci di atas - di bagian yang dikhususkan untuk kartu video GeForce GTX 1080 teratas.

Perubahan utama dari arsitektur baru adalah proses teknologi di mana semua GPU baru akan dieksekusi. Penggunaan proses manufaktur FinFET 16 nm dalam produksi GP104 memungkinkan untuk secara signifikan meningkatkan kompleksitas chip sambil mempertahankan area dan biaya yang relatif rendah, dan chip pertama dari arsitektur Pascal memiliki jumlah eksekusi yang jauh lebih besar. unit, termasuk yang menyediakan fungsionalitas baru, dibandingkan dengan chip Maxwell dengan posisi serupa.

Chip video GP104 serupa dalam desainnya dengan solusi arsitektur Maxwell yang serupa, dan Anda dapat menemukan informasi mendetail tentang desain GPU modern dalam ulasan kami tentang solusi Nvidia sebelumnya. Seperti GPU sebelumnya, chip arsitektur baru akan memiliki konfigurasi yang berbeda dari Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) dan pengontrol memori, dan beberapa perubahan telah terjadi di GeForce GTX 1070 - bagian dari chip terkunci dan tidak aktif ( disorot dalam warna abu-abu):

Meskipun GPU GP104 mencakup empat cluster GPC dan 20 multiprosesor SM, dalam versi untuk GeForce GTX 1070, ia menerima modifikasi sederhana dengan satu cluster GPC dinonaktifkan oleh perangkat keras. Karena setiap klaster GPC memiliki mesin rasterisasi khusus dan mencakup lima SM, dan setiap multiprosesor terdiri dari 128 inti CUDA dan delapan TMU tekstur, 1920 inti CUDA dan 120 TMU dari 2560 prosesor aliran aktif dalam versi GP104 ini dan 160 unit tekstur fisik.

Prosesor grafis yang menjadi dasar GeForce GTX 1070 berisi delapan pengontrol memori 32-bit, menghasilkan total bus memori 256-bit - persis seperti dalam kasus model GTX 1080 yang lebih lama. Subsistem memori belum dipangkas secara berurutan untuk menyediakan memori bandwidth yang cukup tinggi dengan kondisi menggunakan memori GDDR5 pada GeForce GTX 1070. Masing-masing pengontrol memori memiliki delapan ROP dan cache L2 256 KB, sehingga chip GP104 dalam modifikasi ini juga berisi 64 ROP dan 2048 KB tingkat cache L2.

Berkat optimalisasi arsitektur dan teknologi proses baru, GPU GP104 telah menjadi GPU paling hemat energi hingga saat ini. Insinyur Nvidia mampu meningkatkan kecepatan clock lebih dari yang mereka harapkan ketika pindah ke proses baru, di mana mereka harus bekerja keras, dengan hati-hati memeriksa dan mengoptimalkan semua kemacetan solusi sebelumnya yang tidak memungkinkan mereka bekerja pada frekuensi yang lebih tinggi. Oleh karena itu, GeForce GTX 1070 juga beroperasi pada frekuensi yang sangat tinggi, lebih dari 40% lebih tinggi dari nilai referensi untuk GeForce GTX 970.

Karena GeForce GTX 1070, pada dasarnya, hanya GTX 1080 yang sedikit kurang produktif dengan memori GDDR5, GeForce GTX 1070 mendukung semua teknologi yang kami jelaskan di bagian sebelumnya. Untuk detail lebih lanjut tentang arsitektur Pascal, serta teknologi yang didukungnya, seperti unit pemrosesan output dan video yang ditingkatkan, dukungan Async Compute, teknologi Multi-Projection Simultan, perubahan dalam rendering multi-chip SLI, dan jenis sinkronisasi Fast Sync yang baru , ada baiknya membaca dengan bagian pada GTX 1080.

Memori GDDR5 berperforma tinggi dan penggunaannya yang efisien

Kami menulis di atas tentang perubahan subsistem memori GPU GP104, yang menjadi dasar model GeForce GTX 1080 dan GTX 1070 - pengontrol memori yang disertakan dalam GPU ini mendukung kedua jenis baru memori video GDDR5X, yang dijelaskan secara rinci di ulasan GTX 1080, serta memori GDDR5 lama yang bagus yang telah kami kenal selama beberapa tahun sekarang.

Agar tidak kehilangan terlalu banyak bandwidth memori di GTX 1070 yang lebih muda dibandingkan dengan GTX 1080 yang lebih lama, kedelapan pengontrol memori 32-bit dibiarkan aktif di dalamnya, mendapatkan antarmuka memori video umum 256-bit penuh. Selain itu, kartu video dilengkapi dengan memori GDDR5 tercepat yang tersedia di pasar - dengan frekuensi operasi efektif 8 GHz. Semua ini menyediakan bandwidth memori 256 GB / s, berbeda dengan 320 GB / s untuk solusi yang lebih lama - kemampuan komputasi dipotong dengan jumlah yang hampir sama, sehingga keseimbangan tetap terjaga.

Ingatlah bahwa meskipun bandwidth teoritis puncak penting untuk kinerja GPU, Anda juga perlu memperhatikan efisiensinya. Selama proses rendering, banyak hambatan yang berbeda dapat membatasi kinerja secara keseluruhan, mencegah penggunaan semua bandwidth memori yang tersedia. Untuk meminimalkan kemacetan ini, GPU menggunakan kompresi data lossless khusus untuk meningkatkan efisiensi baca dan tulis data.

Generasi keempat kompresi delta informasi buffer telah diperkenalkan dalam arsitektur Pascal, yang memungkinkan GPU untuk lebih efisien menggunakan kemampuan yang tersedia dari bus memori video. Subsistem memori di GeForce GTX 1070 dan GTX 1080 menggunakan peningkatan lama dan beberapa teknik kompresi data lossless baru yang dirancang untuk mengurangi kebutuhan bandwidth. Ini mengurangi jumlah data yang ditulis ke memori, meningkatkan efisiensi cache L2, dan mengurangi jumlah data yang dikirim antara titik yang berbeda pada GPU, seperti TMU dan framebuffer.

GPU Boost 3.0 dan fitur overclocking

Sebagian besar mitra Nvidia telah mengumumkan solusi overclock pabrik berdasarkan GeForce GTX 1080 dan GTX 1070. Dan banyak produsen kartu video juga membuat utilitas overclocking khusus yang memungkinkan Anda menggunakan fungsionalitas baru teknologi GPU Boost 3.0. Salah satu contoh utilitas tersebut adalah EVGA Precision XOC, yang mencakup pemindai otomatis untuk menentukan kurva tegangan-ke-frekuensi - dalam mode ini, untuk setiap tegangan, dengan menjalankan uji stabilitas, frekuensi stabil ditemukan di mana GPU menyediakan peningkatan kinerja. Namun, kurva ini juga dapat diubah secara manual.

Kami mengetahui teknologi GPU Boost dengan baik dari kartu grafis Nvidia sebelumnya. Di GPU mereka, mereka menggunakan fitur perangkat keras ini, yang dirancang untuk meningkatkan kecepatan jam operasi GPU dalam mode yang belum mencapai batas konsumsi daya dan pembuangan panas. Dalam GPU Pascal, algoritme ini telah mengalami beberapa perubahan, yang utamanya adalah pengaturan frekuensi turbo yang lebih baik, tergantung pada voltase.

Jika sebelumnya perbedaan antara frekuensi dasar dan frekuensi turbo telah diperbaiki, maka di GPU Boost 3.0 dimungkinkan untuk mengatur offset frekuensi turbo untuk setiap voltase secara terpisah. Sekarang frekuensi turbo dapat diatur untuk masing-masing nilai voltase individual, yang memungkinkan Anda untuk sepenuhnya memeras semua kemampuan overclocking dari GPU. Kami menulis tentang fitur ini secara rinci dalam ulasan GeForce GTX 1080, dan Anda dapat menggunakan utilitas EVGA Precision XOC dan MSI Afterburner untuk ini.

Karena beberapa detail telah berubah dalam metodologi overclocking dengan dirilisnya kartu video dengan dukungan GPU Boost 3.0, Nvidia harus membuat penjelasan tambahan dalam instruksi untuk overclocking produk baru. Ada teknik overclocking yang berbeda dengan karakteristik variabel yang berbeda yang mempengaruhi hasil akhir. Untuk setiap sistem tertentu, metode tertentu mungkin lebih cocok, tetapi dasar-dasarnya selalu hampir sama.

Banyak overclocker menggunakan benchmark Unigine Heaven 4.0 untuk memeriksa stabilitas sistem, yang memuat GPU dengan baik, memiliki pengaturan yang fleksibel dan dapat dijalankan dalam mode berjendela bersama dengan jendela utilitas overclocking dan pemantauan di dekatnya, seperti EVGA Precision atau MSI Afterburner. Namun, pemeriksaan semacam itu cukup hanya untuk perkiraan awal, dan untuk memastikan stabilitas overclocking dengan tegas, pemeriksaan tersebut harus diperiksa di beberapa aplikasi game, karena game yang berbeda memerlukan beban yang berbeda pada unit fungsional GPU yang berbeda: matematika, tekstur, geometris. Benchmark Heaven 4.0 juga nyaman untuk overclocking karena memiliki mode operasi loop, di mana nyaman untuk mengubah pengaturan overclocking dan ada benchmark untuk mengevaluasi peningkatan kecepatan.

Nvidia menyarankan untuk menjalankan jendela Heaven 4.0 dan EVGA Precision XOC secara bersamaan saat melakukan overclock kartu grafis GeForce GTX 1080 dan GTX 1070 yang baru. Pada awalnya, diinginkan untuk segera meningkatkan kecepatan kipas. Dan untuk overclocking yang serius, Anda dapat segera mengatur nilai kecepatan ke 100%, yang akan membuat kartu video sangat keras, tetapi akan mendinginkan GPU dan komponen lain dari kartu video sebanyak mungkin dengan menurunkan suhu serendah mungkin. level, mencegah throttling (pengurangan frekuensi karena peningkatan suhu GPU di atas nilai tertentu).

Selanjutnya, Anda perlu mengatur nilai daya target (Power Target) juga hingga maksimal. Pengaturan ini akan memberi GPU jumlah daya maksimum yang dimungkinkan dengan meningkatkan tingkat konsumsi daya dan suhu target GPU (GPU Temp Target). Untuk beberapa tujuan, nilai kedua dapat dipisahkan dari perubahan Target Daya, dan kemudian pengaturan ini dapat disesuaikan secara individual - untuk mencapai lebih sedikit pemanasan chip video, misalnya.

Langkah selanjutnya adalah meningkatkan nilai GPU Clock Offset - itu berarti seberapa tinggi frekuensi turbo selama operasi. Nilai ini meningkatkan frekuensi untuk semua tegangan dan menghasilkan kinerja yang lebih baik. Seperti biasa, saat overclocking, Anda perlu memeriksa stabilitas saat meningkatkan frekuensi GPU dalam langkah-langkah kecil - dari 10 MHz menjadi 50 MHz per langkah sebelum Anda melihat hang, driver atau kesalahan aplikasi, atau bahkan artefak visual. Ketika batas ini tercapai, Anda harus mengurangi nilai frekuensi secara bertahap dan sekali lagi memeriksa stabilitas dan kinerja selama overclocking.

Selain frekuensi GPU, Anda juga dapat meningkatkan frekuensi memori video (Memory Clock Offset), yang sangat penting dalam kasus GeForce GTX 1070 yang dilengkapi dengan memori GDDR5, yang biasanya dapat di-overclock dengan baik. Proses dalam hal frekuensi memori persis mengulangi apa yang dilakukan ketika menemukan frekuensi GPU yang stabil, satu-satunya perbedaan adalah langkah-langkahnya dapat dibuat lebih besar - tambahkan 50-100 MHz ke frekuensi dasar sekaligus.

Selain langkah-langkah di atas, Anda juga dapat meningkatkan batas Tegangan Lebih, karena frekuensi GPU yang lebih tinggi sering dicapai pada tegangan yang meningkat, ketika bagian GPU yang tidak stabil menerima daya tambahan. Benar, potensi kerugian dari peningkatan nilai ini adalah kemungkinan kerusakan chip video dan kegagalannya yang dipercepat, jadi Anda harus menggunakan peningkatan tegangan dengan sangat hati-hati.

Penggemar overclocking menggunakan teknik yang sedikit berbeda, mengubah parameter dalam urutan yang berbeda. Misalnya, beberapa overclocker berbagi eksperimen untuk menemukan frekuensi GPU dan memori yang stabil sehingga tidak saling mengganggu, dan kemudian menguji overclocking gabungan dari chip video dan chip memori, tetapi ini sudah merupakan detail yang tidak signifikan dari pendekatan individual. .

Dilihat dari pendapat di forum dan komentar di artikel, beberapa pengguna tidak menyukai algoritma operasi GPU Boost 3.0 yang baru, ketika frekuensi GPU pertama kali naik sangat tinggi, seringkali lebih tinggi dari frekuensi turbo, tetapi kemudian, di bawah pengaruh peningkatan dalam suhu GPU atau peningkatan konsumsi daya di atas batas yang ditetapkan, ia dapat turun ke nilai yang jauh lebih rendah. Ini hanya spesifik dari algoritma yang diperbarui, Anda harus terbiasa dengan perilaku baru dari frekuensi GPU yang berubah secara dinamis, tetapi itu tidak memiliki konsekuensi negatif.

GeForce GTX 1070 adalah model kedua setelah GTX 1080 dalam jajaran prosesor grafis baru Nvidia yang berbasis keluarga Pascal. Proses manufaktur FinFET 16nm baru dan optimalisasi arsitektur telah memungkinkan kartu grafis ini mencapai kecepatan clock tinggi, yang didukung oleh teknologi GPU Boost generasi baru. Meskipun jumlah blok fungsional dalam bentuk prosesor aliran dan modul tekstur telah dikurangi, jumlahnya tetap cukup untuk GTX 1070 menjadi solusi yang paling menguntungkan dan hemat energi.

Memasang memori GDDR5 pada yang termuda dari sepasang model kartu video Nvidia yang dirilis pada chip GP104, tidak seperti tipe baru GDDR5X yang membedakan GTX 1080, tidak mencegahnya mencapai indikator kinerja tinggi. Pertama, Nvidia memutuskan untuk tidak memotong bus memori model GeForce GTX 1070, dan kedua, mereka menempatkan memori GDDR5 tercepat dengan frekuensi efektif 8 GHz, yang hanya sedikit lebih rendah dari 10 GHz untuk GDDR5X yang digunakan dalam model yang lebih tua. Selain itu, dengan algoritme kompresi delta yang ditingkatkan, bandwidth memori efektif GPU menjadi lebih tinggi daripada parameter yang sama untuk model serupa dari GeForce GTX 970 generasi sebelumnya.

GeForce GTX 1070 bagus karena menawarkan kinerja yang sangat tinggi dan dukungan untuk fitur dan algoritme baru dengan harga yang jauh lebih rendah dibandingkan dengan model lama yang diumumkan sedikit lebih awal. Jika beberapa penggemar mampu membeli GTX 1080 seharga 55.000, maka lingkaran pembeli potensial yang jauh lebih besar akan mampu membayar 35.000 hanya untuk seperempat dari solusi yang kurang produktif dengan kemampuan yang persis sama. Kombinasi harga yang relatif rendah dan kinerja tinggi yang menjadikan GeForce GTX 1070 sebagai pembelian paling menguntungkan pada saat peluncurannya.

Akselerator grafis GeForce GTX 1060

ParameterBerarti
Nama kode chipGP106
Teknologi produksiFinFET 16nm
Jumlah transistor4,4 miliar
Area inti200 mm²
ArsitekturTerpadu, dengan serangkaian prosesor umum untuk pemrosesan aliran berbagai jenis data: simpul, piksel, dll.
Dukungan perangkat keras DirectXDirectX 12, dengan dukungan untuk Feature Level 12_1
Bus memori192-bit: enam pengontrol memori 32-bit independen yang mendukung memori GDDR5
frekuensi GPU1506 (1708) MHz
Blok komputasi10 multiprosesor streaming, termasuk 1280 skalar ALU untuk perhitungan floating point dalam standar IEEE 754-2008;
Blok tekstur80 unit pengalamatan dan pemfilteran tekstur dengan dukungan untuk komponen FP16 dan FP32 dalam tekstur dan dukungan untuk pemfilteran trilinear dan anisotropik untuk semua format tekstur
Unit Operasi Raster (ROP)6 ROP lebar (48 piksel) dengan dukungan untuk berbagai mode anti-aliasing, termasuk yang dapat diprogram dan dengan format buffer bingkai FP16 atau FP32. Blok terdiri dari array ALU yang dapat dikonfigurasi dan bertanggung jawab untuk pembuatan dan perbandingan kedalaman, multisampling, dan pencampuran
Memantau dukunganDukungan terintegrasi hingga empat monitor yang terhubung melalui Dual Link DVI, HDMI 2.0b dan DisplayPort 1.2 (Siap 1.3/1.4)

Spesifikasi Grafis Referensi GeForce GTX 1060
ParameterBerarti
Frekuensi inti1506 (1708) MHz
Jumlah prosesor universal1280
Jumlah blok tekstur80
Jumlah blok pencampuran48
Frekuensi memori yang efektif8000 (4×2000) MHz
Jenis memoriGDDR5
Bus memori192-bit
Penyimpanan6 GB
Bandwidth Memori192 GB/dtk
Performa komputasi (FP32)sekitar 4 teraflop
Rasio pengisian maksimum teoretis72 gigapiksel/dtk
Tingkat pengambilan sampel tekstur teoretis121 gigatexel/s
BanPCI Express 3.0
konektorSatu DVI Tautan Ganda, satu HDMI, dan tiga DisplayPort
Konsumsi Daya Khas120 W
Makanan tambahanSatu konektor 6-pin
Jumlah slot yang ditempati di sasis sistem2
Harga yang direkomendasikan$249 ($299) di AS dan 18.990 di Rusia

Kartu video GeForce GTX 1060 juga menerima nama yang mirip dengan solusi yang sama dari seri GeForce sebelumnya, berbeda dari nama pendahulunya langsung GeForce GTX 960 hanya dengan digit pertama generasi yang diubah. Kebaruan telah menjadi di lini perusahaan saat ini satu langkah lebih rendah dari solusi GeForce GTX 1070 yang dirilis sebelumnya, yang rata-rata dalam hal kecepatan dalam seri baru.

Harga yang direkomendasikan untuk kartu video baru Nvidia adalah $249 dan $299 untuk versi reguler dari mitra perusahaan dan masing-masing untuk Edisi Pendiri khusus. Dibandingkan dengan dua model lama, ini adalah harga yang sangat menguntungkan, karena model GTX 1060 yang baru, meskipun lebih rendah dari motherboard kelas atas, tidak sebanding dengan harganya yang lebih murah. Pada saat pengumuman, kebaruan pasti menjadi solusi kinerja terbaik di kelasnya dan salah satu penawaran paling menguntungkan dalam kisaran harga ini.

Model kartu video keluarga Pascal Nvidia ini keluar untuk melawan keputusan baru dari perusahaan pesaing AMD, yang merilis Radeon RX 480 sedikit lebih awal.Anda dapat membandingkan kartu video Nvidia baru dengan kartu video ini, meskipun tidak secara langsung, karena mereka masih berbeda cukup signifikan dalam harga. GeForce GTX 1060 lebih mahal ($249-299 versus $199-229), tetapi juga jelas lebih cepat daripada pesaingnya.

Prosesor grafis GP106 memiliki bus memori 192-bit, sehingga jumlah memori yang terpasang pada kartu video dengan bus semacam itu bisa 3 atau 6 GB. Nilai yang lebih kecil dalam kondisi modern sejujurnya tidak cukup, dan banyak proyek game, bahkan dalam resolusi Full HD, akan mengalami kekurangan memori video, yang akan sangat memengaruhi kelancaran rendering. Untuk memastikan kinerja maksimal dari solusi baru pada pengaturan tinggi, model GeForce GTX 1060 dilengkapi dengan memori video 6 GB, yang cukup untuk menjalankan aplikasi 3D dengan pengaturan kualitas apa pun. Selain itu, hari ini tidak ada perbedaan antara 6 dan 8 GB, dan solusi seperti itu akan menghemat uang.

Nilai konsumsi daya khas untuk produk baru ini adalah 120 W, yang 20% ​​lebih rendah dari nilai untuk GTX 1070 dan sama dengan konsumsi daya kartu grafis GeForce GTX 960 generasi sebelumnya, yang memiliki kinerja dan kemampuan yang jauh lebih rendah. Papan referensi memiliki rangkaian konektor biasa untuk menghubungkan perangkat output gambar: satu DVI Dual-Link, satu HDMI, dan tiga DisplayPort. Selain itu, ada dukungan untuk versi baru HDMI dan DisplayPort, yang kami tulis dalam ulasan model GTX 1080.

Panjang papan referensi GeForce GTX 1060 adalah 9,8 inci (25 cm), dan dari perbedaan dari opsi yang lebih lama, kami secara terpisah mencatat bahwa GeForce GTX 1060 tidak mendukung konfigurasi rendering multi-chip SLI, dan tidak memiliki konektor khusus untuk ini. Karena board mengkonsumsi daya lebih sedikit daripada model lama, satu konektor daya eksternal PCI-E 6-pin dipasang di board untuk daya tambahan.

Kartu video GeForce GTX 1060 telah muncul di pasaran sejak hari pengumuman dalam bentuk produk dari mitra perusahaan: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Edisi khusus dari GeForce GTX 1060 Founder's Edition, yang diproduksi oleh Nvidia sendiri, akan dirilis dalam jumlah terbatas, yang akan dijual dengan harga $ 299 secara eksklusif di situs web Nvidia dan tidak akan disajikan secara resmi di Rusia. Edisi Pendiri dibedakan oleh fakta bahwa itu terbuat dari bahan dan komponen berkualitas tinggi, termasuk wadah aluminium, dan menggunakan sistem pendingin yang efisien, serta sirkuit daya resistansi rendah dan pengatur tegangan yang dirancang khusus.

Perubahan arsitektur

Kartu video GeForce GTX 1060 didasarkan pada model prosesor grafis yang sama sekali baru GP106, yang secara fungsional tidak berbeda dengan arsitektur Pascal pertama dalam bentuk chip GP104, di mana model GeForce GTX 1080 dan GTX 1070 dijelaskan di atas didasarkan.Arsitektur ini didasarkan pada solusi yang dikerjakan di Maxwell, tetapi juga memiliki beberapa perbedaan fungsional, yang telah kami tulis secara rinci sebelumnya.

Chip video GP106 serupa dalam desainnya dengan chip Pascal kelas atas dan solusi serupa dari arsitektur Maxwell, dan Anda dapat menemukan informasi mendetail tentang desain GPU modern dalam ulasan kami tentang solusi Nvidia sebelumnya. Seperti GPU sebelumnya, chip arsitektur baru memiliki konfigurasi yang berbeda dari Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM), dan pengontrol memori:

Prosesor grafis GP106 menggabungkan dua cluster GPC, yang terdiri dari 10 multiprosesor streaming (Streaming Multiprocessor - SM), yaitu, persis setengah dari GP104. Seperti pada GPU yang lebih lama, masing-masing multiprosesor berisi 128 core, 8 unit tekstur TMU, 256 KB memori register, 96 KB memori bersama, dan 48 KB cache L1. Hasilnya, GeForce GTX 1060 berisi total 1.280 inti komputasi dan 80 unit tekstur, setengah dari GTX 1080.

Tetapi subsistem memori GeForce GTX 1060 tidak dibagi dua relatif terhadap solusi teratas, ini berisi enam pengontrol memori 32-bit, memberikan bus memori 192-bit terakhir. Dengan frekuensi efektif memori video GDDR5 untuk GeForce GTX 1060 sebesar 8 GHz, bandwidth mencapai 192 GB / s, yang cukup baik untuk solusi di segmen harga ini, terutama mengingat tingginya efisiensi penggunaannya di Pascal. Masing-masing pengontrol memori memiliki delapan ROP dan 256 KB cache L2 yang terkait dengannya, jadi total versi lengkap GPU GP106 berisi 48 ROP dan cache L2 1536 KB.

Untuk mengurangi kebutuhan bandwidth memori dan membuat penggunaan arsitektur Pascal yang tersedia lebih efisien, kompresi data on-chip lossless telah lebih ditingkatkan, yang mampu mengompresi data dalam buffer, mendapatkan efisiensi dan peningkatan kinerja. Secara khusus, metode kompresi delta 4:1 dan 8:1 yang baru telah ditambahkan ke rangkaian chip baru, memberikan tambahan 20% pada efisiensi bandwidth dibandingkan dengan solusi keluarga Maxwell sebelumnya.

Frekuensi dasar GPU baru adalah 1506 MHz - pada prinsipnya frekuensi tidak boleh di bawah tanda ini. Turbo clock khas (Boost Clock) jauh lebih tinggi pada 1708 MHz, yang merupakan rata-rata frekuensi sebenarnya yang dijalankan oleh chip grafis GeForce GTX 1060 di berbagai macam game dan aplikasi 3D. Frekuensi Boost yang sebenarnya tergantung pada permainan dan kondisi di mana tes berlangsung.

Seperti solusi keluarga Pascal lainnya, model GeForce GTX 1060 tidak hanya beroperasi pada frekuensi clock tinggi, memberikan kinerja tinggi, tetapi juga memiliki margin yang layak untuk overclocking. Eksperimen pertama menunjukkan kemungkinan mencapai frekuensi orde 2 GHz. Tidak mengherankan jika mitra perusahaan juga menyiapkan versi overclock pabrik dari kartu video GTX 1060.

Jadi, perubahan utama dalam arsitektur baru adalah proses FinFET 16 nm, yang penggunaannya dalam produksi GP106 memungkinkan untuk meningkatkan kompleksitas chip secara signifikan sambil mempertahankan area yang relatif rendah sebesar 200 mm², jadi chip arsitektur Pascal ini memiliki jumlah unit eksekusi yang jauh lebih besar dibandingkan chip Maxwell dengan pemosisian serupa yang diproduksi menggunakan teknologi proses 28 nm.

Jika GM206 (GTX 960) dengan luas 227 mm² memiliki 3 miliar transistor dan 1024 ALU, 64 TMU, 32 ROP dan bus 128-bit, maka GPU baru berisi 4,4 miliar transistor, 1280 ALU, dalam 200 mm², 80 TMU dan 48 ROP dengan bus 192-bit. Selain itu, pada frekuensi hampir satu setengah kali lebih tinggi: 1506 (1708) versus 1126 (1178) MHz. Dan ini dengan konsumsi daya yang sama yaitu 120 watt! Hasilnya, GPU GP106 telah menjadi salah satu GPU paling hemat energi, bersama dengan GP104.

Teknologi Nvidia Baru

Salah satu teknologi paling menarik dari perusahaan, yang didukung oleh GeForce GTX 1060 dan solusi lain dari keluarga Pascal, adalah teknologi Multi-Proyeksi Simultan Nvidia. Kami sudah menulis tentang teknologi ini di ulasan GeForce GTX 1080, ini memungkinkan Anda untuk menggunakan beberapa teknik baru untuk mengoptimalkan rendering. Khususnya - untuk secara bersamaan memproyeksikan gambar VR untuk dua mata sekaligus, secara signifikan meningkatkan efisiensi penggunaan GPU dalam realitas virtual.

Untuk mendukung SMP, semua GPU dari keluarga Pascal memiliki mesin khusus, yang terletak di Mesin PolyMorph di ujung pipa geometris sebelum rasterizer. Dengan itu, GPU dapat secara bersamaan memproyeksikan primitif geometris ke beberapa proyeksi dari satu titik, sementara proyeksi ini dapat stereo (yaitu, hingga 16 atau 32 proyeksi didukung secara bersamaan). Kemampuan ini memungkinkan Pascal GPU untuk secara akurat mereproduksi permukaan melengkung untuk rendering VR, serta menampilkan dengan benar pada sistem multi-monitor.

Penting bahwa teknologi Multi-Projection Simultan telah diintegrasikan ke dalam mesin game populer (Unreal Engine dan Unity) dan game, dan hingga saat ini, dukungan untuk teknologi tersebut telah diumumkan untuk lebih dari 30 game dalam pengembangan, termasuk yang terkenal seperti proyek sebagai Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft dan Raw Data. Menariknya, meskipun Unreal Tournament bukan game VR, game ini menggunakan SMP untuk mencapai visual dan performa yang lebih baik.

Teknologi lain yang telah lama ditunggu-tunggu adalah alat yang ampuh untuk membuat tangkapan layar dalam game. Nvidia Ansel. Alat ini memungkinkan Anda membuat tangkapan layar yang tidak biasa dan berkualitas sangat tinggi dari permainan, dengan fitur yang sebelumnya tidak tersedia, menyimpannya dalam resolusi sangat tinggi dan melengkapinya dengan berbagai efek, dan membagikan kreasi Anda. Ansel memungkinkan Anda untuk benar-benar membuat tangkapan layar seperti yang diinginkan artis, memungkinkan Anda memasang kamera dengan parameter apa pun di mana pun dalam adegan, menerapkan filter pasca yang kuat ke gambar, atau bahkan mengambil bidikan 360 derajat untuk dilihat di helm realitas maya.

Nvidia telah menstandarisasi integrasi UI Ansel ke dalam game, dan melakukannya semudah menambahkan beberapa baris kode. Tidak perlu lagi menunggu fitur ini muncul di game, kamu bisa mengevaluasi kemampuan Ansel sekarang juga di Mirror's Edge: Catalyst, dan sebentar lagi akan tersedia di Witcher 3: Wild Hunt. Selain itu, banyak proyek game yang mendukung Ansel sedang dalam pengembangan, termasuk game seperti Fortnite, Paragon and Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky, dan banyak lagi.

GPU GeForce GTX 1060 baru juga mendukung toolkit Nvidia VRWorks, yang membantu pengembang membuat proyek yang mengesankan untuk realitas virtual. Paket ini mencakup banyak utilitas dan alat untuk pengembang, termasuk VRWorks Audio, yang memungkinkan Anda melakukan penghitungan pantulan gelombang suara yang sangat akurat dari objek pemandangan menggunakan GPU ray tracing. Paket ini juga mencakup integrasi ke dalam efek fisika VR dan PhysX untuk memastikan perilaku objek yang benar secara fisik di tempat kejadian.

Salah satu game VR paling menarik untuk diuntungkan dari VRWorks adalah VR Funhouse, game VR milik Nvidia, tersedia gratis di layanan Steam Valve. Game ini didukung oleh Unreal Engine 4 (Epic Games) dan berjalan pada kartu grafis GeForce GTX 1080, 1070 dan 1060 bersama dengan headset HTC Vive VR. Selain itu, kode sumber game ini akan tersedia untuk umum, yang akan memungkinkan pengembang lain untuk menggunakan ide dan kode yang sudah jadi dalam atraksi VR mereka. Ambil kata kami untuk itu, ini adalah salah satu demonstrasi paling mengesankan dari kemungkinan realitas virtual.

Termasuk berkat teknologi SMP dan VRWorks, penggunaan GPU GeForce GTX 1060 dalam aplikasi VR memberikan performa yang cukup memadai untuk virtual reality entry-level, dan GPU yang dimaksud memenuhi level minimum hardware yang dibutuhkan, termasuk untuk SteamVR, menjadi salah satu akuisisi paling sukses untuk digunakan dalam sistem dengan dukungan VR resmi.

Karena model GeForce GTX 1060 didasarkan pada chip GP106, yang sama sekali tidak kalah dengan prosesor grafis GP104, yang menjadi dasar untuk modifikasi yang lebih lama, ia benar-benar mendukung semua teknologi yang dijelaskan di atas.

GeForce GTX 1060 adalah model ketiga dalam jajaran prosesor grafis baru Nvidia berdasarkan keluarga Pascal. Teknologi proses FinFET 16nm baru dan optimalisasi arsitektur telah memungkinkan semua kartu grafis baru untuk mencapai kecepatan clock tinggi dan menempatkan lebih banyak blok fungsional di GPU dalam bentuk prosesor aliran, modul tekstur, dan lainnya, dibandingkan dengan chip video generasi sebelumnya. Itulah mengapa GTX 1060 menjadi solusi paling menguntungkan dan hemat energi di kelasnya dan secara umum.

Sangat penting bahwa GeForce GTX 1060 menawarkan kinerja dan dukungan yang cukup tinggi untuk fitur dan algoritme baru dengan harga yang jauh lebih rendah dibandingkan dengan solusi lama berdasarkan GP104. Chip grafis GP106 yang digunakan dalam model baru memberikan kinerja dan efisiensi daya terbaik di kelasnya. GeForce GTX 1060 dirancang khusus dan sangat cocok untuk semua game modern pada pengaturan grafis tinggi dan maksimum pada resolusi 1920x1080 dan bahkan dengan anti-aliasing layar penuh yang diaktifkan dengan berbagai metode (FXAA, MFAA, atau MSAA).

Dan bagi mereka yang menginginkan performa lebih dengan tampilan resolusi ultra tinggi, Nvidia memiliki kartu grafis GeForce GTX 1070 dan GTX 1080 terbaik yang juga cukup baik dalam hal performa dan efisiensi daya. Namun, kombinasi harga rendah dan kinerja yang memadai cukup baik membedakan GeForce GTX 1060 dari latar belakang solusi yang lebih lama. Dibandingkan dengan Radeon RX 480 yang bersaing, solusi Nvidia sedikit lebih cepat dengan lebih sedikit kompleksitas dan jejak GPU, dan memiliki efisiensi daya yang jauh lebih baik. Benar, itu dijual sedikit lebih mahal, jadi setiap kartu video memiliki ceruknya sendiri.

Kami beralih ke fitur lain dari GeForce GTX 1080 yang menjadikannya yang pertama dari jenisnya - dukungan untuk memori GDDR5X. Dalam kapasitas ini, GTX 1080 akan menjadi satu-satunya produk di pasar untuk beberapa waktu, karena telah diketahui bahwa GeForce GTX 1070 akan dilengkapi dengan chip GDDR5 standar. Dikombinasikan dengan algoritme kompresi warna baru (lebih lanjut tentang itu nanti), bandwidth memori yang tinggi akan memungkinkan GP104 untuk mengelola sumber daya komputasi yang tersedia secara lebih efektif daripada yang dapat dibeli oleh produk berbasis chip GM104 dan GM200.

JEDEC merilis spesifikasi akhir dari standar baru hanya pada bulan Januari tahun ini, dan satu-satunya produsen GDDR5X saat ini adalah Micron. 3DNews tidak memiliki artikel terpisah tentang teknologi ini, jadi kami akan menjelaskan secara singkat inovasi yang dibawa GDDR5X dalam ulasan ini.

Protokol GDDR5X memiliki banyak kesamaan dengan GDDR5 (walaupun kedua chip berbeda secara elektrik dan fisik) - tidak seperti memori HBM, yang merupakan tipe yang berbeda secara fundamental, yang membuat koeksistensi dengan antarmuka GDDR5 (X) dalam satu GPU hampir tidak mungkin. Untuk alasan ini, GDDR5X disebut demikian, dan bukan, misalnya, GDDR6.

Salah satu perbedaan utama antara GDDR5X dan GDDR5 adalah kemampuannya untuk mentransmisikan empat bit data per siklus sinyal (QDR - Quad Data Rate) sebagai lawan dari dua bit (DDR - Double Data Rate), seperti yang terjadi pada semua modifikasi sebelumnya. memori DDR SDRAM. Frekuensi fisik inti memori dan antarmuka transfer data terletak kira-kira dalam kisaran yang sama dengan chip GDDR5.

Dan untuk memenuhi peningkatan bandwidth chip dengan data, GDDR5X menggunakan data prefetch yang ditingkatkan dari 8n ke 16n. Dengan antarmuka 32-bit dari chip terpisah, ini berarti bahwa pengontrol tidak memilih 32, tetapi 64 byte data dalam satu siklus akses memori. Akibatnya, bandwidth antarmuka yang dihasilkan mencapai 10-14 Gb / s per pin pada frekuensi CK (jam perintah) 1250-1750 MHz - ini adalah frekuensi yang digunakan untuk pemantauan dan overclocking kartu video, seperti GPU-Z, menunjukkan. Setidaknya untuk saat ini, angka tersebut termasuk dalam standar, tetapi di masa depan Micron berencana untuk mencapai angka hingga 16 Gb / s.

Keuntungan GDDR5X berikutnya adalah peningkatan volume chip - dari 8 menjadi 16 Gb. GeForce GTX 1080 hadir dengan delapan chip 8Gb, tetapi di masa depan, produsen kartu grafis akan dapat menggandakan jumlah RAM karena chip yang lebih luas tersedia. Seperti GDDR5, GDDR5X memungkinkan penggunaan dua chip pada satu pengontrol 32-bit dalam apa yang disebut mode clamshell, yang memungkinkan untuk menangani memori 32 GB pada bus GP104 256-bit. Selain itu, standar GDDR5X, selain kekuatan yang sama dari dua, menjelaskan volume chip 6 dan 12 Gb, yang akan memungkinkan Anda untuk memvariasikan jumlah total memori on-board kartu video lebih "fraksional" - misalnya, melengkapi kartu dengan bus RAM 384-bit dengan chip dengan total 9 GB.

Berlawanan dengan ekspektasi yang menyertai informasi pertama tentang GDDR5X, yang muncul di domain publik, konsumsi daya memori jenis baru ini sebanding dengan GDDR5 atau hanya sedikit lebih tinggi dari yang terakhir. Untuk mengimbangi peningkatan daya pada bandwidth tinggi, pembuat standar mengurangi tegangan suplai inti dari 1,5 V, standar untuk GDDR5, menjadi 1,35 V. Selain itu, standar memperkenalkan kontrol frekuensi chip sebagai tindakan wajib tergantung pada sensor suhu. Masih belum diketahui berapa banyak memori baru yang benar-benar tergantung pada kualitas pembuangan panas, tetapi mungkin sekarang kita akan lebih sering melihat sistem pendingin pada kartu video yang tidak hanya melayani GPU, tetapi juga chip RAM, sementara produsen berbasis GDDR5 kartu untuk sebagian besar mengabaikan kemungkinan ini.

Orang mungkin mendapat kesan bahwa transisi dari GDDR5 ke GDDR5X adalah tugas yang mudah bagi NVIDIA karena keterkaitan teknologi ini. Selain itu, GeForce GTX 1080 dilengkapi dengan bandwidth memori terendah yang ditentukan oleh standar - 10 Gb / s per pin. Namun, implementasi praktis dari antarmuka baru dikaitkan dengan sejumlah kesulitan teknik. Mentransfer data pada frekuensi tinggi seperti itu membutuhkan desain yang cermat dari topologi bus data di papan untuk meminimalkan interferensi dan redaman sinyal di konduktor.

Bandwidth bus 256-bit yang dihasilkan di GeForce GTX 1080 adalah 320 GB/s, yang tidak jauh lebih rendah dari kecepatan 336 GB/s, yang dicirikan oleh GeForce GTX 980 Ti (TITAN X) dengan 384-bit-nya. GDDR5 bus pada 7 Gb/s per pin.

Sekarang Mesin PolyMorph dapat membuat hingga 16 proyeksi (viewports) pada saat yang sama, ditempatkan sewenang-wenang, dan difokuskan pada satu atau dua titik, bergeser sepanjang sumbu horizontal relatif satu sama lain. Konversi ini dilakukan sepenuhnya di perangkat keras, dan tidak menyebabkan penurunan kinerja apa pun.

Teknologi ini memiliki dua aplikasi yang cukup dapat diprediksi. Yang pertama adalah helm VR. Karena dua pusat proyeksi, Pascal dapat membuat gambar stereo dalam satu lintasan (namun, ini hanya tentang geometri - GPU masih harus melakukan pekerjaan dua kali lebih banyak untuk rasterisasi tekstur dalam dua bingkai).

Selain itu, SMP memungkinkan pada tingkat geometri untuk mengkompensasi distorsi gambar, yang diperkenalkan oleh lensa helm. Untuk ini, gambar untuk setiap mata dibentuk oleh empat proyeksi terpisah, yang kemudian direkatkan ke bidang menggunakan filter pasca-pemrosesan. Jadi, tidak hanya akurasi geometrik dari gambar akhir yang dicapai, tetapi juga kebutuhan untuk memproses 1/3 piksel, yang jika tidak, masih akan hilang selama koreksi akhir dari proyeksi datar standar untuk kelengkungan lensa, adalah dihilangkan.

Satu-satunya pengoptimalan untuk VR yang dimiliki Maxwell adalah bahwa area periferal gambar, yang paling banyak dikompresi untuk keluaran melalui lensa, dapat dirender pada resolusi yang lebih rendah, yang menghasilkan penghematan bandwidth hanya 10-15%.

Area berikutnya di mana fitur SMP diminati adalah dalam konfigurasi multi-monitor. Tanpa SMP, gambar pada beberapa layar yang disambungkan adalah bidang dari sudut pandang GPU, dan terlihat benar secara geometris asalkan layar di depan penampil sejajar, tetapi memasang pada suatu sudut tidak lagi terlihat benar - seolah-olah Anda cukup menekuk foto besar di beberapa tempat. Belum lagi dalam hal apa pun, pemirsa melihat persis gambar datar, dan bukan jendela ke dunia maya: jika Anda menoleh ke layar samping, objek di dalamnya akan tetap membentang, karena kamera virtual masih melihat di titik pusat.

Dengan bantuan SMP, driver kartu video dapat memperoleh informasi tentang lokasi fisik beberapa layar untuk memproyeksikan gambar untuk masing-masing layar melalui viewport-nya sendiri, yang pada akhirnya secara fungsional membawa perakitan multi-monitor lebih dekat ke tampilan penuh. "jendela".

Singkatnya, tujuan dari buffering rangkap tiga adalah untuk memisahkan proses rendering bingkai baru di pipa GPU dari pemindaian gambar dari buffer bingkai dengan memungkinkan kartu grafis membuat bingkai baru dengan kecepatan tinggi yang sewenang-wenang, menuliskannya ke dua bingkai yang berputar buffer. Dalam hal ini, konten bingkai terbaru dengan frekuensi yang merupakan kelipatan dari kecepatan refresh layar disalin ke buffer ketiga, dari mana monitor dapat mengambilnya tanpa jeda gambar. Dengan demikian, bingkai yang muncul di layar pada saat pemindaian dimulai selalu berisi informasi terbaru yang dihasilkan GPU.

Buffering tiga kali paling berguna pada monitor dengan kecepatan refresh 50-60Hz. Pada frekuensi 120-144 Hz, seperti yang telah kami tulis di artikel tentang G-Sync, mengaktifkan sinkronisasi vertikal, pada prinsipnya, meningkatkan latensi secara tidak signifikan, tetapi Sinkronisasi Cepat akan menghapusnya seminimal mungkin.

Jika Anda bertanya-tanya bagaimana Fast Sync dibandingkan dengan G-Sync (dan rekanan AMD Free Sync - tapi itu pertanyaan teoretis murni karena NVIDIA hanya mendukung variannya sendiri), maka G-Sync mengurangi latensi ketika GPU tidak punya waktu untuk menghasilkan bingkai baru pada saat pemindaian dimulai, dan Sinkronisasi Cepat, sebaliknya, mengurangi latensi saat kecepatan refresh frame dalam pipeline rendering lebih tinggi daripada kecepatan refresh layar. Selain itu, teknologi ini dapat bekerja sama.

Edisi Pendiri GeForce GTX 1080:desain

Nama sombong ini sekarang menjadi versi referensi dari GeForce GTX 1080. Dimulai dengan GeForce GTX 690, NVIDIA telah memberikan banyak perhatian pada bentuk di mana produk baru mereka memasuki pasar. Sampel referensi kartu video modern di bawah merek GeForce jauh dari pendahulunya yang sederhana, dilengkapi dengan sistem pendingin yang relatif tidak efisien dan berisik.

GeForce GTX 1080 Founder's Edition menggabungkan fitur desain terbaik dari kartu grafis Kepler dan Maxwell: selubung turbin aluminium, impeller pendingin yang terbuat dari bahan dengan kebisingan rendah, dan bingkai aluminium besar yang menambah kekakuan pada struktur dan menghilangkan panas dari chip RAM.


Sebagai bagian dari GTX 1080, ada dua komponen sekaligus yang muncul dan menghilang secara berkala dari kartu video referensi NVIDIA - heatsink GPU dengan ruang uap dan pelat belakang. Yang terakhir dibongkar sebagian tanpa obeng untuk memberikan aliran udara ke pendingin kartu video yang berdekatan dalam mode SLI.

Selain fungsi perwakilannya, sampel referensi kartu video diperlukan agar produsen kartu akhir dapat membelinya - dalam hal ini dari NVIDIA - dan memenuhi permintaan hingga perangkat dengan desain asli pada GPU yang sama siap. Namun kali ini, NVIDIA berencana untuk tetap menjual versi referensi selama masa pakai model dan mendistribusikan, antara lain, melalui situs resminya. Ini memotivasi harga GTX 1080 FE $100 lebih tinggi dibandingkan dengan $599 yang direkomendasikan untuk orang lain. Lagi pula, Founder's Edition tidak terlihat atau terasa seperti produk murahan.

Pada saat yang sama, kartu video memiliki frekuensi referensi, di bawahnya, seperti biasa, tidak ada produsen kartu dari desain aslinya yang akan jatuh. Juga tidak ada pertanyaan tentang pilihan GPU untuk GTX 1080 FE dalam hal potensi overclocking. Oleh karena itu, di seluruh massa implementasi GeForce GTX 1080, mungkin ada yang lebih mahal. Tetapi untuk sementara, Founder's Edition akan menjadi yang utama dan bahkan satu-satunya versi unggulan Pascal, yang secara otomatis menaikkan harga ecerannya sebesar $100 di atas "rekomendasi" NVIDIA.

GeForce GTX 1080 Ti memiliki memori GDDR5X 11GB, GPU 1583MHz (dapat di-overclock hingga 2000MHz dengan pendinginan stok), memori QDR 11GHz, dan kinerja 35% lebih baik daripada GeForce GTX 1080. Dan itu dengan harga diskon $699.

Kartu grafis baru ini menggantikan GeForce GTX 1080 dari posisi unggulan di jajaran GeForce dan menjadi Tercepat kartu grafis yang ada saat ini, serta kartu paling kuat pada arsitektur Pascal.

Kartu Gaming NVIDIA GeForce GTX 1080 Ti Paling Kuat

NVIDIA GeForce GTX 1080 Ti adalah impian pemain, yang akhirnya dapat menikmati game AAA terbaru, bermain di helm realitas virtual definisi tinggi, menikmati kejernihan dan akurasi grafik.

GTX 1080 Ti dirancang untuk menjadi kartu grafis lengkap pertama untuk game 4K. Ini dilengkapi dengan perangkat keras terbaru dan tercanggih yang tidak dapat dibanggakan oleh kartu video lain saat ini.

Di Sini presentasi resmi NVIDIA GeForce GTX 1080 Ti

“Saatnya untuk sesuatu yang baru. Yang 35% lebih cepat dari GTX 1080. Yang lebih cepat dari Titan X. Sebut saja yang pamungkas…

Dari tahun ke tahun, video game menjadi semakin indah, jadi kami memperkenalkan produk top generasi berikutnya sehingga Anda dapat menikmati game generasi berikutnya.”

Jen-Xun

Spesifikasi NVIDIA GeForce GTX 1080 Ti

NVIDIA belum melakukan pengisian untuk kartu video baru dan super kuatnya.

Itu dilengkapi dengan yang sama GPU GPU Pascal GP102, seperti Titan X (P), tetapi lebih unggul dari yang terakhir dalam segala hal.

Prosesor ini dilengkapi dengan 12 miliar transistor dan memiliki enam cluster untuk pemrosesan grafis, dua di antaranya diblokir. Ini memberikan total 28 prosesor multithread 128 core masing-masing.

Dengan demikian, kartu video GeForce GTX 1080 Ti memiliki 3584 CUDA core, 224 unit pemetaan tekstur, dan 88 ROP (unit yang bertanggung jawab untuk buffer-z, anti-aliasing, menulis gambar akhir ke buffer bingkai memori video).

Rentang overclocking mulai dari 1582 MHz hingga 2 GHz. Arsitektur Pascal dibuat terutama untuk overclocking dalam referensi dan overclocking yang lebih ekstrim dalam model non-standar.

GeForce GTX 1080 Ti juga memiliki Memori GDDR5X 11 GB, bekerja melalui bus 352-bit. Unggulan ini juga menampilkan solusi G5X tercepat hingga saat ini.

Dengan sistem kompresi baru dan tile caching, bandwidth kartu grafis GTX 1080 Ti dapat ditingkatkan hingga 1200Gb/s, yang lebih unggul dari teknologi HBM2 AMD.

Spesifikasi NVIDIA GeForce GTX 1080 Ti :

Karakteristik GTX TItan X Pascal GTX 1080 Ti GTX 1080
Proses teknologi 16 nm 16nm 16 nm
transistor 12 miliar 12 miliar 7,2 miliar
Daerah kristal 471mm² 471mm² 314mm²
Penyimpanan 12GB GDDR5X 11GB GDDR5X 8GB GDDR5X
Kecepatan memori 10 Gb/dtk 11 Gb/dtk 11 Gb/dtk
Antarmuka memori 384-bit 352-bit 256-bit
Bandwidth 480GB/dtk 484 GB/dtk 320GB/dtk
inti CUDA 3584 3584 2560
frekuensi dasar 1417 1607
Frekuensi percepatan 1530MHz 1583 MHz 1730 MHz
Kekuatan komputasi 11 teraflop 11.5 teraflop 9 teraflop
Daya termal 250W 250W 180W
Harga 1200$ US$699 499$

Mendinginkan NVIDIA GeForce GTX 1080 Ti

Pendiri GeForce GTX 1080 Ti menghadirkan solusi aliran udara baru yang memungkinkan pendinginan papan yang lebih baik dan juga lebih senyap daripada desain sebelumnya. Semua ini memungkinkan untuk melakukan overclock kartu video lebih banyak dan mencapai kecepatan yang lebih besar. Selain itu, efisiensi pendinginan ditingkatkan dengan Catu daya 7 fase pada 14 transistor dualFET efisiensi tinggi.

GeForce GTX 1080 Ti hadir dengan desain NVTTM terbaru, yang memperkenalkan Vapor Cooling Chamber baru yang memiliki area pendinginan dua kali lipat dari Titan X (P). Desain termal baru ini membantu mencapai pendinginan optimal dan mempercepat GPU kartu grafis Anda di atas spesifikasi dengan teknologi GPU Boost 3.0.

NVIDIA GeForce GTX 1080 Ti adalah impian seorang overclocker

Jadi, apa yang kita lakukan dengan kekuatan kartu video yang mengesankan ini? Jawabannya jelas - overclock hingga batasnya. Selama acara tersebut, NVIDIA menunjukkan potensi overclocking yang luar biasa dari kartu grafis GTX 1080 Ti mereka. Ingatlah bahwa mereka berhasil mencapai frekuensi prosesor 2,03 GHz pada 60 FPS yang diblokir.



Apa lagi yang harus dibaca?