کارت های ویدئویی آشنایی با کارت های پاسکال GPU GP104

سال 2016 در حال پایان است، اما سهم او در صنعت بازی برای مدت طولانی با ما باقی خواهد ماند. اولاً ، کارت های ویدیویی از اردوگاه قرمز به روز رسانی غیرمنتظره ای موفقیت آمیز در محدوده قیمت متوسط ​​دریافت کردند و ثانیاً ، NVIDIA یک بار دیگر ثابت کرد که بیهوده نیست که 70٪ از بازار را اشغال می کند. مکسول ها خوب بودند، GTX 970 به حق یکی از بهترین کارت ها برای پول در نظر گرفته می شد، اما پاسکال یک موضوع کاملاً متفاوت است.

نسل جدید سخت‌افزار در مواجهه با GTX 1080 و 1070 به معنای واقعی کلمه نتایج سیستم‌های سال گذشته و بازار سخت‌افزار مورد استفاده پرچم‌دار را مدفون کرد، در حالی که خطوط «جوان‌تر» در مواجهه با GTX 1060 و 1050 موفقیت خود را در مقرون‌به‌صرفه‌تر تثبیت کردند. بخش ها صاحبان GTX980Ti و دیگر تایتان‌ها با اشک تمساح گریه می‌کنند: اسلحه‌های اوبر آنها برای هزاران روبل 50 درصد هزینه و 100 درصد خودنمایی را به یکباره از دست دادند. خود انویدیا ادعا می کند که 1080 سریعتر از TitanX سال گذشته است، 1070 به راحتی 980Ti را "هپ" می کند، و 1060 نسبتاً بودجه به صاحبان سایر کارت ها آسیب می رساند.

آیا واقعاً اینجاست که پاهای عملکرد بالا از آنجا رشد می کند و در آستانه تعطیلات و شادی های ناگهانی مالی با آن چه باید کرد و همچنین دقیقاً با چه چیزی راضی بود، می توانید در این طولانی و کمی خسته کننده بدانید مقاله.

شما می توانید انویدیا را دوست داشته باشید یا ... آن را دوست نداشته باشید، اما تنها یک موفقیت از یک جهان جایگزین می تواند انکار کند که در حال حاضر در زمینه مهندسی ویدیو پیشرو است. از آنجایی که Vega از AMD هنوز معرفی نشده است، ما هنوز پرچمدار RX را در Polaris ندیده ایم، و R9 Fury با 4 گیگابایت حافظه آزمایشی خود را نمی توان واقعاً یک کارت امیدوار کننده در نظر گرفت (VR و 4K همچنان می خواهند کمی بیشتر از آنچه او دارد) - ما آنچه را داریم داریم. در حالی که 1080 Ti و RX 490 مشروط، RX Fury و RX 580 فقط شایعه و انتظار هستند، ما زمان داریم تا سری فعلی NVIDIA را مرتب کنیم و ببینیم این شرکت در سال‌های اخیر چه دستاوردهایی داشته است.

آشفتگی و تاریخچه پیدایش پاسکال

NVIDIA به طور مرتب دلایلی برای "دوست نداشتن خود" ارائه می دهد. تاریخچه GTX 970 و "حافظه 3.5 گیگابایتی" آن، "NVIDIA، لعنت به شما!" از Linus Torvalds، پورنوگرافی کامل در خطوط گرافیک دسکتاپ، امتناع از کار با سیستم رایگان و بسیار رایج FreeSync به نفع اختصاصی خود ... به طور کلی دلایل کافی وجود دارد. یکی از آزاردهنده ترین چیزها برای من شخصاً اتفاقی است که با دو نسل گذشته کارت گرافیک ها رخ داد. اگر توضیحی تقریبی داشته باشیم، پس پردازنده‌های گرافیکی «مدرن» از روزهای پشتیبانی از DX10 آمده‌اند. و اگر امروز به دنبال "پدربزرگ" سری دهم باشید، آنگاه آغاز معماری مدرن در منطقه چهارصدمین سری شتاب دهنده های ویدئویی و معماری فرمی خواهد بود. در آن بود که ایده طراحی "بلوک" از به اصطلاح. "هسته های CUDA" در اصطلاح NVIDIA.

فرمی

اگر کارت‌های ویدئویی سری‌های 8000، 9000 و 200 اولین گام‌ها در تسلط بر مفهوم، "معماری مدرن" با پردازنده‌های سایه‌زن جهانی (مثل AMD، بله) بودند، پس سری 400 از قبل تا حد ممکن شبیه آنچه ما بودیم بود. در برخی از 1070 ببینید. بله، فرمی هنوز یک عصا کوچک Legacy از نسل های قبلی داشت: واحد سایه زن با فرکانس دو برابر هسته مسئول محاسبه هندسه کار می کرد، اما تصویر کلی برخی از GTX 480 با برخی دیگر تفاوت چندانی ندارد. 780، چند پردازنده‌های SM خوشه‌بندی می‌شوند، خوشه‌ها از طریق یک حافظه پنهان مشترک با کنترل‌کننده‌های حافظه ارتباط برقرار می‌کنند و نتایج کار توسط یک بلوک شطرنجی مشترک برای خوشه نمایش داده می‌شود:


بلوک دیاگرام پردازنده GF100 مورد استفاده در GTX 480.

در سری 500، هنوز همان فرمی وجود داشت، کمی بهبود یافته در "داخل" و با ازدواج کمتر، بنابراین راه حل های برتر 512 هسته CUDA به جای 480 برای نسل قبلی دریافت کردند. از نظر بصری، فلوچارت ها معمولاً دوقلو به نظر می رسند:


GF110 قلب GTX 580 است.

در بعضی جاها فرکانس ها را افزایش دادند، طراحی خود تراشه را کمی تغییر دادند، هیچ انقلابی رخ نداد. همه همان فناوری پردازش 40 نانومتری و 1.5 گیگابایت حافظه ویدیویی در یک گذرگاه 384 بیتی.

کپلر

با ظهور معماری کپلر، چیزهای زیادی تغییر کرده است. می توان گفت که این نسل بود که به کارت های ویدئویی NVIDIA بردار توسعه داد که منجر به ظهور مدل های فعلی شد. نه تنها معماری GPU تغییر کرده است، بلکه آشپزخانه برای توسعه سخت افزار جدید در داخل NVIDIA نیز تغییر کرده است. اگر فرمی بر روی یافتن راه حلی متمرکز بود که عملکرد بالایی را ارائه دهد، پس کپلر روی بهره وری انرژی، استفاده معقول از منابع، فرکانس های بالا و سهولت بهینه سازی موتور بازی برای قابلیت های یک معماری با کارایی بالا شرط بندی می کرد.

تغییرات جدی در طراحی GPU ایجاد شد: نه "گل سرسبد" GF100 / GF110، بلکه "بودجه" GF104 / GF114 که در یکی از محبوب ترین کارت های آن زمان - GTX استفاده می شد. 460.


معماری کلی پردازنده تنها با استفاده از دو بلوک بزرگ با چهار ماژول چندپردازنده سایه زن یکپارچه ساده شده است. چیدمان پرچمداران جدید چیزی شبیه به این بود:


GK104 در GTX 680 نصب شده است.

همانطور که مشاهده می کنید، هر یک از واحدهای محاسباتی نسبت به معماری قبلی وزن قابل توجهی یافته و SMX نامگذاری شده است. ساختار بلوک را با آنچه در بالا در بخش فرمی نشان داده شده است مقایسه کنید.


چند پردازنده SMX GPU GK104

سری ششصدم کارت گرافیک روی یک پردازنده تمام عیار حاوی شش بلوک ماژول های محاسباتی نداشت، گل سرسبد GTX 680 با GK104 نصب شده بود و خنک تر از آن فقط 690 "دو سر" بود که فقط روی آن بود. دو پردازنده با تمام اتصالات و حافظه لازم تولید شدند. یک سال بعد، پرچمدار GTX 680 با تغییرات جزئی به GTX 770 تبدیل شد و تاج تکامل معماری کپلر کارت های ویدیویی مبتنی بر کریستال GK110 بود: GTX Titan و Titan Z، 780Ti و 780 معمولی. همه همان 28 نانومتر، تنها پیشرفت کیفی (که به کارت‌های ویدئویی مصرف‌کننده مبتنی بر GK110 نمی‌رسد) - عملکرد با عملیات‌های با دقت مضاعف.

ماکسول

اولین کارت گرافیک مبتنی بر معماری Maxwell… NVIDIA GTX 750Ti بود. کمی بعد، برش های آن در مقابل GTX 750 و 745 ظاهر شد (فقط به عنوان یک راه حل یکپارچه ارائه می شود)، و در زمان ظهور آنها، کارت های پایین تر واقعاً بازار شتاب دهنده های ویدیویی ارزان را تکان دادند. معماری جدید بر روی تراشه GK107 آزمایش شد: قطعه کوچکی از پرچمداران آینده با هیت سینک های بزرگ و قیمتی ترسناک. چیزی شبیه این به نظر می رسید:


بله، فقط یک واحد محاسباتی وجود دارد، اما چقدر پیچیده تر از نسخه قبلی است، خودتان مقایسه کنید:


به جای یک بلوک بزرگ SMX، که به عنوان یک "آجر ساختمانی" اساسی در ایجاد GPU استفاده می شد، از بلوک های SMM جدید و فشرده تر استفاده می شود. واحدهای محاسباتی اولیه کپلر خوب بودند، اما از استفاده ضعیف از ظرفیت رنج می بردند - یک تشنگی پیش پا افتاده برای دستورالعمل: سیستم نمی توانست دستورالعمل ها را روی تعداد زیادی از محرک ها پخش کند. پنتیوم 4 تقریباً همین مشکلات را داشت: برق بیکار بود و خطا در پیش بینی انشعاب بسیار گران بود. در ماکسول، هر ماژول محاسباتی به چهار قسمت تقسیم می‌شد که به هر کدام از آنها بافر دستورالعمل و زمان‌بندی تاب و پیچیدگی خاص خود داده شد - همان نوع عملیات روی گروهی از رشته‌ها. در نتیجه، کارایی افزایش یافته است و خود پردازنده‌های گرافیکی نسبت به پیشینیان خود انعطاف‌پذیرتر شده‌اند و مهم‌تر از همه، به قیمت خون کم و یک کریستال نسبتاً ساده، معماری جدیدی ساخته‌اند. داستان به صورت مارپیچی پیش می رود، هه.

بیش از همه، راه حل های تلفن همراه از نوآوری ها سود برده اند: مساحت کریستال یک چهارم افزایش یافته است و تعداد واحدهای اجرایی چند پردازنده تقریبا دو برابر شده است. از شانس و اقبال، این سری های 700 و 800 بودند که آشفتگی اصلی را در طبقه بندی ایجاد کردند. تنها در داخل 700، کارت های ویدئویی بر اساس معماری کپلر، ماکسول و حتی فرمی وجود داشت! به همین دلیل است که Maxwells رومیزی برای دور شدن از هجوم نسل های قبلی، سری 900 معمولی را دریافت کرد که متعاقباً کارت های موبایل GTX 9xx M از آن جدا شدند.

پاسکال - توسعه منطقی معماری ماکسول

آنچه در Kepler گذاشته شد و در نسل Maxwell ادامه یافت در پاسکال باقی ماند: اولین کارت‌های ویدئویی مصرف‌کننده بر اساس تراشه نه چندان بزرگ GP104 منتشر شدند که از چهار خوشه پردازش گرافیکی تشکیل شده است. GP100 با اندازه کامل و شش کلاستر به یک GPU نیمه حرفه ای گران قیمت با نام تجاری TITAN X رفت. با این حال، حتی 1080 "برش خورده" روشن می شود تا نسل های گذشته احساس بیماری کنند.

ارتقای کارایی

شالوده پایه ها

ماکسول پایه و اساس معماری جدید شد، نمودار پردازنده های قابل مقایسه (GM104 و GP104) تقریباً یکسان به نظر می رسد، تفاوت اصلی در تعداد چند پردازنده های بسته بندی شده در خوشه ها است. کپلر (نسل 700) دارای دو چند پردازنده بزرگ SMX بود که هر کدام در ماکسول به 4 قسمت تقسیم شدند و تسمه لازم را فراهم کردند (تغییر نام به SMM). در پاسکال، دو مورد دیگر به هشت مورد موجود در بلوک اضافه شد، به طوری که 10 مورد از آنها وجود داشت، و مخفف یک بار دیگر قطع شد: اکنون چند پردازنده های منفرد دوباره SM نامیده می شوند.


بقیه یک شباهت کامل بصری است. درست است، تغییرات حتی بیشتر در داخل وجود داشت.

موتور پیشرفت

تغییرات نامناسب زیادی در داخل بلوک چند پردازنده وجود دارد. برای اینکه وارد جزئیات خیلی کسل کننده ی کارهایی که دوباره انجام شده، چگونه بهینه شده است و قبلاً چگونه بوده، نروم، تغییرات را خیلی مختصر توضیح می دهم، در غیر این صورت برخی در حال خمیازه کشیدن هستند.

اول از همه، پاسکال قسمتی را که مسئول مؤلفه هندسی تصویر است تصحیح کرد. این برای تنظیمات چند مانیتور و کار با کلاه های VR ضروری است: با پشتیبانی مناسب از موتور بازی (و این پشتیبانی به زودی با تلاش NVIDIA ظاهر می شود)، کارت گرافیک می تواند هندسه را یک بار محاسبه کند و چندین پیش بینی هندسه برای هر کدام دریافت کند. از صفحه نمایش ها این به طور قابل توجهی بار را در VR نه تنها در زمینه کار با مثلث ها کاهش می دهد (در اینجا افزایش فقط دو برابر است)، بلکه در کار با جزء پیکسل نیز کاهش می یابد.

980Ti شرطی هندسه را دو بار (برای هر چشم) می خواند و سپس آن را با بافت ها پر می کند و برای هر یک از تصاویر پس پردازش انجام می دهد، در مجموع حدود 4.2 میلیون نقطه را پردازش می کند، که حدود 70٪ آن در واقع استفاده خواهد شد. بقیه قطع می شوند یا به ناحیه ای می افتند که به سادگی برای هر یک از چشم ها نمایش داده نمی شود.

1080 یک بار هندسه را پردازش می کند و پیکسل هایی که در تصویر نهایی قرار نمی گیرند به سادگی محاسبه نمی شوند.


با مولفه پیکسل، در واقع همه چیز حتی سردتر است. از آنجایی که افزایش پهنای باند حافظه تنها از دو جهت قابل انجام است (افزایش فرکانس و پهنای باند در هر ساعت) و هر دو روش هزینه بر است و "گرسنگی" GPU از نظر حافظه در طول سال ها بیشتر و بیشتر نمایان می شود. رشد وضوح و توسعه VR همچنان روش‌های «رایگان» را برای افزایش پهنای باند بهبود می‌بخشد. اگر نمی توانید گذرگاه را گسترش دهید و فرکانس را افزایش دهید - باید داده ها را فشرده کنید. در نسل‌های قبلی فشرده‌سازی سخت‌افزار قبلاً پیاده‌سازی شده بود، اما در پاسکال به سطح جدیدی منتقل شد. باز هم بدون ریاضیات خسته کننده انجام می دهیم و یک مثال آماده از NVIDIA می گیریم. در سمت چپ - ماکسول، در سمت راست - پاسکال، نقاطی که جزء رنگ آنها تحت فشرده سازی بدون تلفات قرار گرفته است با رنگ صورتی پر شده است.


به جای انتقال کاشی های خاص 8×8، حافظه حاوی رنگ "متوسط" + ماتریس انحراف از آن است، چنین داده هایی از ½ تا ⅛ حجم اصلی را می گیرند. در کارهای واقعی، بار روی زیرسیستم حافظه از 10 به 30 درصد کاهش یافته است، بسته به تعداد گرادیان ها و یکنواختی پر شدن در صحنه های پیچیده روی صفحه نمایش.


این به نظر مهندسان کافی نبود و برای کارت گرافیک پرچمدار (GTX 1080) از حافظه با پهنای باند افزایش یافته استفاده شد: GDDR5X دو برابر بیت داده (نه دستورالعمل) در هر ساعت انتقال می دهد و بیش از 10 گیگابیت بر ثانیه در ساعت تولید می کند. اوج. انتقال داده ها با چنین سرعت دیوانه کننده ای نیاز به یک چیدمان حافظه کاملاً جدید روی برد داشت و در مجموع بازده حافظه نسبت به پرچمداران نسل قبلی 60-70٪ افزایش یافت.

کاهش تأخیر و زمان خرابی

کارت‌های ویدئویی مدت‌هاست که نه تنها در پردازش گرافیکی، بلکه در محاسبات مربوطه نیز مشغول هستند. فیزیک اغلب به فریم های انیمیشن گره خورده است و به طور قابل توجهی موازی است، به این معنی که محاسبه بر روی GPU بسیار کارآمدتر است. اما بزرگترین مولد مشکلات در زمان های اخیر صنعت VR بوده است. بسیاری از موتورهای بازی، متدولوژی‌های توسعه و دسته‌ای از فناوری‌های دیگر که برای کار با گرافیک استفاده می‌شوند، به سادگی برای VR طراحی نشده‌اند، مورد حرکت دوربین یا تغییر موقعیت سر کاربر در حین رندر کردن فریم به سادگی پردازش نشده است. اگر همه چیز را همانطور که هست رها کنید، همگام سازی جریان ویدئو و حرکات شما باعث حملات دریایی می شود و به سادگی با غوطه ور شدن در دنیای بازی تداخل پیدا می کند، به این معنی که فریم های "اشتباه" به سادگی باید پس از رندر دور ریخته شوند و شروع شوند. دوباره کار می کند و اینها تاخیرهای جدیدی در نمایش تصویر روی نمایشگر هستند. تاثیر مثبتی بر عملکرد ندارد.

پاسکال این مشکل را در نظر گرفت و تعادل بار پویا و امکان وقفه‌های ناهمزمان را معرفی کرد: اکنون واحدهای اجرایی می‌توانند برای پردازش کارهای فوری‌تر، وظیفه فعلی را قطع کنند (نتایج کار را در حافظه پنهان ذخیره می‌کنند) یا به سادگی فریم زیر کشیده را بازنشانی می‌کنند. یک مورد جدید را شروع کنید، به طور قابل توجهی تاخیر در شکل گیری تصویر را کاهش می دهد. البته ذینفع اصلی در اینجا VR و بازی ها هستند، اما این فناوری همچنین می تواند به محاسبات همه منظوره کمک کند: شبیه سازی برخورد ذرات افزایش عملکرد 10-20٪ را دریافت کرد.

تقویت 3.0

کارت‌های ویدئویی NVIDIA مدت‌ها پیش، در نسل 700 بر اساس معماری کپلر، اورکلاک خودکار دریافت کردند. در ماکسول، اورکلاک بهبود یافته بود، اما هنوز هم، به بیان ملایم، اینطور بود: بله، کارت گرافیک کمی سریعتر کار می کرد، تا زمانی که بسته حرارتی اجازه می داد، 20-30 مگا هرتز اضافی برای هسته و 50 -100 برای حافظه سیمی از کارخانه، افزایش داد، اما کمی. اینطوری کار کرد:


حتی اگر حاشیه ای برای دمای GPU وجود داشته باشد، عملکرد افزایش نمی یابد. با ظهور پاسکال، مهندسان این باتلاق غبارآلود را تکان دادند. Boost 3.0 در سه جنبه کار می کند: تجزیه و تحلیل دما، افزایش سرعت ساعت و افزایش ولتاژ روی تراشه. اکنون تمام آب ها از GPU خارج می شوند: درایورهای استاندارد NVIDIA این کار را انجام نمی دهند، اما نرم افزار فروشندگان به شما امکان می دهد یک منحنی نمایه سازی را با یک کلیک ایجاد کنید، که کیفیت نمونه کارت گرافیکی خاص شما را در نظر می گیرد.

EVGA یکی از اولین ها در این زمینه بود، ابزار Precision XOC آن دارای یک اسکنر تایید شده NVIDIA است که به طور متوالی از کل محدوده دما، فرکانس و ولتاژ عبور می کند و حداکثر کارایی را در همه حالت ها به دست می آورد.

در اینجا یک فناوری فرآیند جدید، حافظه پرسرعت، انواع بهینه‌سازی‌ها و کاهش گرمای تراشه‌ها را اضافه کنید، و نتیجه به سادگی نامناسب خواهد بود. از 1500 مگاهرتز "پایه"، اگر یک کپی خوب پیدا شود، می توان GTX 1060 را بیش از 2000 مگاهرتز فشرده کرد و فروشنده با خنک کننده مشکلی ایجاد نمی کند.

بهبود کیفیت تصویر و درک از دنیای بازی

عملکرد در همه زمینه ها افزایش یافته است، اما تعدادی از نکات وجود دارد که چندین سال است که هیچ تغییر کیفی در آنها ایجاد نشده است: در کیفیت تصویر نمایش داده شده. و این در مورد جلوه های گرافیکی نیست، آنها توسط توسعه دهندگان بازی ارائه می شوند، بلکه در مورد اینکه دقیقاً چه چیزی روی مانیتور می بینیم و چگونه بازی برای کاربر نهایی به نظر می رسد.

همگام سازی عمودی سریع

مهم ترین ویژگی پاسکال، بافر سه گانه برای خروجی فریم است که به طور همزمان تاخیرهای بسیار کم در رندر را فراهم می کند و همگام سازی عمودی را تضمین می کند. تصویر خروجی در یک بافر ذخیره می شود، آخرین فریم رندر شده در دیگری ذخیره می شود و تصویر فعلی در بافر سوم ترسیم می شود. خداحافظ راه راه های افقی و پارگی، سلام عملکرد بالا. V-Sync کلاسیک در اینجا هیچ تاخیری ندارد (زیرا هیچ کس عملکرد کارت گرافیک را محدود نمی کند و همیشه با بالاترین نرخ فریم ممکن ترسیم می کند) و فقط فریم های کاملاً شکل گرفته به مانیتور ارسال می شوند. فکر می کنم بعد از سال جدید یک پست بزرگ جداگانه در مورد V-Sync، G-Sync، Free-Sync و این الگوریتم جدید همگام سازی سریع از Nvidia بنویسم، جزئیات بیش از حد وجود دارد.

اسکرین شات های معمولی

نه، آن اسکرین شات هایی که الان هستند فقط مایه شرمساری هستند. تقریباً همه بازی‌ها از فناوری زیادی استفاده می‌کنند تا تصویر در حرکت را شگفت‌انگیز و نفس‌گیر کنند و اسکرین‌شات‌ها به یک کابوس واقعی تبدیل شده‌اند: به جای یک تصویر خیره‌کننده واقع‌گرایانه که متشکل از انیمیشن، جلوه‌های ویژه‌ای که از ویژگی‌های بینایی انسان بهره‌برداری می‌کند، برخی را مشاهده می‌کنید. یک جور زاویه ای من نمی فهمم با رنگ های عجیب و غریب و تصویر کاملاً بی روح.

فناوری جدید NVIDIA Ansel مشکل را با اسکرین شات ها حل می کند. بله، اجرای آن مستلزم ادغام کد خاصی از توسعه دهندگان بازی است، اما حداقل دستکاری واقعی وجود دارد، اما سود آن بسیار زیاد است. Ansel می داند که چگونه بازی را متوقف کند، کنترل دوربین را به دستان شما منتقل می کند و سپس فضایی برای خلاقیت دارد. شما فقط می توانید بدون رابط کاربری گرافیکی و زاویه مورد علاقه خود عکس بگیرید.


می‌توانید صحنه‌های موجود را با وضوح فوق‌العاده بالا رندر کنید، پانورامای ۳۶۰ درجه بگیرید، آن‌ها را به یک هواپیما بدوزید، یا آن‌ها را به‌صورت سه بعدی برای مشاهده در کلاه VR بگذارید. با 16 بیت در هر کانال عکس بگیرید، آن را به عنوان یک نوع فایل RAW ذخیره کنید و سپس با نوردهی، تعادل رنگ سفید و سایر تنظیمات بازی کنید تا اسکرین شات ها دوباره جذاب شوند. ما انتظار داریم تعداد زیادی محتوای جالب از طرفداران بازی در یک یا دو سال آینده ارائه شود.

پردازش صدای ویدیویی

کتابخانه های جدید NVIDIA Gameworks ویژگی های زیادی را در اختیار توسعه دهندگان قرار می دهد. آنها عمدتاً VR و سرعت بخشیدن به محاسبات مختلف و همچنین بهبود کیفیت تصویر را هدف قرار می دهند، اما یکی از ویژگی ها جالب ترین و شایسته ذکر است. VRWorks Audio کار با صدا را به سطحی کاملاً جدید می برد، صدا را نه با فرمول های متوسط ​​معمولی بسته به فاصله و ضخامت مانع شمارش می کند، بلکه یک ردیابی سیگنال صوتی کامل را با تمام بازتاب ها از محیط، طنین و جذب صدا در انواع مختلف انجام می دهد. مواد. NVIDIA یک مثال ویدیویی خوب از نحوه عملکرد این فناوری دارد:


با هدفون بهتر تماشا کنید

صرفاً از نظر تئوری، هیچ چیز مانع اجرای چنین شبیه‌سازی در Maxwell نمی‌شود، اما بهینه‌سازی‌ها از نظر اجرای ناهمزمان دستورالعمل‌ها و یک سیستم وقفه جدید تعبیه‌شده در پاسکال به شما این امکان را می‌دهد که محاسبات را بدون تأثیر زیادی بر نرخ فریم انجام دهید.

در کل پاسکال

در واقع، تغییرات حتی بیشتر است، و بسیاری از آنها به قدری عمیق در معماری هستند که می توان در مورد هر یک از آنها مقاله بزرگی نوشت. نوآوری های کلیدی عبارتند از طراحی بهبود یافته خود تراشه ها، بهینه سازی در پایین ترین سطح از نظر هندسه و عملکرد ناهمزمان با مدیریت کامل وقفه، بسیاری از ویژگی های متناسب با وضوح بالا و VR، و البته فرکانس های دیوانه کننده که نسل‌های گذشته کارت‌های ویدئویی نمی‌توانستند رویاپردازی کنند. دو سال پیش، 780 Ti به سختی از آستانه 1 گیگاهرتز عبور کرد، امروز 1080 در برخی موارد روی دو کار می کند: و در اینجا شایستگی تنها در کاهش فرآیند تولید از 28 نانومتر به 16 یا 14 نانومتر نیست: بسیاری از چیزها در بهینه سازی شده اند. پایین ترین سطح، از طراحی ترانزیستورها شروع می شود، به توپولوژی آنها و تسمه در داخل خود تراشه ختم می شود.

برای هر مورد جداگانه

خط کارت‌های گرافیک سری 10 NVIDIA واقعاً متعادل است و کاملاً تمام موارد کاربران بازی را پوشش می‌دهد، از گزینه "بازی استراتژی و دیابلو" تا "من بازی‌های برتر را با کیفیت 4k می‌خواهم". تست‌های بازی بر اساس یک تکنیک ساده انتخاب شدند: پوشش دادن طیف وسیعی از تست‌ها تا حد امکان با کوچک‌ترین مجموعه تست‌های ممکن. BF1 یک نمونه عالی از بهینه سازی خوب است و به شما امکان می دهد عملکرد DX11 را در مقابل DX12 در شرایط یکسان مقایسه کنید. DOOM فقط برای مقایسه OpenGL و Vulkan به همین دلیل انتخاب شد. سومین "Witcher" در اینجا به عنوان یک اسباب‌بازی بسیار بهینه عمل می‌کند، که در آن حداکثر تنظیمات گرافیکی اجازه می‌دهد تا هر پرچم‌داری به سادگی با استفاده از کدهای مزخرف خراب شود. این دستگاه از DX11 کلاسیک استفاده می کند که با زمان تست شده و در درایورها کاملاً کار شده است و برای توسعه دهندگان بازی آشنا است. Overwatch رپ را برای همه بازی های "تورنمنت" که کدهای بهینه سازی شده ای دارند، می گیرد، در واقع جالب است که میانگین FPS در یک بازی که از نظر گرافیکی خیلی سنگین نیست، چقدر بالا است و برای کار در "تیز شده است. پیکربندی متوسط" در سراسر جهان موجود است.

من فوراً نظرات کلی را ارائه خواهم داد: Vulkan از نظر حافظه ویدیویی بسیار حریص است ، زیرا این ویژگی یکی از شاخص های اصلی است و شما این تز را در معیارها مشاهده خواهید کرد. DX12 در کارت های AMD بسیار بهتر از NVIDIA رفتار می کند، اگر "سبز" کاهش متوسط ​​FPS را در API های جدید نشان دهد، برعکس، "قرمز" افزایش نشان می دهد.

بخش نوجوانان

GTX 1050

NVIDIA جوانتر (بدون حروف Ti) به اندازه خواهر شارژ شده خود با حروف Ti جالب نیست. سرنوشت آن یک راه حل بازی برای بازی‌های MOBA، استراتژی‌ها، شوترهای مسابقات و سایر بازی‌ها است که جزئیات و کیفیت تصویر برای کسی جالب نیست، و نرخ فریم ثابت با حداقل پول چیزی است که پزشک دستور داده است.


در تمام تصاویر فرکانس اصلی وجود ندارد، زیرا برای هر نمونه جداگانه است: 1050 بدون اضافی. ممکن است برق در حال تعقیب نباشد و خواهرش با یک کانکتور 6 پین به راحتی فرکانس 1.9 گیگاهرتز مشروط را می گیرد. از نظر قدرت و طول، محبوب ترین گزینه ها نشان داده شده است، همیشه می توانید یک کارت گرافیک با مدار متفاوت یا خنک کننده دیگری پیدا کنید که در "استانداردهای" مشخص شده قرار نمی گیرد.

DOOM 2016 (1080p، ULTRA): OpenGL - 68 FPS، Vulkan - 55 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 38 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 49 FPS، DX12 - 40 FPS.
Overwatch (1080p، ULTRA): DX11 - 93 FPS؛

GTX 1050 دارای یک پردازنده گرافیکی GP107 است که از کارت قدیمی‌تر به ارث رسیده است و بلوک‌های عملکردی کمی بریده شده است. 2 گیگابایت حافظه ویدیویی به شما اجازه نمی دهد وحشی شوید، اما برای رشته های ورزشی الکترونیکی و بازی کردن نوعی تانک، عالی است، زیرا قیمت یک کارت جوان از 9.5 هزار روبل شروع می شود. نیازی به برق اضافی نیست، کارت گرافیک تنها به 75 وات از مادربرد از طریق اسلات PCI-Express نیاز دارد. درسته، در این بخش قیمت، یک AMD Radeon RX460 نیز وجود دارد که با همان حافظه 2 گیگابایتی ارزان تر است و تقریباً از نظر کیفیت پایین نیست و تقریباً با همان پول می توانید یک RX460 تهیه کنید اما در یک 4 گیگابایت نسخه نه اینکه خیلی به او کمک کردند، بلکه نوعی ذخیره برای آینده بود. انتخاب فروشنده چندان مهم نیست، می توانید آنچه را که در دسترس است بردارید و با هزار روبل اضافی جیب خود را بیرون نکشید، که بهتر است برای حروف گرامی Ti خرج کنید.

GTX 1050 Ti

حدود 10 هزار برای 1050 معمولی بد نیست، اما برای نسخه شارژ شده (یا فول، اسمش را همانطور که می خواهید) کمی بیشتر می خواهند (به طور متوسط ​​1-1.5 هزار بیشتر)، اما پر شدن آن بسیار جالب تر است. . به هر حال، کل سری 1050 نه از برش / رد تراشه های "بزرگ" که برای 1060 مناسب نیستند، بلکه به عنوان یک محصول کاملاً مستقل تولید می شود. این دارای یک فرآیند تولید کوچکتر (14 نانومتر)، یک کارخانه متفاوت (کریستال ها توسط کارخانه سامسونگ رشد می کنند)، و نمونه های بسیار جالبی با اضافی وجود دارد. منبع تغذیه: پکیج حرارتی و مصرف پایه هنوز همان 75 وات است، اما پتانسیل اورکلاک و توانایی فراتر از حد مجاز کاملاً متفاوت است.


اگر به بازی با وضوح FullHD (1920x1080) ادامه می‌دهید، برنامه‌ای برای ارتقاء ندارید، و بقیه سخت‌افزار شما در 3 تا 5 سال پیش است - راهی عالی برای افزایش عملکرد در اسباب‌بازی‌ها با ضرر کم. باید روی راه حل های ASUS و MSI با منبع تغذیه 6 پین اضافی تمرکز کنید، گزینه های گیگابایت بد نیستند، اما قیمت آنچنان دلگرم کننده نیست.

DOOM 2016 (1080p، ULTRA): OpenGL - 83 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 44 FPS.
Battlefield 1 (1080p، ULTRA): DX11 - 58 FPS، DX12 - 50 FPS.
Overwatch (1080p، ULTRA): DX11 - 104 FPS.

تقسیم بندی میانی

کارت‌های ویدئویی خط 60 مدت‌هاست که بهترین انتخاب برای کسانی محسوب می‌شوند که نمی‌خواهند پول زیادی خرج کنند و در عین حال در هر چیزی که در چند سال آینده منتشر می‌شود با تنظیمات گرافیکی بالا بازی می‌کنند. از زمان GTX 260 که دو نسخه داشت (ساده تر، 192 پردازنده جریانی و چاق تر، 216 سنگ) شروع شد، در نسل های 400، 500 و 700 ادامه یافت و اکنون NVIDIA دوباره به یک تقریباً عالی سقوط کرد. قیمت و کیفیت ترکیبی دو نسخه «متوسط» دوباره در دسترس هستند: GTX 1060 با 3 و 6 گیگابایت حافظه ویدیویی نه تنها از نظر مقدار RAM موجود، بلکه در عملکرد نیز متفاوت است.

GTX 1060 3 گیگابایت

ملکه ورزش های الکترونیکی قیمت مناسب، عملکرد شگفت‌انگیز برای FullHD (و در ورزش‌های الکترونیکی به ندرت از وضوح بالاتر استفاده می‌کنند: نتایج مهم‌تر از چیزهای زیبا هستند)، حافظه مناسب (3 گیگابایت، برای یک دقیقه، دو سال پیش در پرچم‌دار GTX 780 بود. Ti، که هزینه های غیرقابل قبولی دارد). از نظر عملکرد، 1060 جوان تر به راحتی GTX 970 سال گذشته را با حافظه به یاد ماندنی 3.5 گیگابایتی غلبه می کند و به راحتی سال قبل از پرچمدار فوق العاده 780 Ti را در گوش خود می کشد.


DOOM 2016 (1080p، ULTRA): OpenGL - 117 FPS، Vulkan - 87 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 70 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 92 FPS، DX12 - 85 FPS.
Overwatch (1080p، ULTRA): DX11 - 93 FPS.

در اینجا نسخه مورد علاقه مطلق از نظر قیمت و اگزوز، نسخه MSI است. فرکانس های خوب، سیستم خنک کننده بی صدا و ابعاد معقول. برای او، آنها اصلاً چیزی در حدود 15 هزار روبل نمی خواهند.

GTX 1060 6 گیگابایت

نسخه 6 گیگابایتی بلیت اقتصادی VR و وضوح بالا است. این کارت حافظه کم نخواهد داشت، در همه آزمایش‌ها کمی سریع‌تر است و با اطمینان از GTX 980 که در آن کارت ویدیوی سال گذشته 4 گیگابایت حافظه ویدیویی کافی نخواهد داشت، بهتر عمل خواهد کرد.


DOOM 2016 (1080p، ULTRA): OpenGL - 117 FPS، Vulkan - 121 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 73 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 94 FPS، DX12 - 90 FPS.
Overwatch (1080p، ULTRA): DX11 - 166 FPS.

من می خواهم یک بار دیگر به رفتار کارت های ویدیویی هنگام استفاده از Vulkan API توجه کنم. 1050 با 2 گیگابایت حافظه - کاهش FPS. 1050 Ti با 4 گیگابایت - تقریباً برابر. 1060 3 گیگابایت - کاهش. 1060 6 گیگابایت - رشد نتایج. روند، فکر می‌کنم واضح است: Vulkan به 4+ گیگابایت حافظه ویدیویی نیاز دارد.

مشکل اینجاست که هر دو 1060 کارت گرافیک کوچک نیستند. به نظر می رسد که بسته حرارتی معقول است و برد آنجا واقعاً کوچک است، اما بسیاری از فروشندگان تصمیم گرفتند به سادگی سیستم خنک کننده را بین 1080، 1070 و 1060 یکسان کنند. شخصی کارت گرافیکی با ارتفاع 2 اسلات، اما طول 28+ سانتی متر دارد. آنها کوتاه تر، اما ضخیم تر (2.5 شکاف). با دقت انتخاب کنید.

متأسفانه، 3 گیگابایت حافظه ویدیویی اضافی و یک واحد محاسباتی قفل نشده، 5-6 هزار روبل بیش از قیمت نسخه 3 گیگ برای شما هزینه خواهد داشت. در این صورت پالیت از نظر قیمت و کیفیت جالب ترین گزینه ها را دارد. ایسوس سیستم های خنک کننده هیولایی 28 سانتی متری را منتشر کرده است که روی 1080 و 1070 و 1060 مجسمه سازی شده اند و چنین کارت گرافیکی در هیچ کجا جا نمی شود، نسخه های بدون اورکلاک کارخانه تقریباً یکسان هستند و اگزوز کمتر است و آنها درخواست می کنند. بیشتر برای MSI نسبتا فشرده نسبت به رقبا در همان سطح کیفیت و اورکلاک کارخانه.

لیگ اصلی

بازی با تمام پول در سال 2016 دشوار است. بله، 1080 فوق‌العاده جالب است، اما کمال‌گراها و سخت‌افزارها می‌دانند که NVIDIA وجود پرچم‌دار فوق‌العاده 1080 Ti را پنهان می‌کند، که باید فوق‌العاده جالب باشد. اولین مشخصات در حال حاضر به صورت آنلاین درز کرده است، و واضح است که سبزها منتظر هستند تا سرخ‌ها و سفیدها وارد عمل شوند: نوعی تفنگ بزرگ که می‌تواند فوراً توسط پادشاه جدید گرافیک سه‌بعدی، بزرگ، در جای خود قرار گیرد. و قدرتمند GTX 1080 Ti. خوب، در حال حاضر، آنچه را که داریم داریم.

GTX 1070

ماجراهای سال گذشته مگا محبوب GTX 970 و حافظه نه چندان صادقانه 4 گیگابایتی آن به طور فعال مرتب شده و در سراسر اینترنت جمع شده است. این مانع از تبدیل شدن او به محبوب ترین کارت گرافیک بازی در جهان نشد. پیش از تغییر سال در تقویم، مقام اول را در نظرسنجی سخت افزار و نرم افزار Steam دارد. این قابل درک است: ترکیب قیمت و عملکرد عالی بود. و اگر ارتقاء سال گذشته را از دست دادید و 1060 به اندازه کافی بد به نظر نمی رسد، GTX 1070 انتخاب شماست.

وضوح 2560x1440 و 3840x2160 کارت گرافیک با صدای بلند هضم می شود. سیستم اورکلاک Boost 3.0 سعی می کند با افزایش بار پردازنده گرافیکی هیزم پرتاب کند (یعنی در سخت ترین صحنه ها، زمانی که FPS تحت هجوم جلوه های ویژه کاهش می یابد)، پردازشگر کارت گرافیک را به 2100+ اورکلاک می کند. مگاهرتز حافظه به راحتی 15-18 درصد فرکانس موثر بالاتر از مقادیر کارخانه را دریافت می کند. چیز هیولا.


توجه، تمام تست ها در 2.5k (2560x1440) انجام می شود:

DOOM 2016 (1440p، ULTRA): OpenGL - 91 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (1440p، MAX، HairWorks Off): DX11 - 73 FPS؛
Battlefield 1 (1440p، ULTRA): DX11 - 91 FPS، DX12 - 83 FPS.
Overwatch (1440p، ULTRA): DX11 - 142 FPS.

البته، غیرممکن است که تنظیمات فوق العاده را در 4k انجام دهید و هرگز با این کارت یا 1080 کمتر از 60 فریم در ثانیه کاهش پیدا کنید، اما می توانید در تنظیمات "بالا" شرطی بازی کنید، ویژگی های هولناک را به طور کامل خاموش یا کمی پایین بیاورید. رزولوشن، و از نظر عملکرد واقعی، کارت گرافیک به راحتی حتی 980 Ti سال گذشته را که تقریبا دو برابر قیمت داشت، شکست می دهد. گیگابایت جالب ترین گزینه را دارد: آنها توانستند یک 1070 کامل را در یک کیس استاندارد ITX قرار دهند. به لطف بسته حرارتی متوسط ​​و طراحی کم مصرف. قیمت کارت ها از 29-30 هزار روبل برای گزینه های خوشمزه شروع می شود.

GTX 1080

بله، پرچمدار حروف Ti را ندارد. بله، از بزرگترین GPU موجود از NVIDIA استفاده نمی کند. بله، در اینجا هیچ حافظه جالب HBM 2 وجود ندارد و کارت گرافیک شبیه یک ستاره مرگ یا در حالت شدید، یک رزمناو امپریال کلاس Star Destroyer نیست. و بله، این جالبترین کارت گرافیک بازی موجود در حال حاضر است. یکی یکی DOOM را با رزولوشن 5k3k با سرعت 60 فریم بر ثانیه در تنظیمات فوق العاده اجرا می کند. همه اسباب‌بازی‌های جدید مشمول آن هستند و تا یکی دو سال آینده مشکلی نخواهد داشت: تا زمانی که فناوری‌های جدید تعبیه‌شده در پاسکال فراگیر شوند، تا زمانی که موتورهای بازی یاد بگیرند که چگونه منابع موجود را به‌طور موثر بارگیری کنند... بله، در چند سال آینده سال‌ها می‌گوییم: «اینجا، به GTX 1260 نگاه کنید، چند سال پیش برای بازی با این تنظیمات به یک پرچم‌دار نیاز داشتید»، اما در حال حاضر، بهترین کارت‌های گرافیکی قبل از سال جدید با قیمتی بسیار معقول در دسترس هستند. قیمت


توجه، تمام تست ها در 4k (3840x2160) انجام می شود:

DOOM 2016 (2160p، ULTRA): OpenGL - 54 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (2160p، MAX، HairWorks Off): DX11 - 55 FPS.
Battlefield 1 (2160p، ULTRA): DX11 - 65 FPS، DX12 - 59 FPS.
Overwatch (2160p، ULTRA): DX11 - 93 FPS.

تنها تصمیم گیری باقی می ماند: به آن نیاز دارید، یا می توانید پول خود را پس انداز کنید و 1070 بگیرید. تفاوت زیادی بین بازی در تنظیمات "ultra" یا "high" وجود ندارد، زیرا موتورهای مدرن حتی در تنظیمات متوسط ​​​​به خوبی تصویری را با وضوح بالا ترسیم می کنند. : به هر حال، ما می دانیم که شما کنسول های صابونی نیستید که نمی توانید عملکرد کافی برای 4k صادقانه و 60 فریم بر ثانیه پایدار ارائه دهید.

اگر ارزان ترین گزینه ها را کنار بگذاریم، Palit دوباره بهترین ترکیب قیمت و کیفیت را در نسخه GameRock خواهد داشت (حدود 43-45 هزار روبل): بله، سیستم خنک کننده "ضخیم" است، 2.5 اسلات، اما کارت گرافیک کوتاه تر از رقبا است و یک جفت 1080 به ندرت نصب می شود. SLI به آرامی در حال مرگ است و حتی تزریق حیات بخش پل های پرسرعت نیز کمک چندانی به آن نمی کند. گزینه ASUS ROG بد نیست اگر امکانات اضافی نصب شده باشد. شما نمی خواهید شکاف های اضافی را بپوشانید: کارت گرافیک آنها دقیقاً 2 اسلات ضخامت دارد، اما به 29 سانتی متر فضای خالی از دیواره پشتی تا سبد هارد دیسک نیاز دارد. نمی دانم آیا گیگابایت می تواند این هیولا را با فرمت ITX منتشر کند؟

نتایج

کارت‌های ویدئویی جدید NVIDIA بازار سخت‌افزار استفاده شده را به خاک سپرده‌اند. فقط GTX 970 روی آن زنده می ماند که می توان آن را 10-12 هزار روبل ربود. خریداران بالقوه 7970 و R9 280 کارکرده اغلب جایی برای قرار دادن آن ندارند و به سادگی آن را تغذیه نمی کنند، و بسیاری از گزینه های بازار ثانویه به سادگی امیدبخش نیستند و به عنوان یک ارتقاء ارزان قیمت برای چند سال آینده خوب نیستند: چیز کمی وجود دارد. حافظه، فن آوری های جدید پشتیبانی نمی شوند. زیبایی نسل جدید کارت‌های ویدئویی این است که حتی بازی‌هایی که برای آن‌ها بهینه نشده‌اند، بسیار شادتر از نمودارهای قدیمی GPU سال‌های گذشته اجرا می‌شوند، و تصور اینکه در یک سال، زمانی که موتورهای بازی یاد بگیرند که از کامل استفاده کنند چه اتفاقی می‌افتد، سخت است. قدرت فناوری های جدید

GTX 1050 و 1050Ti

افسوس، من نمی توانم خرید ارزان ترین پاسکال را توصیه کنم. RX 460 معمولاً با هزار یا دو قیمت کمتر فروخته می شود، و اگر بودجه شما آنقدر محدود است که یک کارت گرافیک را «برای آخرین» می گیرید، پس Radeon سرمایه گذاری جالب تری است. از طرفی 1050 کمی سریعتر است و اگر قیمت های شهر شما برای این دو کارت گرافیک تقریباً یکسان است، آن را بگیرید.

از سوی دیگر، 1050Ti برای کسانی که داستان و گیم پلی را به موهای زائد و واقع گرایانه بینی اهمیت می دهند، گزینه ای عالی است. گلوگاهی در قالب 2 گیگابایت حافظه ویدیویی ندارد، پس از یک سال "پایین" نمی رود. می توانید روی آن پول بگذارید - این کار را انجام دهید. Witcher در تنظیمات بالا، GTA V، DOOM، BF 1 - بدون مشکل. بله، شما باید از تعدادی از پیشرفت‌ها چشم‌پوشی کنید، مانند سایه‌های بسیار طولانی، ساختار پیچیده یا محاسبه «گران قیمت» مدل‌های خودسایه‌دار با ردیابی پرتوی محدود، اما در گرماگرم نبرد، این زیبایی‌ها را فراموش خواهید کرد. پس از 10 دقیقه بازی، و 50-60 فریم در ثانیه پایدار، جلوه بسیار فراگیرتری نسبت به پرش های عصبی از 25 به 40 می دهد، اما با تنظیمات روی "حداکثر".

اگر کارت گرافیک Radeon 7850، GTX 760 یا جوان‌تر، با 2 گیگابایت حافظه ویدیویی یا کمتر دارید، می‌توانید با خیال راحت آن را تغییر دهید.

GTX 1060

1060 جوان‌تر، کسانی را که نرخ فریم 100 فریم بر ثانیه برایشان مهم‌تر از زنگ‌ها و سوت‌های گرافیکی است، خوشحال می‌کند. در عین حال به شما این امکان را می دهد که تمامی بازی های منتشر شده را با رزولوشن FullHD با تنظیمات بالا یا حداکثر و ثابت 60 فریم بر ثانیه به راحتی بازی کنید و قیمت آن با هر آنچه که بعد از آن عرضه می شود بسیار متفاوت است. 1060 قدیمی تر با 6 گیگابایت حافظه یک راه حل سازش ناپذیر برای FullHD با حاشیه عملکرد برای یک یا دو سال، آشنایی با واقعیت مجازی و یک کاندید کاملا قابل قبول برای بازی با وضوح بالا در تنظیمات متوسط ​​است.

تغییر GTX 970 به GTX 1060 منطقی نیست، یک سال دیگر طول می کشد. اما واحدهای آزاردهنده 960، 770، 780، R9 280X و قدیمی‌تر را می‌توان با خیال راحت به 1060 به‌روزرسانی کرد.

بخش برتر: GTX 1070 و 1080

بعید است که 1070 به اندازه GTX 970 محبوب شود (با این وجود، اکثر کاربران یک چرخه به روز رسانی آهنی هر دو سال یکبار دارند)، اما از نظر قیمت و کیفیت، مطمئناً ادامه خط 70 است. فقط بازی‌ها را با رزولوشن 1080p بازی می‌کند، به راحتی با رزولوشن 2560x1440 کنترل می‌کند، در برابر سختی‌های بهینه‌نشده 21 تا 9 مقاومت می‌کند، و کاملاً قادر به نمایش 4k است، البته نه در حداکثر تنظیمات.


بله، SLI نیز می تواند چنین باشد.

ما با هر 780 Ti، R9 390X و سایر 980 های سال گذشته خداحافظی می کنیم، به خصوص اگر بخواهیم با وضوح بالا بازی کنیم. و بله، این بهترین گزینه برای کسانی است که دوست دارند جعبه جهنمی را با فرمت Mini-ITX بسازند و مهمانان را با بازی های 4k روی یک تلویزیون 60-70 اینچی که روی رایانه ای به اندازه یک قهوه ساز اجرا می شود بترسانند.
تاریخچه کارت گرافیک gtx 1050 برچسب اضافه کنید

طبق شواهد حکایتی اخیراً منتشر شده، خانواده GPU مبتنی بر پاسکال می‌تواند به یکی از کامل‌ترین مجموعه‌های NVIDIA در سال‌های اخیر تبدیل شود. تنها در چند ماه، این شرکت چهار پردازنده گرافیکی مبتنی بر پاسکال را معرفی کرده است و قرار نیست به همین جا بسنده کند. به گفته رئیس این شرکت، به دور از تمام تراشه های پاسکال، بدون ذکر محصولات واقعی، ارائه شده است. ظاهراً در آینده نزدیک منتظر اطلاعیه های جدید هستیم.

NVIDIA Pascal: هشت محصول در چهار ماه

از آوریل سال جاری، انویدیا چهار تراشه مبتنی بر پاسکال را معرفی کرده است: GP100 با 16 گیگابایت حافظه HBM2، GP102 با پشتیبانی از GDDR5X، GP104 و GP106. در همان زمان، این شرکت هشت محصول مبتنی بر این پردازنده‌های گرافیکی (به استثنای محصولات تکی انواع مختلف نسخه‌های ویژه زیر و همچنین دستگاه‌های تخصصی مانند DGX-1) را اعلام کرد: GeForce GTX 1080/1070 (GP104)، GeForce. GTX 1060 (GP106)، TITAN X (GP102 + 12 گیگابایت GDDR5X)، Quadro P5000 (GP104GL + 16 گیگابایت GDDR5X)، Quadro P6000 (GP102GL + 24 گیگابایت GDDR5X)، Tesla P10GBM1 و Tesla P10P10.

در حالی که چهار پردازنده گرافیکی و هشت محصول در چهار ماه یک دستاورد قابل توجه است، قابل توجه است که این شرکت نه یک راه حل جدید نوت بوک و نه یک کارت گرافیک جدید زیر 250 دلار معرفی کرده است. به گفته رئیس NVIDIA، این شرکت در حال آماده سازی پردازنده های گرافیکی جدید مبتنی بر پاسکال است، آنها قبلاً در سیلیکون وجود دارند، اما تنها پس از مدتی وارد بازار خواهند شد.

NVIDIA: همه پاسکال ها آماده هستند، اما همه ارائه نشده اند

ما همه را طراحی، تأیید و شروع به تولید کردیمپردازنده گرافیکی مبتنی بر معماریپاسکال», جن هسون هوانگ، مدیر اجرایی انویدیا، طی یک کنفرانس تلفنی با سرمایه گذاران و تحلیلگران مالی گفت. با این حال، ما هنوز همه این پردازنده‌های گرافیکی را معرفی نکرده‌ایم.»

تنظیمات جدید

با این حال، نه تنها GP107، GP108 و GP102 که مورد توجه گیمرها و علاقه مندان به عملکرد هستند، بلکه این واقعیت است که هر تراشه پاسکال حداقل در دو پیکربندی اصلی (از نظر شناسه PCIe که درایور NVIDIA استفاده می کند) وجود خواهد داشت. ) . این فرصت را برای ایجاد مجموعه ای از محصولات جدید بر اساس تراشه های GP100، GP102، GP104 و GP106 باز می کند.

بنابراین، GP104 در پیکربندی های GP104-A و GP104-B و همچنین نسخه هایی با شتاب فعال برای برنامه های حرفه ای - GP104GL-A و GP104GL-B وجود دارد. ما نمی دانیم که حروف "A" و "B" دقیقاً با چه چیزی مطابقت دارند، اما می توانیم فرض کنیم که "A" نشان دهنده یک ریزمدار در حداکثر پیکربندی است. بنابراین GP104-A می تواند با GeForce GTX 1080 و GP104-B می تواند با GeForce GTX 1070 مطابقت داشته باشد.

با توجه به اینکه ریز مدارهای GP102 و GP106 نیز در دو پیکربندی وجود دارند (در هر صورت، این مورد توسط پایگاه داده AIDA64 و درایورهای NVIDIA نشان داده شده است)، اما در عین حال تنها یک محصول بر اساس آنها وجود دارد (GeForce GTX 1060 و TITAN X) ، به خوبی می توان انتظار ظهور راه حل های جدید بر اساس آنها را داشت. این که آیا این کارت ها سریعتر یا کندتر از کارت های موجود خواهند بود، زمان نشان خواهد داد. در هر صورت، GP102 می تواند هم «بالا» (تا 3840 پردازنده جریانی) و هم «پایین» را مقیاس کند. در عین حال، البته نمی توان احتمال فرضی ظاهر شدن نسخه سوم GP102-C را در صورت نیاز NVIDIA رد کرد.

بدیهی است که انویدیا قصد دارد خانواده کارت‌های گرافیکی مبتنی بر پاسکال را گسترش دهد. اگرچه برنامه‌های فوری باید به وضوح شامل پردازنده‌های گرافیکی موبایل و جریان اصلی باشد، اما به احتمال زیاد در آینده راه‌حل‌های جدیدی برای رایانه‌های شخصی بازی با کارایی بالا خواهیم داشت.

پارامترمعنی
نام کد تراشهGP104
فن آوری تولیدFinFET 16 نانومتری
تعداد ترانزیستور7.2 میلیارد
منطقه اصلی314 میلی متر مربع
معماری
پشتیبانی سخت افزاری DirectX
اتوبوس حافظه
1607 (1733) مگاهرتز
بلوک های محاسباتی20 چند پردازنده جریانی شامل 2560 IEEE 754-2008 ALU اسکالر نقطه شناور.
بلوک های بافت160 واحد آدرس دهی و فیلتر بافت با پشتیبانی از اجزای FP16 و FP32 در بافت ها و پشتیبانی از فیلتر سه خطی و ناهمسانگرد برای همه فرمت های بافت
نظارت بر پشتیبانی
مشخصات گرافیک مرجع GeForce GTX 1080
پارامترمعنی
فرکانس هسته1607 (1733) مگاهرتز
2560
تعداد بلوک های بافت160
تعداد بلوک های ترکیبی64
فرکانس حافظه موثر10000 (4×2500) مگاهرتز
نوع حافظهGDDR5X
اتوبوس حافظه256 بیتی
اندازه حافظه8 گیگابایت
320 گیگابایت بر ثانیه
حدود 9 ترافلاپس
103 گیگاپیکسل بر ثانیه
257 گیگاکسل بر ثانیه
لاستیکPCI Express 3.0
اتصال دهنده ها
مصرف انرژیتا 180 وات
غذای اضافییک کانکتور 8 پین
2
قیمت پیشنهادی599-699 دلار (ایالات متحده آمریکا)، 54990 روبل (روسیه)

مدل جدید کارت گرافیک GeForce GTX 1080 یک نام منطقی برای اولین راه حل سری جدید GeForce دریافت کرد - تنها در شکل نسل تغییر یافته با سلف مستقیم خود متفاوت است. این نوآوری نه تنها جایگزین راه حل های برتر در خط فعلی این شرکت می شود، بلکه برای مدتی به پرچمدار سری جدید تبدیل می شود، تا زمانی که Titan X بر روی یک پردازنده گرافیکی حتی قدرتمندتر عرضه شد. در زیر آن در سلسله مراتب نیز مدل قبلاً اعلام شده GeForce GTX 1070، بر اساس نسخه‌ای از تراشه GP104 وجود دارد که در ادامه به بررسی آن خواهیم پرداخت.

قیمت های پیشنهادی برای کارت گرافیک جدید انویدیا به ترتیب برای نسخه های معمولی و Founders Editions 599 دلار و 699 دلار است (پایین را ببینید)، که با توجه به اینکه GTX 1080 نه تنها از GTX 980 Ti، بلکه از Titan X نیز جلوتر است، بسیار خوب است. امروزه محصول جدید بدون هیچ سوالی بهترین راه حل از نظر عملکرد در بازار کارت گرافیک تک تراشه است و در عین حال ارزانتر از قدرتمندترین کارت گرافیک های نسل قبل است. تاکنون، GeForce GTX 1080 اساساً هیچ رقیبی از AMD نداشته است، بنابراین انویدیا توانست قیمت مناسبی برای آنها تعیین کند.

کارت گرافیک مورد بحث مبتنی بر تراشه GP104 است که دارای گذرگاه حافظه 256 بیتی است، اما نوع جدید حافظه GDDR5X با فرکانس موثر بسیار بالا 10 گیگاهرتز کار می کند که پهنای باند بالای 320 گیگابایت بر ثانیه را ارائه می دهد. - که تقریباً برابر با GTX 980 Ti با گذرگاه 384 بیتی است. مقدار حافظه نصب شده بر روی یک کارت گرافیک با چنین اتوبوسی می تواند 4 یا 8 گیگابایت باشد، اما احمقانه است که مقدار کمتری برای چنین راه حل قدرتمندی در شرایط مدرن تنظیم کنید، بنابراین GTX 1080 دارای 8 گیگابایت حافظه است. این مقدار برای اجرای هر برنامه سه بعدی با هر تنظیمات کیفیتی برای چندین سال آینده کافی است.

مدار چاپی GeForce GTX 1080 کاملاً متفاوت از PCB های قبلی این شرکت است. مقدار مصرف برق معمولی برای اقلام جدید 180 وات است - کمی بالاتر از GTX 980، اما به طور قابل توجهی کمتر از Titan X و GTX 980 Ti کمتر قدرتمند است. برد مرجع دارای مجموعه کانکتورهای معمولی برای اتصال دستگاه های خروجی تصویر است: یک Dual-Link DVI، یک HDMI و سه DisplayPort.

طراحی مرجع Founders Edition

حتی با معرفی GeForce GTX 1080 در اوایل اردیبهشت، نسخه ویژه ای از این کارت گرافیک به نام Founders Edition معرفی شد که قیمت بالاتری نسبت به کارت گرافیک های معمولی شرکای این شرکت دارد. در واقع این نسخه طراحی مرجع کارت و سیستم خنک کننده است و توسط خود انویدیا تولید شده است. شما می توانید نگرش های متفاوتی نسبت به چنین گزینه هایی برای کارت های ویدئویی داشته باشید، اما طراحی مرجع توسعه یافته توسط مهندسان این شرکت و تولید شده با استفاده از قطعات با کیفیت طرفداران خود را دارد.

اما اینکه آیا آنها چندین هزار روبل بیشتر برای یک کارت گرافیک از Nvidia پرداخت می کنند یا خیر، سوالی است که فقط تمرین می تواند به آن پاسخ دهد. در هر صورت، در ابتدا کارت‌های ویدئویی مرجع Nvidia هستند که با قیمت افزایش یافته در فروش ظاهر می‌شوند، و انتخاب زیادی وجود ندارد - این اتفاق با هر اعلامیه‌ای رخ می‌دهد، اما GeForce GTX 1080 مرجع از این نظر متفاوت است. برنامه ریزی شده است که تا زمان انتشار راه حل های نسل بعدی به این شکل در طول عمر خود فروخته شود.

انویدیا بر این باور است که این نسخه حتی نسبت به بهترین آثار شرکا هم امتیاز دارد. به عنوان مثال، طراحی دو شیار کولر، مونتاژ هر دو کامپیوتر بازی با فرم نسبتا کوچک و سیستم های ویدئویی چند تراشه ای را بر اساس این کارت گرافیک قدرتمند آسان می کند (حتی با وجود حالت سه و چهار تراشه توصیه نمی شود. توسط شرکت). GeForce GTX 1080 Founders Edition دارای مزایایی در قالب یک خنک کننده کارآمد با استفاده از یک محفظه تبخیر و یک فن است که هوای گرم شده را از کیس خارج می کند - این اولین راه حل از این قبیل از Nvidia است که کمتر از 250 وات انرژی مصرف می کند.

در مقایسه با طرح های محصول مرجع قبلی این شرکت، مدار برق از چهار فاز به پنج فاز ارتقا یافته است. انویدیا همچنین در مورد اجزای بهبود یافته ای صحبت می کند که محصول جدید بر اساس آن ها ساخته شده است، نویز الکتریکی نیز برای بهبود پایداری ولتاژ و پتانسیل اورکلاک کاهش یافته است. در نتیجه تمام پیشرفت ها، بازده برق برد مرجع نسبت به GeForce GTX 980 6 درصد افزایش یافته است.

و به منظور تفاوت با مدل‌های "معمولی" GeForce GTX 1080 و از نظر ظاهری، یک طراحی غیرعادی قاب "خرد شده" برای Founders Edition ایجاد شد. با این حال، احتمالاً به پیچیدگی شکل محفظه تبخیر و رادیاتور نیز منجر شده است (عکس را ببینید) که ممکن است یکی از دلایل پرداخت 100 دلار اضافی برای چنین نسخه ویژه ای باشد. تکرار می کنیم که در ابتدای فروش، خریداران حق انتخاب زیادی نخواهند داشت، اما در آینده می توان هم راه حلی با طراحی خود از یکی از شرکای شرکت انتخاب کرد و هم توسط خود انویدیا انجام شود.

نسل جدید معماری گرافیک پاسکال

کارت گرافیک GeForce GTX 1080 اولین راه حل این شرکت بر اساس تراشه GP104 است که متعلق به نسل جدید معماری گرافیکی پاسکال انویدیا است. اگرچه معماری جدید مبتنی بر راه حل هایی است که در ماکسول کار شده است، اما تفاوت های عملکردی مهمی نیز دارد که بعداً در مورد آنها خواهیم نوشت. تغییر اصلی از دیدگاه جهانی، فرآیند جدید فناوری بود که بر اساس آن پردازنده گرافیکی جدید ساخته شد.

استفاده از فناوری فرآیند 16 نانومتری FinFET در تولید پردازنده‌های گرافیکی GP104 در کارخانه‌های شرکت تایوانی TSMC باعث شد تا پیچیدگی تراشه به میزان قابل توجهی افزایش یابد و در عین حال مساحت و هزینه نسبتاً پایینی داشته باشد. تعداد ترانزیستورها و مساحت تراشه های GP104 و GM204 را مقایسه کنید - آنها از نظر مساحت نزدیک هستند (تراشه جدید از نظر فیزیکی حتی کوچکتر است) ، اما تراشه معماری پاسکال دارای تعداد قابل توجهی ترانزیستور است و بر این اساس ، واحدهای اجرایی، از جمله آنهایی که عملکردهای جدید ارائه می دهند.

از نقطه نظر معماری، اولین بازی پاسکال بسیار شبیه به راه حل های مشابه معماری Maxwell است، اگرچه تفاوت هایی نیز وجود دارد. پردازنده‌های معماری پاسکال مانند Maxwell دارای پیکربندی‌های متفاوتی از خوشه‌های پردازش گرافیکی (GPC)، چند پردازنده‌های جریانی (SMs) و کنترل‌کننده‌های حافظه خواهند بود. چند پردازنده SM یک چند پردازنده بسیار موازی است که پیچ و تاب ها (تغویرها، گروه های 32 جریان دستورالعمل) را بر روی هسته های CUDA و سایر واحدهای اجرایی در چند پردازنده برنامه ریزی و اجرا می کند. می توانید اطلاعات دقیقی در مورد طراحی همه این بلوک ها در بررسی راه حل های قبلی Nvidia پیدا کنید.

هر یک از چند پردازنده‌های SM با موتور PolyMorph جفت شده‌اند که نمونه‌برداری بافت، تسلاسیون، تبدیل، تنظیم ویژگی راس و تصحیح پرسپکتیو را انجام می‌دهد. برخلاف راه‌حل‌های قبلی این شرکت، موتور PolyMorph در تراشه GP104 همچنین حاوی یک بلوک جدید همزمان چند پروژکتوری است که در ادامه در مورد آن صحبت خواهیم کرد. ترکیبی از چند پردازنده SM با یک موتور Polymorph به طور سنتی TPC - Texture Processor Cluster برای Nvidia نامیده می شود.

در مجموع، تراشه GP104 در GeForce GTX 1080 شامل چهار کلاستر GPC و 20 چند پردازنده SM، و همچنین هشت کنترلر حافظه همراه با 64 ROP است. هر خوشه GPC یک موتور شطرنجی اختصاصی دارد و شامل پنج SM است. هر چند پردازنده به نوبه خود از 128 هسته CUDA، فایل رجیستر 256 کیلوبایت، 96 کیلوبایت حافظه مشترک، 48 کیلوبایت حافظه نهان L1 و هشت واحد بافت TMU تشکیل شده است. یعنی در مجموع GP104 شامل 2560 هسته CUDA و 160 واحد TMU است.

همچنین، پردازنده گرافیکی که GeForce GTX 1080 بر روی آن ساخته شده است، دارای هشت کنترلر حافظه 32 بیتی (بر خلاف 64 بیتی که قبلا استفاده می شد) است که یک گذرگاه حافظه نهایی 256 بیتی را در اختیار ما قرار می دهد. هشت ROP و 256 کیلوبایت حافظه نهان L2 به هر یک از کنترلرهای حافظه گره خورده است. یعنی در مجموع تراشه GP104 حاوی 64 ROP و 2048 کیلوبایت حافظه نهان L2 است.

به لطف بهینه‌سازی‌های معماری و فناوری فرآیند جدید، اولین پاسکال بازی تبدیل به کم‌مصرف‌ترین GPU تا کنون شده است. علاوه بر این، هم از یکی از پیشرفته‌ترین فرآیندهای فن‌آوری FinFET 16 نانومتری و هم از بهینه‌سازی‌های معماری انجام‌شده در پاسکال، در مقایسه با ماکسول، سهمی در این امر وجود دارد. انویدیا توانست سرعت ساعت را حتی بیش از آنچه که انتظار می‌رفت، در هنگام انتقال به یک فناوری فرآیند جدید افزایش دهد. GP104 با فرکانس بالاتری نسبت به GM204 فرضی ساخته شده با فرآیند 16 نانومتری کار می کند. برای انجام این کار، مهندسان انویدیا باید تمام گلوگاه های راه حل های قبلی را که از اورکلاک بالاتر از یک آستانه خاص جلوگیری می کند، به دقت بررسی و بهینه کنند. در نتیجه، GeForce GTX 1080 جدید بیش از 40 درصد سریع‌تر از GeForce GTX 980 کلاک می‌شود. اما این تمام تغییرات ساعت GPU نیست.

فناوری GPU Boost 3.0

همانطور که از کارت‌های گرافیک قبلی انویدیا به خوبی می‌دانیم، آن‌ها از فناوری سخت‌افزار GPU Boost در پردازنده‌های گرافیکی خود استفاده می‌کنند که برای افزایش سرعت کلاک پردازنده گرافیکی در حالت‌هایی طراحی شده است که هنوز به مصرف انرژی و محدودیت‌های حرارتی خود نرسیده است. در طول سال ها، این الگوریتم دستخوش تغییرات زیادی شده است و نسل سوم این فناوری در حال حاضر در تراشه ویدئویی معماری پاسکال - GPU Boost 3.0 استفاده می شود که نوآوری اصلی آن تنظیم دقیق تر فرکانس های توربو بسته به ولتاژ است.

اگر اصل عملکرد نسخه های قبلی این فناوری را به خاطر دارید، پس تفاوت بین فرکانس پایه (حداقل مقدار فرکانس تضمین شده که GPU کمتر از آن نمی افتد، حداقل در بازی ها) و فرکانس توربو ثابت شد. یعنی فرکانس توربو همیشه یک عدد معین مگاهرتز بالای پایه بوده است. GPU Boost 3.0 قابلیت تنظیم افست فرکانس توربو برای هر ولتاژ را به طور جداگانه معرفی کرد. ساده ترین راه برای درک این موضوع با یک تصویر است:

در سمت چپ GPU Boost نسخه دوم، در سمت راست - سوم است که در Pascal ظاهر شد. تفاوت ثابت بین فرکانس پایه و توربو اجازه نمی دهد تا توانایی های کامل GPU را نشان دهد، در برخی موارد، پردازنده های گرافیکی نسل های قبلی می توانند در ولتاژ تنظیم شده سریعتر کار کنند، اما بیش از حد ثابت فرکانس توربو این اجازه را نمی دهد. در GPU Boost 3.0، این ویژگی ظاهر شد، و فرکانس توربو را می توان برای هر یک از مقادیر ولتاژ جداگانه تنظیم کرد و تمام آب را از GPU خارج کرد.

برای مدیریت اورکلاک و تنظیم منحنی فرکانس توربو به ابزارهای مفیدی نیاز است. خود انویدیا این کار را انجام نمی دهد، اما به شرکای خود کمک می کند تا چنین ابزارهایی را برای تسهیل اورکلاک (البته در محدوده معقول) ایجاد کنند. به عنوان مثال، عملکرد جدید GPU Boost 3.0 قبلاً در EVGA Precision XOC نشان داده شده است، که شامل یک اسکنر اورکلاک اختصاصی است که به طور خودکار تفاوت غیرخطی بین فرکانس پایه و فرکانس توربو را در ولتاژهای مختلف با اجرای یک دستگاه داخلی پیدا کرده و تنظیم می کند. تست عملکرد و پایداری در نتیجه، کاربر یک منحنی فرکانس توربو را دریافت می کند که کاملاً با قابلیت های یک تراشه خاص مطابقت دارد. علاوه بر این، می توان آن را به دلخواه در حالت دستی تغییر داد.

همانطور که در تصویر برنامه می بینید، علاوه بر اطلاعات در مورد GPU و سیستم، تنظیماتی برای اورکلاک نیز وجود دارد: Power Target (مصرف برق معمولی را در طول اورکلاک، به عنوان درصدی از استاندارد تعیین می کند)، GPU Temp Target (حداکثر دمای مجاز هسته)، آفست ساعت GPU (بیش از فرکانس پایه برای همه مقادیر ولتاژ)، آفست حافظه (بیش از فرکانس حافظه ویدیویی بیش از مقدار پیش فرض)، اضافه ولتاژ (فرصت اضافی برای افزایش ولتاژ).

ابزار Precision XOC شامل سه حالت اورکلاک است: Basic، Linear و Manual. در حالت اصلی، می‌توانید یک مقدار اورکلاک واحد (فرکانس توربو ثابت) را روی حالت پایه تنظیم کنید، همانطور که در مورد GPUهای قبلی وجود داشت. حالت خطی به شما امکان می دهد رمپ فرکانس را از حداقل تا حداکثر مقادیر ولتاژ برای GPU تنظیم کنید. خوب، در حالت دستی، می توانید مقادیر فرکانس GPU منحصر به فرد را برای هر نقطه ولتاژ در نمودار تنظیم کنید.

این ابزار همچنین شامل یک اسکنر ویژه برای اورکلاک خودکار است. می‌توانید سطوح فرکانس خود را تنظیم کنید یا به ابزار Precision XOC اجازه دهید GPU را در تمام ولتاژها اسکن کند و پایدارترین فرکانس‌ها را برای هر نقطه از منحنی ولتاژ و فرکانس کاملاً خودکار پیدا کند. در طول فرآیند اسکن، Precision XOC به صورت تدریجی فرکانس GPU را افزایش می‌دهد و عملکرد آن را از نظر پایداری یا مصنوعات بررسی می‌کند و یک منحنی فرکانس و ولتاژ ایده‌آل ایجاد می‌کند که برای هر تراشه خاص منحصر به فرد خواهد بود.

این اسکنر را می توان با تنظیم فاصله زمانی برای آزمایش هر مقدار ولتاژ، حداقل و حداکثر فرکانس مورد آزمایش و مرحله آن، مطابق با نیازهای خود شخصی سازی کرد. واضح است که برای دستیابی به نتایج پایدار، بهتر است یک قدم کوچک و مدت زمان مناسبی برای آزمایش تعیین کنید. در حین آزمایش، عملکرد ناپایدار درایور ویدیو و سیستم ممکن است مشاهده شود، اما اگر اسکنر یخ نزند، کار را بازیابی می کند و به یافتن فرکانس های بهینه ادامه می دهد.

نوع جدید حافظه ویدیویی GDDR5X و فشرده سازی بهبود یافته

بنابراین، قدرت GPU به طور قابل توجهی افزایش یافته است و گذرگاه حافظه تنها 256 بیتی باقی مانده است - آیا پهنای باند حافظه عملکرد کلی را محدود می کند و چه کاری می توان در مورد آن انجام داد؟ به نظر می رسد که نسل دوم HBM امیدوارکننده هنوز برای ساخت بسیار گران است، بنابراین باید به دنبال گزینه های دیگری بود. از زمان معرفی حافظه GDDR5 در سال 2009، مهندسان انویدیا در حال بررسی امکان استفاده از انواع جدید حافظه بوده‌اند. در نتیجه، پیشرفت‌ها به معرفی استاندارد حافظه جدید GDDR5X رسیده است - پیچیده‌ترین و پیشرفته‌ترین استاندارد تا به امروز که سرعت انتقال ۱۰ گیگابیت بر ثانیه را ارائه می‌دهد.

انویدیا یک مثال جالب از سرعت این کار ارائه می دهد. فقط 100 پیکوثانیه بین بیت های ارسال شده می گذرد - در این مدت، یک پرتو نور تنها یک اینچ (حدود 2.5 سانتی متر) را طی می کند. و هنگام استفاده از حافظه GDDR5X، مدارهای دریافت کننده داده باید قبل از ارسال بیت بعدی، مقدار بیت ارسالی را در کمتر از نیمی از این زمان انتخاب کنند - این فقط برای این است که بفهمید فناوری مدرن به چه چیزی رسیده است.

دستیابی به این سرعت مستلزم توسعه یک معماری سیستم ورودی/خروجی جدید بود که نیازمند چندین سال توسعه مشترک با سازندگان تراشه های حافظه بود. علاوه بر افزایش سرعت انتقال داده، راندمان انرژی نیز افزایش یافته است - تراشه‌های حافظه GDDR5X از ولتاژ کمتری 1.35 ولت استفاده می‌کنند و با استفاده از فناوری‌های جدید تولید می‌شوند که همان مصرف انرژی را با فرکانس 43 درصد بالاتر می‌دهد.

مهندسان این شرکت مجبور شدند خطوط انتقال داده بین هسته GPU و تراشه های حافظه را مجدداً کار کنند و توجه بیشتری به جلوگیری از از دست دادن سیگنال و تخریب سیگنال در تمام طول مسیر از حافظه به GPU و برگشت داشته باشند. بنابراین، در تصویر بالا، سیگنال گرفته شده به عنوان یک "چشم" متقارن بزرگ نشان داده شده است، که نشان دهنده بهینه سازی خوب کل مدار و سهولت نسبی گرفتن داده ها از سیگنال است. علاوه بر این، تغییراتی که در بالا توضیح داده شد نه تنها به امکان استفاده از GDDR5X در فرکانس 10 گیگاهرتز منجر شده است، بلکه باید به دستیابی به پهنای باند حافظه بالا در محصولات آینده با استفاده از حافظه آشناتر GDDR5 کمک کند.

خب، ما بیش از 40 درصد افزایش پهنای باند حافظه را با استفاده از حافظه جدید دریافت کردیم. اما آیا این کافی نیست؟ برای افزایش بیشتر کارایی پهنای باند حافظه، انویدیا به بهبود فشرده سازی پیشرفته داده که در معماری های قبلی معرفی شده بود، ادامه داد. زیرسیستم حافظه در GeForce GTX 1080 از تکنیک‌های بهبود یافته و جدید فشرده‌سازی داده‌های بدون تلفات استفاده می‌کند که برای کاهش پهنای باند مورد نیاز طراحی شده‌اند - در حال حاضر نسل چهارم فشرده‌سازی روی تراشه است.

الگوریتم های فشرده سازی داده ها در حافظه چندین جنبه مثبت را به طور همزمان به همراه دارند. فشرده سازی مقدار داده های نوشته شده در حافظه را کاهش می دهد، همین امر در مورد داده های منتقل شده از حافظه ویدئویی به حافظه نهان L2 صدق می کند، که کارایی استفاده از حافظه پنهان L2 را بهبود می بخشد، زیرا یک کاشی فشرده (یک بلوک از چندین پیکسل فریم بافر) اندازه کوچکتری دارد. یک غیر فشرده همچنین مقدار داده ارسال شده بین نقاط مختلف مانند ماژول بافت TMU و بافر فریم را کاهش می دهد.

خط لوله فشرده سازی داده ها در GPU از چندین الگوریتم استفاده می کند که بسته به "تراکم پذیری" داده ها تعیین می شود - بهترین الگوریتم موجود برای آنها انتخاب می شود. یکی از مهمترین آنها الگوریتم فشرده سازی رنگ دلتا است. این روش فشرده سازی داده ها را به عنوان تفاوت بین مقادیر متوالی به جای خود داده رمزگذاری می کند. GPU تفاوت مقادیر رنگ بین پیکسل‌های یک بلوک (کاشی) را محاسبه می‌کند و بلوک را به‌عنوان مقداری رنگ متوسط ​​برای کل بلوک به اضافه داده‌های تفاوت در مقادیر برای هر پیکسل ذخیره می‌کند. برای داده‌های گرافیکی، این روش معمولاً مناسب است، زیرا رنگ درون کاشی‌های کوچک برای همه پیکسل‌ها اغلب خیلی متفاوت نیست.

پردازنده گرافیکی GP104 در GeForce GTX 1080 از الگوریتم های فشرده سازی بیشتری نسبت به تراشه های قبلی Maxwell پشتیبانی می کند. بنابراین، الگوریتم فشرده سازی 2:1 کارآمدتر شده است و علاوه بر آن، دو الگوریتم جدید ظاهر شده است: حالت فشرده سازی 4:1، مناسب برای مواردی که تفاوت در مقدار رنگ پیکسل های یک بلوک بسیار زیاد است. کوچک، و یک حالت 8:1، که ترکیبی از فشرده سازی ثابت 4:1 از بلوک های 2×2 پیکسل با فشرده سازی دلتا 2 برابر بین بلوک ها است. زمانی که فشرده سازی اصلا امکان پذیر نباشد، از آن استفاده نمی شود.

با این حال، در واقعیت، دومی بسیار نادر اتفاق می افتد. این را می توان از نمونه تصاویری از بازی Project CARS مشاهده کرد که انویدیا برای نشان دادن افزایش نسبت فشرده سازی در پاسکال به آن اشاره کرد. در تصاویر، کاشی‌های بافر فریمی که GPU می‌توانست آن‌ها را فشرده کند، به رنگ سرخابی سایه زده می‌شدند، و آن‌هایی که نمی‌توانستند بدون افت فشرده شوند، با رنگ اصلی (بالا - ماکسول، پایین - پاسکال) باقی ماندند.

همانطور که می بینید، الگوریتم های فشرده سازی جدید در GP104 واقعاً بسیار بهتر از Maxwell کار می کنند. اگرچه معماری قدیمی همچنین می‌توانست بیشتر کاشی‌های صحنه را فشرده کند، علف‌ها و درختان زیادی در اطراف لبه‌ها و همچنین قطعات خودرو مشمول الگوریتم‌های فشرده‌سازی قدیمی نیستند. اما با گنجاندن تکنیک های جدید در پاسکال، تعداد بسیار کمی از مناطق تصویر فشرده نشده باقی ماندند - کارایی بهبود یافته مشهود است.

در نتیجه بهبود فشرده سازی داده ها، GeForce GTX 1080 قادر است میزان داده ارسالی در هر فریم را به میزان قابل توجهی کاهش دهد. از نظر اعداد، فشرده سازی بهبود یافته باعث صرفه جویی 20 درصدی بیشتر از پهنای باند موثر حافظه می شود. علاوه بر افزایش بیش از 40 درصدی پهنای باند حافظه GeForce GTX 1080 نسبت به GTX 980 ناشی از استفاده از حافظه GDDR5X، مجموعاً باعث افزایش 70 درصدی پهنای باند حافظه موثر در مقایسه با مدل نسل قبلی می شود.

پشتیبانی از Async Compute

اکثر بازی های مدرن علاوه بر گرافیک، از محاسبات پیچیده نیز استفاده می کنند. به عنوان مثال، محاسبات هنگام محاسبه رفتار اجسام فیزیکی را می توان نه قبل یا بعد از محاسبات گرافیکی، بلکه همزمان با آنها انجام داد، زیرا آنها به یکدیگر مرتبط نیستند و در یک چارچوب به یکدیگر وابسته نیستند. مثال دیگر، پس پردازش فریم های رندر شده قبلی و پردازش داده های صوتی است که می تواند به موازات رندر نیز انجام شود.

مثال واضح دیگری از استفاده از عملکرد، تکنیک Asynchronous Time Warp است که در سیستم های VR برای تغییر فریم خروجی با توجه به حرکت سر بازیکن درست قبل از خروجی استفاده می شود و رندر بعدی را قطع می کند. چنین بارگذاری ناهمزمان ظرفیت های GPU باعث افزایش کارایی استفاده از واحدهای اجرایی آن می شود.

این بارهای کاری دو سناریو جدید استفاده از GPU ایجاد می کنند. اولین مورد شامل بارهای همپوشانی است، زیرا بسیاری از انواع وظایف به طور کامل از قابلیت های GPU استفاده نمی کنند و برخی منابع بیکار هستند. در چنین مواردی، می‌توانید به سادگی دو کار مختلف را روی یک GPU اجرا کنید و واحدهای اجرایی آن را برای استفاده کارآمدتر از هم جدا کنید - برای مثال، افکت‌های PhysX که همراه با رندر سه بعدی فریم اجرا می‌شوند.

برای بهبود عملکرد این سناریو، معماری پاسکال تعادل بار پویا را معرفی کرد. در معماری قبلی ماکسول، بارهای کاری همپوشانی به عنوان توزیع ایستا از منابع GPU بین گرافیک و محاسبات پیاده سازی شد. این رویکرد به شرطی مؤثر است که تعادل بین دو بار کاری تقریباً با تقسیم منابع و وظایف به طور مساوی در زمان مطابقت داشته باشد. اگر محاسبات غیر گرافیکی بیشتر از محاسبات گرافیکی طول بکشد و هر دو منتظر تکمیل کار مشترک باشند، در این صورت بخشی از GPU برای مدت زمان باقیمانده بیکار می ماند که باعث کاهش عملکرد کلی می شود و همه مزایا را از بین می برد. از سوی دیگر، متعادل‌سازی بار پویا سخت‌افزار به شما امکان می‌دهد از منابع GPU آزاد شده به محض در دسترس شدن استفاده کنید - برای درک، ما یک تصویر ارائه می‌دهیم.

همچنین وظایفی وجود دارند که از نظر زمانی حیاتی هستند و این دومین سناریو برای محاسبات ناهمزمان است. برای مثال، اجرای الگوریتم اعوجاج زمانی ناهمزمان در VR باید قبل از اسکن کردن کامل شود، در غیر این صورت فریم دور ریخته خواهد شد. در چنین حالتی، GPU باید از وقفه کار بسیار سریع و جابجایی به کار دیگر پشتیبانی کند تا یک کار کمتر حیاتی را از اجرای روی GPU حذف کند و منابع آن را برای کارهای حیاتی آزاد کند - به این حالت Preemption می گویند.

یک فرمان رندر منفرد از یک موتور بازی می تواند شامل صدها فراخوان قرعه کشی باشد، هر فراخوانی به نوبه خود شامل صدها مثلث رندر شده است که هر کدام شامل صدها پیکسل برای محاسبه و ترسیم است. رویکرد سنتی GPU فقط از وقفه وظایف در سطح بالا استفاده می‌کند و خط لوله گرافیکی باید منتظر بماند تا تمام کارها قبل از تعویض کارها تکمیل شود و در نتیجه تأخیر بسیار بالایی ایجاد شود.

برای رفع این مشکل، معماری پاسکال ابتدا توانایی قطع کردن یک کار در سطح پیکسل - Pixel Level Preemption را معرفی کرد. واحدهای اجرای GPU پاسکال می توانند به طور مداوم پیشرفت رندر وظایف را نظارت کنند و هنگامی که وقفه ای درخواست می شود، می توانند اجرا را متوقف کنند و با تغییر سریع به کار دیگری، زمینه را برای تکمیل بعدی ذخیره کنند.

وقفه سطح رشته و تغییر جهت عملیات محاسباتی مشابه وقفه در سطح پیکسل برای محاسبات گرافیکی عمل می کند. بارهای کاری محاسباتی از شبکه های متعددی تشکیل شده است که هر یک شامل چندین رشته است. هنگامی که یک درخواست وقفه دریافت می شود، رشته های در حال اجرا بر روی چند پردازنده اجرای خود را خاتمه می دهند. بلوک‌های دیگر وضعیت خود را ذخیره می‌کنند تا در آینده از همان نقطه ادامه دهند و GPU به کار دیگری تغییر مکان می‌دهد. کل فرآیند سوئیچینگ وظیفه کمتر از 100 میکروثانیه پس از خروج رشته های در حال اجرا طول می کشد.

برای حجم‌های کاری بازی، ترکیبی از وقفه‌های سطح پیکسل برای گرافیک، و وقفه‌های سطح رشته برای وظایف محاسباتی، به پردازنده‌های گرافیکی معماری پاسکال این توانایی را می‌دهد که به سرعت بین وظایف با حداقل اتلاف زمان جابجا شوند. و برای کارهای محاسباتی در CUDA، امکان قطع با حداقل جزئیات - در سطح دستورالعمل وجود دارد. در این حالت، همه رشته ها به یکباره اجرا را متوقف می کنند و بلافاصله به کار دیگری تغییر می کنند. این رویکرد مستلزم ذخیره اطلاعات بیشتر در مورد وضعیت همه رجیسترهای هر رشته است، اما در برخی موارد محاسبات غیر گرافیکی کاملاً موجه است.

استفاده از وقفه سریع و سوئیچینگ وظیفه در کارهای گرافیکی و محاسباتی به معماری پاسکال اضافه شد تا کارهای گرافیکی و غیر گرافیکی را بتوان در سطح دستورالعمل های فردی به جای کل رشته ها قطع کرد، همانطور که در مورد ماکسول و کپلر بود. . این فناوری‌ها می‌توانند اجرای ناهمزمان بارهای کاری مختلف GPU را بهبود بخشند و پاسخگویی را هنگام اجرای چندین کار به طور همزمان بهبود بخشند. در رویداد Nvidia، آنها نمایشی از کار محاسبات ناهمزمان را با استفاده از مثال محاسبه اثرات فیزیکی نشان دادند. اگر بدون محاسبات ناهمزمان عملکرد در سطح 77-79 FPS بود، با گنجاندن این ویژگی ها، نرخ فریم به 93-94 FPS افزایش یافت.

قبلاً یکی از احتمالات استفاده از این قابلیت در بازی ها را به صورت اعوجاج زمانی ناهمزمان در VR مثال زدیم. تصویر عملکرد این فناوری را با وقفه سنتی (پیشگیری) و سریع نشان می دهد. در حالت اول، فرآیند اعوجاج زمانی ناهمزمان سعی می شود تا حد امکان دیرتر انجام شود، اما قبل از شروع به روز رسانی تصویر روی نمایشگر. اما کار الگوریتم باید چند میلی ثانیه زودتر به اجرا در GPU داده شود، زیرا بدون وقفه سریع راهی برای اجرای دقیق کار در زمان مناسب وجود ندارد و GPU برای مدتی بیکار است.

در صورت وقفه دقیق در سطح پیکسل و نخ (نشان داده شده در سمت راست)، این قابلیت دقت بیشتری در تعیین لحظه وقفه می دهد و می توان با اطمینان از اتمام کار قبل از اتمام کار، تاب زمانی ناهمزمان را دیرتر شروع کرد. به روز رسانی اطلاعات روی صفحه نمایش آغاز می شود. و در حالت اول برای مدتی بیکار باشد، GPU را می توان با برخی کارهای گرافیکی اضافی بارگذاری کرد.

فناوری چند پروژکتوری همزمان

پردازنده گرافیکی جدید GP104 از فناوری جدید چند پروژکتوری همزمان (SMP) پشتیبانی می‌کند که به GPU اجازه می‌دهد تا داده‌ها را با کارایی بیشتری در سیستم‌های نمایشگر مدرن ارائه دهد. SMP به تراشه ویدیویی اجازه می دهد تا داده ها را به طور همزمان در چندین پیش بینی نمایش دهد، که نیاز به معرفی یک بلوک سخت افزاری جدید در GPU به عنوان بخشی از موتور PolyMorph در انتهای خط لوله هندسی قبل از بلوک شطرنجی داشت. این بلوک مسئول کار با پیش بینی های متعدد برای یک جریان هندسی واحد است.

موتور چند پروژکتوری داده های هندسی را به طور همزمان برای 16 پیش بینی از پیش پیکربندی شده پردازش می کند که نقطه طرح (دوربین) را ترکیب می کند، این پیش بینی ها می توانند به طور مستقل چرخانده یا کج شوند. از آنجایی که هر هندسه اولیه می‌تواند به طور همزمان در چندین طرح ظاهر شود، موتور SMP این قابلیت را فراهم می‌کند و به برنامه اجازه می‌دهد تا به تراشه ویدیویی دستور دهد تا هندسه را تا 32 بار (16 طرح در دو مرکز نمایش) بدون پردازش اضافی تکرار کند.

کل فرآیند پردازش سخت‌افزاری تسریع می‌شود و از آنجایی که Multiprojection بعد از موتور هندسه کار می‌کند، نیازی به تکرار تمام مراحل پردازش هندسه چندین بار نیست. منابع ذخیره شده زمانی مهم هستند که سرعت رندر توسط عملکرد پردازش هندسی محدود شود، مانند تسلاسیون، زمانی که کار هندسی یکسان چندین بار برای هر طرح ریزی انجام شود. بر این اساس، در حالت اوج، پرتاب چندگانه می‌تواند نیاز به پردازش هندسه را تا 32 برابر کاهش دهد.

اما چرا این همه لازم است؟ چندین مثال خوب وجود دارد که در آن فناوری چند پروژکتوری می تواند مفید باشد. به عنوان مثال، یک سیستم چند مانیتور متشکل از سه نمایشگر که با زاویه ای نزدیک به کاربر نصب شده اند (پیکربندی فراگیر). در یک موقعیت معمولی، صحنه در یک طرح نمایش داده می شود که منجر به اعوجاج هندسی و رندر هندسی نادرست می شود. روش صحیح سه پیش بینی مختلف برای هر یک از مانیتورها با توجه به زاویه ای است که در آن قرار دارند.

با استفاده از یک کارت گرافیک روی یک تراشه با معماری پاسکال، این کار را می توان در یک پاس هندسی انجام داد و سه پیش بینی مختلف را مشخص کرد، هر کدام برای یک مانیتور متفاوت. بنابراین کاربر می‌تواند زاویه قرارگیری مانیتورها را به یکدیگر نه تنها از نظر فیزیکی، بلکه به صورت مجازی تغییر دهد - با چرخش پیش‌نمایش‌های نمایشگرهای جانبی به منظور دستیابی به پرسپکتیو صحیح در صحنه سه‌بعدی با زاویه دید به طور قابل توجهی گسترده تر (FOV). درست است، در اینجا یک محدودیت وجود دارد - برای چنین پشتیبانی، برنامه باید بتواند صحنه را با یک FOV گسترده ارائه کند و از فراخوان های ویژه SMP API برای تنظیم آن استفاده کند. یعنی در هر بازی نمی توانید این کار را انجام دهید، نیاز به پشتیبانی ویژه دارید.

در هر صورت، روزهای نمایش تنها بر روی یک مانیتور تخت به پایان رسیده است، اکنون پیکربندی های چند مانیتور و نمایشگرهای خمیده زیادی وجود دارد که می توانند از این فناوری نیز استفاده کنند. ناگفته نماند سیستم های واقعیت مجازی که از لنزهای ویژه ای بین صفحه نمایش و چشم کاربر استفاده می کنند که نیازمند تکنیک های جدیدی برای نمایش تصویر سه بعدی به تصویر دو بعدی است. بسیاری از این فناوری‌ها و تکنیک‌ها هنوز در مراحل اولیه توسعه هستند، نکته اصلی این است که پردازنده‌های گرافیکی قدیمی‌تر نمی‌توانند به طور موثر از بیش از یک طرح ریزی مسطح استفاده کنند. آنها به چندین پاس رندر، پردازش چندگانه از یک هندسه و غیره نیاز دارند.

تراشه‌های Maxwell دارای پشتیبانی محدود از چند رزولوشن برای کمک به افزایش کارایی بودند، اما SMP پاسکال می‌تواند کارهای بیشتری انجام دهد. ماکسول می‌توانست برای نقشه‌برداری مکعبی یا رزولوشن‌های مختلف طرح‌ریزی، پروژکشن را ۹۰ درجه بچرخاند، اما این فقط در محدوده محدودی از برنامه‌های کاربردی مانند VXGI مفید بود.

از دیگر امکانات استفاده از SMP می توان به رندر با وضوح های مختلف و رندر استریو تک پاس اشاره کرد. به عنوان مثال، رندر با وضوح های مختلف (Multi-Res Shading) می تواند در بازی ها برای بهینه سازی عملکرد استفاده شود. هنگام اعمال، رزولوشن بالاتر در مرکز قاب استفاده می‌شود و در حاشیه آن کاهش می‌یابد تا سرعت رندر سریع‌تری به دست آید.

رندر استریو تک گذر در VR استفاده می شود، قبلاً به بسته VRWorks اضافه شده است و از ویژگی چند پروژکتوری برای کاهش میزان کار هندسی مورد نیاز در رندر VR استفاده می کند. در صورت استفاده از این ویژگی، GPU GeForce GTX 1080 تنها یک بار هندسه صحنه را پردازش می کند و همزمان برای هر چشم دو برجستگی ایجاد می کند که بار هندسی روی GPU را به نصف کاهش می دهد و همچنین تلفات درایور و سیستم عامل را کاهش می دهد.

یک تکنیک حتی پیشرفته‌تر برای بهبود کارایی رندر VR، سایه‌زنی با لنز است که از پیش‌بینی‌های متعدد برای شبیه‌سازی اعوجاج‌های هندسی مورد نیاز در رندر واقعیت مجازی استفاده می‌کند. این روش از پروجکشن چندگانه برای نمایش یک صحنه سه بعدی بر روی سطحی استفاده می‌کند که در هنگام رندر کردن برای خروجی هدست واقعیت مجازی به سطح تنظیم‌شده با لنز نزدیک می‌شود، و از تعداد زیادی پیکسل اضافی در حاشیه که دور انداخته می‌شوند اجتناب می‌کند. ساده ترین راه برای درک ماهیت این روش با استفاده از تصویر است - چهار برجستگی کمی منبسط شده در جلوی هر چشم استفاده می شود (در پاسکال می توانید از 16 برجستگی برای هر چشم استفاده کنید - برای شبیه سازی دقیق تر یک لنز منحنی) به جای یک:

این رویکرد می تواند منجر به صرفه جویی قابل توجهی در عملکرد شود. به عنوان مثال، یک تصویر معمولی Oculus Rift برای هر چشم 1.1 مگاپیکسل است. اما به دلیل تفاوت در طرح ریزی ها، برای رندر کردن آن، تصویر اصلی 2.1 مگاپیکسل است - 86٪ بیشتر از حد لازم! استفاده از چند پروژکتوری که در معماری پاسکال پیاده سازی شده است، امکان کاهش وضوح تصویر رندر شده به 1.4 مگاپیکسل، کاهش 1.5 برابری سرعت پردازش پیکسل و همچنین صرفه جویی در پهنای باند حافظه را فراهم می کند.

پردازنده گرافیکی GeForce GTX 1080 در کنار صرفه جویی دو برابری در سرعت پردازش هندسه به دلیل رندر استریو تک پاس، می تواند افزایش قابل توجهی در عملکرد رندر واقعیت مجازی ارائه دهد که برای سرعت پردازش هندسی و حتی بیشتر از آن بسیار سخت است. پردازش پیکسلی

بهبود در خروجی ویدئو و بلوک های پردازش

علاوه بر عملکرد و قابلیت های جدید مربوط به رندر سه بعدی، حفظ سطح خوبی از خروجی تصویر و همچنین رمزگشایی و رمزگذاری ویدیو ضروری است. و اولین پردازنده گرافیکی معماری پاسکال ناامید نشد - از تمام استانداردهای مدرن از این نظر پشتیبانی می کند ، از جمله رمزگشایی سخت افزاری فرمت HEVC ، که برای مشاهده فیلم های 4K در رایانه شخصی ضروری است. همچنین، دارندگان آینده کارت‌های گرافیک GeForce GTX 1080 به زودی می‌توانند از پخش ویدیوی 4K از نتفلیکس و سایر ارائه‌دهندگان در سیستم‌های خود لذت ببرند.

از نظر خروجی نمایشگر، GeForce GTX 1080 از HDMI 2.0b با HDCP 2.2 و همچنین DisplayPort پشتیبانی می کند. تاکنون، نسخه DP 1.2 گواهینامه دریافت کرده است، اما GPU برای نسخه های جدیدتر استاندارد آماده است: DP 1.3 Ready و DP 1.4 Ready. دومی اجازه می دهد تا صفحات 4K با فرکانس 120 هرتز و نمایشگرهای 5K و 8K با فرکانس 60 هرتز با استفاده از یک جفت کابل DisplayPort 1.3 نمایش داده شوند. اگر برای GTX 980 حداکثر وضوح پشتیبانی شده 5120x3200 در 60 هرتز بود، پس برای مدل جدید GTX 1080 به 7680x4320 در همان 60 هرتز افزایش یافته است. GeForce GTX 1080 مرجع دارای سه خروجی DisplayPort، یک HDMI 2.0b و یک دیجیتال Dual-Link DVI است.

مدل جدید کارت گرافیک انویدیا نیز بلوک بهبود یافته ای برای رمزگشایی و رمزگذاری داده های ویدیویی دریافت کرد. بنابراین، تراشه GP104 با استانداردهای بالای PlayReady 3.0 (SL3000) برای پخش جریانی ویدیو مطابقت دارد، که به شما این امکان را می دهد که مطمئن باشید پخش محتوای با کیفیت بالا از ارائه دهندگان معروف مانند Netflix با بالاترین کیفیت و مصرف انرژی بهینه خواهد بود. . جزئیات مربوط به پشتیبانی از فرمت های مختلف ویدیو در هنگام رمزگذاری و رمزگشایی در جدول آورده شده است، محصول جدید به وضوح با راه حل های قبلی برای بهتر شدن تفاوت دارد:

اما نکته جالب تر، پشتیبانی از نمایشگرهای موسوم به محدوده دینامیکی بالا (HDR) است که در حال گسترش در بازار هستند. تلویزیون‌ها از اوایل سال 2016 به فروش می‌رسند (با انتظار می‌رود چهار میلیون تلویزیون HDR تنها در یک سال به فروش برسد)، و مانیتورها در سال آینده. HDR بزرگ‌ترین پیشرفت در فناوری نمایشگر در سال‌های اخیر است که دو برابر تن رنگ (75٪ طیف قابل مشاهده در مقابل 33٪ برای RGB)، نمایشگرهای روشن تر (1000 نیت) با کنتراست بالاتر (10000:1) و رنگ‌های غنی را ارائه می‌کند.

ظهور قابلیت پخش محتوا با تفاوت بیشتر در روشنایی و رنگ‌های غنی‌تر و اشباع‌تر، تصویر روی صفحه را به واقعیت نزدیک‌تر می‌کند، رنگ سیاه عمیق‌تر می‌شود، نور درخشان مانند دنیای واقعی خیره می‌شود. . بر این اساس، کاربران در مقایسه با نمایشگرها و تلویزیون های استاندارد، جزئیات بیشتری را در مناطق روشن و تاریک تصاویر مشاهده خواهند کرد.

برای پشتیبانی از نمایشگرهای HDR، GeForce GTX 1080 همه چیز مورد نیاز خود را دارد - خروجی رنگی 12 بیتی، پشتیبانی از استانداردهای BT.2020 و SMPTE 2084 و وضوح خروجی HDMI 2.0b 10/12 بیتی 4K HDR، که در مورد ماکسول علاوه بر این، پاسکال پشتیبانی از رمزگشایی فرمت HEVC در وضوح 4K با فرکانس 60 هرتز و رنگ 10 یا 12 بیتی را اضافه کرده است که برای ویدیوهای HDR استفاده می شود و همچنین کدگذاری فرمت مشابه با پارامترهای مشابه، اما فقط در 10 -bit برای ضبط یا پخش ویدیو HDR. همچنین، این محصول جدید برای استاندارد سازی DisplayPort 1.4 برای انتقال داده های HDR از طریق این کانکتور آماده است.

به هر حال، ممکن است در آینده به رمزگذاری ویدیوی HDR برای انتقال چنین داده هایی از رایانه شخصی به کنسول بازی SHIELD که می تواند HEVC 10 بیتی را پخش کند، نیاز باشد. یعنی کاربر قادر خواهد بود بازی را از رایانه شخصی با فرمت HDR پخش کند. صبر کنید، از کجا می توانم بازی هایی با چنین پشتیبانی دریافت کنم؟ Nvidia به طور مداوم با توسعه دهندگان بازی کار می کند تا این پشتیبانی را پیاده سازی کند و هر آنچه را که نیاز دارند (پشتیبانی از درایور، نمونه کد و غیره) در اختیار آنها قرار می دهد تا تصاویر HDR را که با نمایشگرهای موجود سازگار هستند به درستی رندر کنند.

در زمان عرضه کارت گرافیک، GeForce GTX 1080، بازی هایی مانند Obduction، The Witness، Lawbreakers، Rise of the Tomb Raider، Paragon، The Talos Principle و Shadow Warrior 2 از خروجی HDR پشتیبانی می کنند. انتظار می رود در آینده نزدیک دوباره پر شود.

تغییرات در رندر SLI چند تراشه ای

همچنین تغییراتی در ارتباط با فناوری رندر چند تراشه اختصاصی SLI وجود داشت، اگرچه هیچ کس انتظار چنین چیزی را نداشت. SLI توسط علاقه مندان به بازی های رایانه ای استفاده می شود تا با اجرای پشت سر هم قدرتمندترین کارت های گرافیک تک تراشه ای عملکرد را تا حد زیادی افزایش دهند، یا با محدود کردن خود به چند راه حل میان رده که گاهی ارزان تر از آن هستند، نرخ فریم بسیار بالایی را دریافت کنند. یک سطح بالا (تصمیم بحث برانگیز، اما آنها این کار را انجام می دهند). با مانیتورهای 4K، بازیکنان تقریباً هیچ گزینه دیگری به جز نصب چند کارت گرافیک ندارند، زیرا حتی مدل های برتر اغلب نمی توانند در چنین شرایطی یک بازی راحت را در حداکثر تنظیمات ارائه دهند.

یکی از اجزای مهم Nvidia SLI پل هایی هستند که کارت های ویدئویی را به یک زیرسیستم ویدئویی مشترک متصل می کند و برای سازماندهی یک کانال دیجیتال برای انتقال داده بین آنها خدمت می کند. کارت‌های گرافیک GeForce به طور سنتی دارای کانکتورهای SLI دوگانه هستند که برای اتصال بین دو یا چهار کارت گرافیک در پیکربندی‌های 3-Way و 4-Way SLI خدمت می‌کنند. هر یک از کارت‌های ویدیویی باید به هر کدام متصل می‌شد، زیرا همه GPU‌ها فریم‌هایی را که ارائه می‌کردند به GPU اصلی ارسال می‌کردند، به همین دلیل دو رابط در هر یک از بردها مورد نیاز بود.

با شروع GeForce GTX 1080، تمام کارت‌های گرافیک Nvidia مبتنی بر پاسکال دارای دو رابط SLI هستند که برای افزایش عملکرد انتقال داده بین کارت‌های گرافیکی به هم متصل شده‌اند و این حالت SLI دو کاناله جدید عملکرد و راحتی را هنگام نمایش اطلاعات بصری در حالت بسیار بالا بهبود می‌بخشد. نمایشگرهای رزولوشن یا سیستم های چند مانیتور.

برای این حالت به پل های جدیدی نیز نیاز بود که SLI HB نامیده می شدند. آنها یک جفت کارت گرافیک GeForce GTX 1080 را از طریق دو کانال SLI به طور همزمان ترکیب می‌کنند، اگرچه کارت‌های ویدیویی جدید با پل‌های قدیمی‌تر نیز سازگار هستند. برای رزولوشن های 1920×1080 و 2560×1440 پیکسل با نرخ تازه سازی 60 هرتز، می توان از پل های استاندارد استفاده کرد، اما در حالت های سخت تر (4K، 5K و سیستم های چند مانیتور)، تنها پل های جدید نتایج بهتری را ارائه می دهند. تغییر قاب صاف، اگرچه قدیمی ها کار می کنند، اما تا حدودی بدتر است.

همچنین، هنگام استفاده از پل های SLI HB، رابط داده GeForce GTX 1080 با فرکانس 650 مگاهرتز کار می کند، در مقایسه با 400 مگاهرتز برای پل های SLI معمولی در پردازنده های گرافیکی قدیمی تر. علاوه بر این، برای برخی از پل های سخت قدیمی، سرعت انتقال داده بالاتری نیز با تراشه های ویدئویی معماری پاسکال در دسترس است. با افزایش سرعت انتقال داده بین GPU از طریق یک رابط SLI دو برابر شده با افزایش فرکانس عملکرد، نمایش نرم‌تری از فریم‌ها بر روی صفحه نمایش نیز در مقایسه با راه‌حل‌های قبلی ارائه می‌شود:

همچنین لازم به ذکر است که پشتیبانی از رندر چند تراشه در DirectX 12 تا حدودی با آنچه قبلاً مرسوم بود متفاوت است. مایکروسافت در آخرین نسخه API گرافیکی تغییرات زیادی در رابطه با عملکرد این گونه سیستم های ویدئویی ایجاد کرده است. دو گزینه چند GPU در دسترس توسعه دهندگان نرم افزار در DX12 وجود دارد: حالت های Multi Display Adapter (MDA) و Linked Display Adapter (LDA).

علاوه بر این، حالت LDA دو شکل دارد: LDA ضمنی (که انویدیا برای SLI استفاده می‌کند) و Explicit LDA (زمانی که توسعه‌دهنده بازی وظیفه مدیریت رندر چند تراشه‌ای را بر عهده می‌گیرد. حالت‌های MDA و Explicit LDA به تازگی در DirectX 12 پیاده‌سازی شده‌اند. به منظور دادن آزادی و فرصت های بیشتری به توسعه دهندگان در هنگام استفاده از سیستم های ویدئویی چند تراشه ای. تفاوت بین حالت ها به وضوح در جدول زیر قابل مشاهده است:

در حالت LDA، حافظه هر پردازنده گرافیکی را می توان به حافظه دیگری متصل کرد و به صورت حجم کل زیادی نمایش داد، البته با تمام محدودیت های عملکرد زمانی که داده ها از حافظه "خارجی" گرفته می شود. در حالت MDA، حافظه هر GPU به طور جداگانه کار می کند و GPU های مختلف نمی توانند مستقیماً به داده های حافظه GPU دیگر دسترسی داشته باشند. حالت LDA برای سیستم‌های چند تراشه‌ای با عملکرد مشابه طراحی شده است، در حالی که حالت MDA محدودتر است و می‌تواند با پردازنده‌های گرافیکی گسسته و یکپارچه یا راه‌حل‌های مجزا با تراشه‌های تولیدکنندگان مختلف کار کند. اما این حالت همچنین نیاز به توجه و کار بیشتر توسعه دهندگان در هنگام برنامه نویسی همکاری دارد تا GPU ها بتوانند با یکدیگر ارتباط برقرار کنند.

به طور پیش‌فرض، سیستم SLI مبتنی بر GeForce GTX 1080 تنها از دو پردازنده گرافیکی پشتیبانی می‌کند و پیکربندی‌های سه و چهار GPU رسماً منسوخ شده‌اند، زیرا دستیابی به دستاوردهای عملکردی بازی‌های مدرن با افزودن پردازنده‌های گرافیکی سوم و چهارم به طور فزاینده‌ای دشوار می‌شود. برای مثال، بسیاری از بازی‌ها در هنگام کار با سیستم‌های ویدئویی چند تراشه‌ای به قابلیت‌های پردازنده مرکزی سیستم تکیه می‌کنند و بازی‌های جدید به‌طور فزاینده‌ای از تکنیک‌های موقتی (زمانی) استفاده می‌کنند که از داده‌های فریم‌های قبلی استفاده می‌کنند، که در آن عملکرد کارآمد چندین GPU به طور همزمان است. به سادگی غیر ممکن است

با این حال، عملکرد سیستم‌ها در سیستم‌های چند تراشه‌ای دیگر (غیر SLI) ممکن است، مانند حالت‌های MDA یا LDA Explicit در DirectX 12 یا یک سیستم SLI دو تراشه‌ای با سومین GPU اختصاصی برای جلوه‌های فیزیکی PhysX. اما در مورد رکوردهای بنچمارک ها چطور، آیا انویدیا واقعا آنها را به کلی کنار گذاشته است؟ خیر، البته نه، اما از آنجایی که تقریباً تعداد کمی از کاربران چنین سیستم هایی در دنیا مورد تقاضا هستند، یک Enthusiast Key ویژه برای چنین علاقه مندان فوق العاده ای اختراع شد که می توان آن را از وب سایت انویدیا دانلود کرد و این ویژگی را باز کرد. برای این کار ابتدا باید با اجرای یک اپلیکیشن خاص، یک شناسه گرافیکی منحصربفرد دریافت کنید، سپس Enthusiast Key را در وب سایت درخواست کنید و پس از دانلود، کلید را در سیستم نصب کنید و بدین ترتیب قفل 3 و 4 راه را باز کنید. تنظیمات SLI

فناوری Fast Sync

برخی از تغییرات در فناوری های همگام سازی هنگام نمایش اطلاعات روی نمایشگر رخ داده است. با نگاهی به آینده، هیچ چیز جدیدی در G-Sync وجود ندارد و همچنین فناوری Adaptive Sync پشتیبانی نمی شود. اما انویدیا تصمیم گرفت تا نرمی خروجی و همگام سازی را برای بازی هایی که عملکرد بسیار بالایی از خود نشان می دهند، زمانی که نرخ فریم به طور قابل توجهی بالاتر از نرخ تازه سازی مانیتور است، بهبود بخشد. این امر مخصوصاً برای بازی هایی که نیاز به حداقل تاخیر و پاسخ سریع دارند و نبردها و مسابقات چند نفره هستند بسیار مهم است.

Fast Sync جایگزین جدیدی برای همگام‌سازی عمودی است که دارای مصنوعات بصری مانند پاره شدن تصویر نیست و به نرخ تازه‌سازی ثابتی وابسته نیست که تأخیر را افزایش می‌دهد. مشکل همگام سازی عمودی در بازی هایی مانند Counter-Strike: Global Offensive چیست؟ این بازی روی پردازنده‌های گرافیکی مدرن قدرتمند با چند صد فریم در ثانیه اجرا می‌شود و بازیکن می‌تواند انتخاب کند که v-sync را فعال کند یا خیر.

در بازی‌های چندنفره، کاربران اغلب برای کمترین تاخیر تعقیب می‌کنند و VSync را خاموش می‌کنند و به وضوح در تصویر پاره می‌شوند که حتی در نرخ فریم بالا نیز بسیار ناخوشایند است. با این حال، اگر v-sync را روشن کنید، زمانی که خط لوله گرافیکی تا نرخ رفرش مانیتور کاهش می‌یابد، بازیکن افزایش قابل توجهی در تأخیر بین اقدامات خود و تصویر روی صفحه را تجربه خواهد کرد.

خط لوله سنتی اینگونه عمل می کند. اما انویدیا تصمیم گرفت فرآیند رندر و نمایش تصویر روی صفحه را با استفاده از فناوری Fast Sync جدا کند. این به بخشی از GPU که فریم‌ها را با سرعت کامل رندر می‌کند، اجازه می‌دهد تا با ذخیره آن فریم‌ها در آخرین بافر موقتی خاص، با حداکثر کارایی به کار خود ادامه دهد.

این روش به شما امکان می دهد روش نمایش را تغییر دهید و از حالت های VSync On و VSync Off بهترین ها را بگیرید، با تأخیر کم، اما بدون آرتیفکت تصویر. با Fast Sync، کنترل جریان فریم وجود ندارد، موتور بازی در حالت همگام‌سازی خاموش کار می‌کند و به آن گفته نمی‌شود که منتظر بمانید تا نسخه بعدی را ترسیم کنید، بنابراین تأخیر تقریباً به اندازه حالت VSync Off کم است. اما از آنجایی که Fast Sync به طور مستقل یک بافر را برای نمایش بر روی صفحه انتخاب می کند و کل فریم را نمایش می دهد، هیچ وقفه تصویری نیز وجود ندارد.

Fast Sync از سه بافر مختلف استفاده می کند که دو بافر اول مشابه بافر دوگانه در خط لوله کلاسیک عمل می کنند. بافر اولیه (Front Buffer - FB) یک بافر است که اطلاعات آن بر روی صفحه نمایش نمایش داده می شود، یک فریم کاملا رندر شده. بافر برگشتی (Back Buffer - BB) بافری است که هنگام رندر کردن اطلاعات را دریافت می کند.

هنگام استفاده از همگام‌سازی عمودی در شرایط با نرخ فریم بالا، بازی منتظر می‌ماند تا فاصله تازه‌سازی برسد تا بافر اولیه را با بافر ثانویه تعویض کند تا تصویر یک فریم را روی صفحه نمایش دهد. این کارها را کند می کند و افزودن بافرهای بیشتر مانند بافر سه گانه سنتی فقط به تأخیر می افزاید.

با Fast Sync، سومین بافر آخرین رندر (LRB) اضافه می شود که برای ذخیره تمام فریم هایی که به تازگی در بافر ثانویه رندر شده اند استفاده می شود. نام بافر برای خودش صحبت می کند، حاوی یک کپی از آخرین فریم کاملاً رندر شده است. و هنگامی که زمان به روز رسانی بافر اولیه فرا می رسد، این بافر LRB به طور کامل به بافر اصلی کپی می شود، نه به صورت جزئی، مانند ثانویه با همگام سازی عمودی غیرفعال. از آنجایی که کپی کردن اطلاعات از بافرها ناکارآمد است، آنها به سادگی تعویض می شوند (یا تغییر نام می دهند، زیرا درک آن راحت تر است)، و منطق جدید تعویض بافرها، معرفی شده در GP104، این فرآیند را مدیریت می کند.

در عمل، گنجاندن یک روش همگام‌سازی جدید، همگام‌سازی سریع، تأخیر کمی بیشتر در مقایسه با همگام‌سازی عمودی کاملاً غیرفعال فراهم می‌کند - به طور متوسط ​​8 میلی‌ثانیه بیشتر، اما فریم‌ها را به‌طور کامل روی مانیتور نمایش می‌دهد، بدون اینکه آثار ناخوشایند روی صفحه نمایش داده شود. تصویر را پاره کنید روش جدید را می توان از تنظیمات گرافیکی کنترل پنل انویدیا در قسمت کنترل همگام سازی عمودی فعال کرد. با این حال، مقدار پیش فرض کنترل برنامه باقی می ماند و شما به سادگی نیازی به فعال کردن Fast Sync در همه برنامه های سه بعدی ندارید، بهتر است این روش را به طور خاص برای بازی هایی با FPS بالا انتخاب کنید.

فناوری واقعیت مجازی Nvidia VRWorks

ما بیش از یک بار در این مقاله به موضوع داغ واقعیت مجازی پرداخته‌ایم، اما بیشتر در مورد افزایش نرخ فریم و اطمینان از تأخیر کم است که برای VR بسیار مهم است. همه اینها بسیار مهم است و در واقع پیشرفت وجود دارد، اما تاکنون بازی های VR به اندازه بهترین بازی های سه بعدی مدرن "معمولی" چشمگیر به نظر نمی رسند. این امر نه تنها به این دلیل اتفاق می‌افتد که توسعه‌دهندگان پیشرو بازی هنوز درگیر برنامه‌های VR نیستند، بلکه به این دلیل است که VR در نرخ فریم بیشتر می‌طلبد، که به دلیل تقاضای زیاد، از استفاده از بسیاری از تکنیک‌های معمول در چنین بازی‌هایی جلوگیری می‌کند.

به منظور کاهش تفاوت کیفیت بین بازی‌های واقعیت مجازی و بازی‌های معمولی، انویدیا تصمیم گرفت بسته کاملی از فناوری‌های مرتبط با VRWorks را منتشر کند که شامل تعداد زیادی API، کتابخانه، موتورها و فناوری‌هایی بود که می‌توانند کیفیت و عملکرد را به میزان قابل توجهی بهبود بخشند. برنامه های کاربردی VR. این چه ارتباطی با اعلام اولین راه حل بازی در پاسکال دارد؟ این بسیار ساده است - برخی از فناوری ها در آن معرفی شده اند که به افزایش بهره وری و بهبود کیفیت کمک می کنند و ما قبلاً در مورد آنها نوشته ایم.

و اگرچه این نه تنها به گرافیک مربوط می شود، ابتدا کمی در مورد آن صحبت خواهیم کرد. مجموعه فناوری‌های گرافیک VRWorks شامل فناوری‌هایی است که قبلاً ذکر شد، مانند Lens Matched Shading، با استفاده از ویژگی چند پروژکتوری که در GeForce GTX 1080 ظاهر شد. راه حل هایی که چنین پشتیبانی ندارند. همچنین به فناوری‌های دیگری مانند MultiRes Shading اشاره کردیم که برای رندر کردن با وضوح‌های مختلف در مرکز فریم و حاشیه آن طراحی شده‌اند.

اما بسیار غیرمنتظره تر، اعلام فناوری VRWorks Audio بود که برای محاسبه با کیفیت بالا داده های صوتی در صحنه های سه بعدی طراحی شده بود، که به ویژه در سیستم های واقعیت مجازی مهم است. در موتورهای معمولی، موقعیت منابع صدا در یک محیط مجازی کاملاً درست محاسبه می شود، اگر دشمن از سمت راست شلیک کند، صدا از این طرف سیستم صوتی بلندتر است و چنین محاسبه ای از نظر قدرت محاسباتی خیلی سخت نیست. .

اما در واقعیت، صداها نه تنها به سمت پخش کننده، بلکه در همه جهات می روند و از مواد مختلف پرتاب می شوند، مشابه نحوه تابش پرتوهای نور. و در واقعیت، ما این بازتاب ها را می شنویم، اگرچه نه به وضوح امواج صوتی مستقیم. این انعکاس‌های غیرمستقیم صدا معمولاً توسط افکت‌های Reverb ویژه شبیه‌سازی می‌شوند، اما این یک رویکرد بسیار ابتدایی برای کار است.

VRWorks Audio از رندر امواج صوتی مشابه با ردیابی پرتو در رندر استفاده می کند، جایی که مسیر پرتوهای نور به بازتاب های متعدد از اجسام در یک صحنه مجازی ردیابی می شود. VRWorks Audio همچنین انتشار امواج صوتی را در محیط زمانی که امواج مستقیم و بازتابیده ردیابی می‌شوند، بسته به زاویه تابش و خواص مواد بازتابنده، شبیه‌سازی می‌کند. VRWorks Audio در کار خود از موتور ردیابی پرتوهای Nvidia OptiX با کارایی بالا استفاده می کند که برای کارهای گرافیکی شناخته شده است. OptiX را می توان برای کارهای مختلفی مانند محاسبه نور غیرمستقیم و نقشه برداری نور و اکنون همچنین برای ردیابی امواج صوتی در VRWorks Audio استفاده کرد.

انویدیا محاسبه دقیق امواج صوتی را در نسخه نمایشی VR Funhouse خود تعبیه کرده است که از چندین هزار پرتو استفاده می کند و تا 12 بازتاب از اجسام را محاسبه می کند. و به منظور یادگیری مزایای فناوری با استفاده از یک مثال واضح، پیشنهاد می کنیم ویدیویی در مورد عملکرد این فناوری به زبان روسی تماشا کنید:

مهم است که رویکرد انویدیا با موتورهای صوتی سنتی متفاوت باشد، از جمله روش شتاب سخت افزاری از رقیب اصلی با استفاده از یک بلوک خاص در GPU. همه این روش‌ها فقط موقعیت‌یابی دقیق منابع صوتی را ارائه می‌دهند، اما بازتاب امواج صوتی از اشیاء را در یک صحنه سه‌بعدی محاسبه نمی‌کنند، اگرچه می‌توانند با استفاده از افکت Reverb این را شبیه‌سازی کنند. با این حال، استفاده از فناوری ردیابی پرتو می تواند بسیار واقعی تر باشد، زیرا تنها چنین رویکردی با در نظر گرفتن اندازه، شکل و مواد اشیاء در صحنه، تقلید دقیق صداهای مختلف را ارائه می دهد. دشوار است بگوییم که آیا چنین دقت محاسباتی برای یک بازیکن معمولی مورد نیاز است یا خیر، اما می توان با اطمینان گفت: در VR، می تواند واقع گرایی را که هنوز در بازی های معمولی وجود ندارد، به کاربران اضافه کند.

خوب، باقی مانده است که فقط در مورد فناوری VR SLI صحبت کنیم که در OpenGL و DirectX کار می کند. اصل آن بسیار ساده است: یک سیستم ویدئویی دو GPU در یک برنامه VR به گونه ای کار می کند که به هر چشم یک GPU جداگانه اختصاص داده می شود، برخلاف AFR که با پیکربندی های SLI آشنا می شود. این کار عملکرد کلی را که برای سیستم های واقعیت مجازی بسیار مهم است، تا حد زیادی بهبود می بخشد. از نظر تئوری، می توان از پردازنده های گرافیکی بیشتری استفاده کرد، اما تعداد آنها باید زوج باشد.

این رویکرد مورد نیاز بود زیرا AFR برای VR مناسب نیست، زیرا با کمک آن اولین GPU یک فریم زوج برای هر دو چشم ترسیم می‌کند و دومی فریمی عجیب و غریب ارائه می‌کند که تاخیرهای حیاتی برای مجازی را کاهش نمی‌دهد. سیستم های واقعیت اگرچه نرخ فریم بسیار بالا خواهد بود. بنابراین با کمک VR SLI، کار روی هر فریم به دو GPU تقسیم می‌شود - یکی روی بخشی از فریم برای چشم چپ کار می‌کند، دومی برای سمت راست، و سپس این نیمه‌های فریم در یک کل ترکیب می‌شوند.

تقسیم کار مانند این بین یک جفت GPU باعث افزایش 2 برابری عملکرد می شود و در نتیجه نرخ فریم بالاتر و تاخیر کمتری در مقایسه با سیستم های مبتنی بر یک کارت گرافیک واحد ایجاد می کند. درست است، استفاده از VR SLI به پشتیبانی ویژه برنامه برای استفاده از این روش مقیاس‌بندی نیاز دارد. اما فناوری VR SLI در حال حاضر در برنامه‌های نمایشی واقعیت مجازی مانند Valve's The Lab و ILMxLAB's Trials در Tatooine تعبیه شده است و این تازه آغاز کار است - انویدیا قول می‌دهد که برنامه‌های کاربردی دیگر به زودی عرضه شوند و همچنین این فناوری را در موتورهای بازی Unreal Engine 4 پیاده‌سازی می‌کند. یونیتی و مکس پلی.

پلتفرم اسکرین شات بازی Ansel

یکی از جالب‌ترین اطلاعیه‌های مربوط به این نرم‌افزار، انتشار فناوری ثبت تصاویر با کیفیت بالا در برنامه‌های بازی بود که به نام یکی از عکاسان معروف - Ansel نامگذاری شد. بازی‌ها مدت‌هاست که نه تنها بازی، بلکه مکانی برای استفاده از دست‌های بازیگوش برای شخصیت‌های خلاق مختلف بوده‌اند. شخصی اسکریپت های بازی ها را تغییر می دهد، شخصی مجموعه های بافت با کیفیت بالا را برای بازی ها منتشر می کند و شخصی اسکرین شات های زیبایی می گیرد.

انویدیا تصمیم گرفت با معرفی یک پلتفرم جدید برای ایجاد (یعنی ایجاد، زیرا این فرآیند چندان آسان نیست) عکس های با کیفیت بالا از بازی ها به دومی کمک کند. آنها معتقدند که انسل می تواند به خلق نوع جدیدی از هنر معاصر کمک کند. از این گذشته ، تعداد کمی از هنرمندان وجود دارند که بیشتر عمر خود را روی رایانه شخصی می گذرانند و تصاویر زیبایی از بازی ها ایجاد می کنند و هنوز ابزار مناسبی برای این کار ندارند.

Ansel به شما این امکان را می دهد که نه تنها یک تصویر در بازی بگیرید، بلکه آن را مطابق نیاز سازنده تغییر دهید. با استفاده از این فناوری می توانید دوربین را در اطراف صحنه حرکت دهید، آن را در هر جهتی بچرخانید و کج کنید تا ترکیب بندی دلخواه فریم را به دست آورید. به عنوان مثال، در بازی هایی مانند تیراندازی اول شخص، فقط می توانید بازیکن را حرکت دهید، واقعاً نمی توانید چیز دیگری را تغییر دهید، بنابراین همه اسکرین شات ها بسیار یکنواخت هستند. با یک دوربین رایگان در Ansel، می توانید با انتخاب زاویه مورد نیاز برای یک عکس خوب، بسیار فراتر از دوربین بازی بروید، یا حتی یک تصویر استریو کامل 360 درجه از نقطه مورد نیاز، و با وضوح بالا برای مشاهده بعدی در یک تصویر بگیرید. کلاه VR.

Ansel کاملاً ساده کار می کند - با کمک یک کتابخانه ویژه از Nvidia، این پلت فرم در کد بازی تعبیه شده است. برای انجام این کار، توسعه‌دهنده آن فقط باید یک کد کوچک به پروژه خود اضافه کند تا به درایور ویدیوی Nvidia اجازه دهد تا داده‌های بافر و سایه‌زن را رهگیری کند. کار بسیار کمی برای انجام دادن وجود دارد، وارد کردن Ansel به بازی کمتر از یک روز طول می کشد تا پیاده سازی شود. بنابراین، گنجاندن این ویژگی در The Witness حدود 40 خط کد و در Witcher 3 - حدود 150 خط کد طول کشید.

Ansel با یک بسته توسعه باز - SDK عرضه خواهد شد. نکته اصلی این است که کاربر مجموعه ای استاندارد از تنظیمات را با خود دریافت می کند که به او امکان می دهد موقعیت و زاویه دوربین را تغییر دهد، جلوه ها را اضافه کند و غیره. پلت فرم Ansel به این صورت عمل می کند: بازی را متوقف می کند، دوربین رایگان را روشن می کند. و به شما این امکان را می دهد که با ثبت نتیجه در قالب یک اسکرین شات معمولی، یک تصویر 360 درجه، یک جفت استریو یا فقط یک پانوراما با وضوح بالا، کادر را به نمای دلخواه تغییر دهید.

تنها هشدار این است که همه بازی ها از تمام ویژگی های پلتفرم اسکرین شات بازی Ansel پشتیبانی نمی شوند. برخی از توسعه‌دهندگان بازی، به دلایلی، نمی‌خواهند یک دوربین کاملاً رایگان را در بازی‌های خود قرار دهند - برای مثال، به دلیل امکان استفاده از این قابلیت توسط متقلبان. یا می خواهند تغییر زاویه دید را به همین دلیل محدود کنند - به طوری که هیچ کس مزیت ناعادلانه ای دریافت نکند. خوب، یا به طوری که کاربران جن های بدبخت را در پس زمینه نبینند. همه اینها خواسته های کاملاً عادی سازندگان بازی است.

یکی از جالب ترین ویژگی های Ansel ایجاد اسکرین شات هایی با وضوح بسیار زیاد است. مهم نیست که بازی مثلا از رزولوشن 4K پشتیبانی می کند و مانیتور کاربر هم Full HD است. با استفاده از پلتفرم اسکرین شات، می توانید تصویری با کیفیت بسیار بالاتر بگیرید، که بیشتر به اندازه و عملکرد درایو محدود می شود. این پلتفرم به راحتی اسکرین شات هایی تا 4.5 گیگاپیکسل می گیرد که از 3600 قطعه به هم متصل شده اند!

واضح است که در چنین تصاویری می توانید تمام جزئیات را مشاهده کنید، تا متن روی روزنامه ها که در دوردست قرار دارند، اگر چنین سطحی از جزئیات اصولاً در بازی پیش بینی شده باشد - انسل می تواند سطح جزئیات را نیز کنترل کند. تنظیم حداکثر سطح برای دریافت بهترین کیفیت تصویر. اما همچنان می توانید سوپرنمونه برداری را فعال کنید. همه اینها به شما امکان می دهد تصاویری از بازی ها ایجاد کنید که می توانید با خیال راحت روی بنرهای بزرگ چاپ کنید و نسبت به کیفیت آنها آرامش داشته باشید.

جالب اینجاست که یک کد شتاب دهنده سخت افزاری ویژه مبتنی بر CUDA برای دوخت تصاویر بزرگ استفاده می شود. از این گذشته، هیچ کارت گرافیکی نمی تواند یک تصویر چند گیگاپیکسلی را به طور کامل ارائه دهد، اما می تواند این کار را به صورت تکه ای انجام دهد، که فقط باید بعداً با در نظر گرفتن تفاوت احتمالی در نور، رنگ و غیره آنها را ترکیب کنید.

پس از دوخت چنین پانورامایی، از یک پس پردازش ویژه برای کل فریم استفاده می شود، همچنین در GPU تسریع شده است. و برای ثبت تصاویر در محدوده دینامیکی بالاتر، می توانید از یک فرمت تصویر خاص استفاده کنید - EXR، یک استاندارد باز از Industrial Light و Magic، که مقادیر رنگ در هر کانال آن در فرمت ممیز شناور 16 بیتی ثبت می شود. (FP16).

این فرمت به شما این امکان را می دهد که روشنایی و محدوده دینامیکی تصویر را در پس پردازش تغییر دهید و آن را برای هر صفحه نمایش خاص به میزان دلخواه برسانید، مشابه روشی که با فرمت های RAW از دوربین ها انجام می شود. و برای استفاده بعدی از فیلترهای پس از پردازش در برنامه های پردازش تصویر، این فرمت بسیار مفید است، زیرا حاوی داده های بسیار بیشتری نسبت به فرمت های تصویر معمولی است.

اما خود پلتفرم Ansel حاوی فیلترهای پس از پردازش بسیار زیادی است که این موضوع از اهمیت ویژه ای برخوردار است زیرا نه تنها به تصویر نهایی، بلکه به تمام بافرهایی که بازی در هنگام رندر استفاده می کند نیز دسترسی دارد که می توان از آنها برای افکت های بسیار جالب استفاده کرد. مانند عمق میدان برای این کار، Ansel دارای یک API ویژه پس از پردازش است و هر یک از افکت ها را می توان با پشتیبانی از این پلتفرم در بازی گنجاند.

فیلترهای پس از آنسل عبارتند از: منحنی رنگ، فضای رنگی، تبدیل، اشباع نشدن، روشنایی/کنتراست، دانه بندی فیلم، شکوفایی، شعله ور شدن لنز، تابش خیره کننده آنامورفیک، اعوجاج، گرمازدگی، چشم ماهی، انحراف رنگ، نگاشت تن، کثیفی لنز، میل نور، وینیت، تصحیح گاما، پیچیدگی، تیز کردن، تشخیص لبه، تاری، sepia، denoise، FXAA و موارد دیگر.

در مورد ظاهر پشتیبانی Ansel در بازی ها، پس باید کمی صبر کنیم تا توسعه دهندگان آن را اجرا و آزمایش کنند. اما انویدیا وعده داده است که به زودی چنین پشتیبانی در بازی های معروفی مانند The Division، The Witness، Lawbreakers، The Witcher 3، Paragon، Fortnite، Obduction، No Man's Sky، Unreal Tournament و غیره ظاهر خواهد شد.

فناوری جدید فرآیند 16 نانومتری FinFET و بهینه‌سازی‌های معماری به GeForce GTX 1080 مبتنی بر پردازنده گرافیکی GP104 اجازه می‌دهد حتی در فرم مرجع به سرعت کلاک بالای 1.6-1.7 گیگاهرتز دست یابد و نسل جدید عملکرد در بالاترین فرکانس ممکن را در بازی‌ها تضمین می‌کند. فناوری‌های تقویت GPU همراه با افزایش تعداد واحدهای اجرایی، این پیشرفت ها آن را نه تنها به بالاترین عملکرد کارت گرافیک تک تراشه در تمام دوران ها تبدیل می کند، بلکه به کارآمدترین راه حل در بازار نیز تبدیل می کند.

GeForce GTX 1080 اولین کارت گرافیکی است که دارای حافظه گرافیکی جدید GDDR5X است، نسل جدیدی از تراشه‌های پرسرعت که به سرعت داده بسیار بالایی می‌رسند. در مورد GeForce GTX 1080 اصلاح شده، این نوع حافظه با فرکانس موثر 10 گیگاهرتز کار می کند. همراه با بهبود الگوریتم‌های فشرده‌سازی فریم‌بافر، این امر منجر به افزایش 1.7 برابری پهنای باند حافظه موثر برای این GPU در مقایسه با نسل قبلی خود یعنی GeForce GTX 980 شد.

انویدیا با احتیاط تصمیم گرفت که معماری کاملاً جدیدی را روی یک فناوری فرآیند کاملاً جدید برای خود منتشر نکند تا در طول توسعه و تولید با مشکلات غیرضروری مواجه نشود. در عوض، آنها به طور جدی معماری ماکسول خوب و بسیار کارآمد را با افزودن برخی ویژگی ها بهبود بخشیدند. در نتیجه، با تولید پردازنده‌های گرافیکی جدید همه چیز خوب است و در مورد مدل GeForce GTX 1080، مهندسان به پتانسیل فرکانس بسیار بالایی دست یافته‌اند - در نسخه‌های اورکلاک شده از شرکا، فرکانس GPU تا 2 گیگاهرتز پیش‌بینی می‌شود! چنین فرکانس چشمگیری به لطف فرآیند فنی بی نقص و کار پر زحمت مهندسان انویدیا در توسعه GPU پاسکال به واقعیت تبدیل شد.

اگرچه پاسکال پیرو مستقیم ماکسول است و این معماری‌های گرافیکی اساساً تفاوت چندانی با یکدیگر ندارند، انویدیا تغییرات و پیشرفت‌های زیادی از جمله قابلیت‌های نمایش، کدگذاری ویدئو و موتور رمزگشایی، بهبود اجرای ناهمزمان انواع محاسبات روی GPU، تغییراتی در رندر چند تراشه ای ایجاد کرد و یک روش همگام سازی جدید به نام Fast Sync را معرفی کرد.

غیرممکن است که فناوری Simultaneous Multi-Projection را برجسته نکنید، که به بهبود عملکرد در سیستم های واقعیت مجازی، نمایش صحیح تر صحنه ها در سیستم های چند مانیتور و معرفی تکنیک های جدید بهینه سازی عملکرد کمک می کند. اما برنامه‌های VR با پشتیبانی از فناوری چند پروژکتوری، بیشترین افزایش سرعت را مشاهده خواهند کرد، که به کاهش نصف منابع GPU در هنگام پردازش داده‌های هندسی و یک و نیم برابر در محاسبات در هر پیکسل کمک می‌کند.

در میان تغییرات صرفاً نرم افزاری، پلت فرم ایجاد اسکرین شات در بازی هایی به نام Ansel متمایز است - امتحان آن در عمل نه تنها برای کسانی که زیاد بازی می کنند، بلکه برای کسانی که به سادگی به گرافیک سه بعدی با کیفیت بالا علاقه مند هستند جالب خواهد بود. . این جدید به شما امکان می دهد هنر ایجاد و روتوش اسکرین شات ها را به سطح جدیدی ارتقا دهید. خوب، بسته‌هایی برای توسعه‌دهندگان بازی مانند GameWorks و VRWorks، انویدیا گام به گام به پیشرفت خود ادامه می‌دهد - بنابراین، در دومی، با در نظر گرفتن انعکاس‌های متعدد امواج صوتی با استفاده از اشعه سخت‌افزار، امکان جالبی برای محاسبه صدای با کیفیت بالا ظاهر شده است. ردیابی

به طور کلی، در قالب کارت گرافیک Nvidia GeForce GTX 1080، یک رهبر واقعی وارد بازار شد که تمام ویژگی های لازم برای این کار را داشت: عملکرد بالا و عملکرد گسترده و همچنین پشتیبانی از ویژگی ها و الگوریتم های جدید. خریداران اولیه این کارت گرافیک می توانند فوراً بسیاری از مزایای ذکر شده را تجربه کنند، در حالی که سایر ویژگی های راه حل کمی بعد، زمانی که پشتیبانی گسترده از نرم افزار وجود دارد، آشکار خواهد شد. نکته اصلی این است که GeForce GTX 1080 بسیار سریع و کارآمد است، و همانطور که ما واقعا امیدواریم، مهندسان انویدیا موفق شدند برخی از مناطق مشکل را برطرف کنند (همان محاسبات ناهمزمان).

شتاب دهنده گرافیکی GeForce GTX 1070

پارامترمعنی
نام کد تراشهGP104
فن آوری تولیدFinFET 16 نانومتری
تعداد ترانزیستور7.2 میلیارد
منطقه اصلی314 میلی متر مربع
معمارییکپارچه، با آرایه ای از پردازنده های رایج برای پردازش جریانی انواع متعددی از داده ها: رئوس، پیکسل ها و غیره.
پشتیبانی سخت افزاری DirectXDirectX 12 با پشتیبانی از Feature Level 12_1
اتوبوس حافظه256 بیت: هشت کنترلر حافظه 32 بیتی مستقل که از حافظه های GDDR5 و GDDR5X پشتیبانی می کنند
فرکانس GPU1506 (1683) مگاهرتز
بلوک های محاسباتی15 چند پردازنده فعال (از 20 مورد در تراشه)، از جمله 1920 (از 2560) ALU اسکالر برای محاسبات ممیز شناور در چارچوب استاندارد IEEE 754-2008.
بلوک های بافت120 واحد آدرس دهی و فیلتر بافت فعال (از 160 موجود در تراشه) با پشتیبانی از اجزای FP16 و FP32 در بافت ها و پشتیبانی از فیلتر سه خطی و ناهمسانگرد برای همه فرمت های بافت
واحدهای عملیات شطرنجی (ROP)8 ROP عریض (64 پیکسل) با پشتیبانی از حالت های مختلف anti-aliasing، از جمله قابل برنامه ریزی و با فرمت بافر فریم FP16 یا FP32. بلوک ها از آرایه ای از ALU های قابل تنظیم تشکیل شده اند و مسئول تولید عمق و مقایسه، چند نمونه گیری و ترکیب هستند.
نظارت بر پشتیبانیپشتیبانی یکپارچه از حداکثر چهار نمایشگر متصل از طریق Dual Link DVI، HDMI 2.0b و DisplayPort 1.2 (1.3/1.4 Ready)

مشخصات گرافیک مرجع GeForce GTX 1070
پارامترمعنی
فرکانس هسته1506 (1683) مگاهرتز
تعداد پردازنده های جهانی1920
تعداد بلوک های بافت120
تعداد بلوک های ترکیبی64
فرکانس حافظه موثر8000 (4×2000) مگاهرتز
نوع حافظهGDDR5
اتوبوس حافظه256 بیتی
اندازه حافظه8 گیگابایت
پهنای باند حافظه256 گیگابایت بر ثانیه
عملکرد محاسباتی (FP32)حدود 6.5 ترافلاپس
حداکثر نرخ پر شدن نظری96 گیگاپیکسل بر ثانیه
نرخ نمونه برداری بافت نظری181 گیگاکسل در ثانیه
لاستیکPCI Express 3.0
اتصال دهنده هایک DVI Dual Link، یک HDMI و سه DisplayPort
مصرف انرژیتا 150 وات
غذای اضافییک کانکتور 8 پین
تعداد اسلات های اشغال شده در شاسی سیستم2
قیمت پیشنهادی379-449 دلار (ایالات متحده)، 34990 (روسیه)

کارت گرافیک GeForce GTX 1070 نیز نامی منطقی مشابه راه حل مشابه از سری قبلی GeForce دریافت کرد. تفاوت آن با نسل قبلی خود یعنی GeForce GTX 970 تنها در یک شماره نسل تغییر یافته است. این نوآوری یک قدم پایین تر از راه حل برتر فعلی GeForce GTX 1080 در خط فعلی این شرکت است که تا زمان انتشار راه حل های قدرتمندتر پردازنده گرافیکی به پرچمدار موقت سری جدید تبدیل شد.

قیمت های پیشنهادی برای کارت گرافیک جدید انویدیا 379 دلار و 449 دلار برای شرکای معمولی انویدیا و Founders Edition است. در مقایسه با مدل برتر، با توجه به اینکه GTX 1070 در بدترین حالت حدود 25 درصد از آن عقب تر است، این قیمت بسیار خوبی است. و در زمان معرفی و عرضه، GTX 1070 به بهترین راه حل عملکرد در کلاس خود تبدیل می شود. مانند GeForce GTX 1080، GTX 1070 رقیب مستقیم AMD ندارد و تنها با Radeon R9 390X و Fury قابل مقایسه است.

پردازنده گرافیکی GP104 در اصلاح GeForce GTX 1070 تصمیم گرفت یک گذرگاه حافظه کامل 256 بیتی را ترک کند، اگرچه آنها از نوع جدیدی از حافظه GDDR5X استفاده نکردند، بلکه از یک GDDR5 بسیار سریع استفاده کردند که در فرکانس موثر بالای 8 گیگاهرتز کار می کند. مقدار حافظه نصب شده روی کارت گرافیک با چنین گذرگاهی می تواند 4 یا 8 گیگابایت باشد و به منظور اطمینان از حداکثر عملکرد راه حل جدید در شرایط تنظیمات بالا و وضوح تصویر، مدل کارت گرافیک GeForce GTX 1070 نیز مجهز شده است. با 8 گیگابایت حافظه ویدئویی، مانند خواهر بزرگترش. این حجم برای اجرای هر برنامه سه بعدی با حداکثر تنظیمات کیفیت برای چندین سال کافی است.

GeForce GTX 1070 Founders Edition

با معرفی GeForce GTX 1080 در اوایل اردیبهشت، نسخه ویژه ای از این کارت گرافیک به نام Founders Edition معرفی شد که قیمتی بالاتر از کارت گرافیک های معمولی شرکای این شرکت دارد. همین امر در مورد تازگی نیز صدق می کند. در این مقاله دوباره در مورد نسخه ویژه کارت گرافیک GeForce GTX 1070 با نام Founders Edition صحبت خواهیم کرد. همانطور که در مورد مدل قدیمی تر، Nvidia تصمیم گرفت این نسخه از کارت گرافیک مرجع سازنده را با قیمت بالاتری عرضه کند. آنها ادعا می کنند که بسیاری از گیمرها و علاقه مندانی که کارت های گرافیکی گران قیمت می خرند، خواهان محصولی با ظاهر و احساس "ممتاز" مناسب هستند.

بر این اساس، برای چنین کاربرانی است که کارت گرافیک GeForce GTX 1070 Founders Edition که توسط مهندسان انویدیا از مواد و قطعات ممتاز طراحی و تولید شده است، مانند کاور آلومینیومی GeForce GTX 1070 Founders Edition و همچنین به بازار عرضه می شود. به عنوان یک صفحه پشتی با مشخصات پایین که پشت PCB را می پوشاند و در بین علاقه مندان بسیار محبوب است.

همانطور که از عکس های برد مشاهده می کنید، GeForce GTX 1070 Founders Edition دقیقاً همان طراحی صنعتی را از نسخه مرجع GeForce GTX 1080 Founders Edition به ارث برده است. هر دو مدل از یک فن شعاعی استفاده می کنند که هوای گرم شده را به بیرون می دمد که هم در موارد کوچک و هم در تنظیمات SLI چند تراشه با فضای فیزیکی محدود بسیار مفید است. با دمیدن هوای گرم شده به جای گردش آن در داخل کیس، می توانید استرس حرارتی را کاهش دهید، نتایج اورکلاک را بهبود بخشید و عمر اجزای سیستم را افزایش دهید.

در زیر پوشش سیستم خنک کننده مرجع GeForce GTX 1070، یک رادیاتور آلومینیومی با شکل خاص با سه لوله حرارتی مسی تعبیه شده است که گرما را از خود GPU حذف می کند. سپس گرمای دفع شده توسط لوله های حرارتی توسط هیت سینک آلومینیومی دفع می شود. خوب، صفحه فلزی با مشخصات پایین در پشت تخته نیز برای ارائه عملکرد حرارتی بهتر طراحی شده است. همچنین دارای یک بخش جمع شونده برای جریان هوای بهتر بین چند کارت گرافیک در تنظیمات SLI است.

در مورد سیستم قدرت برد، GeForce GTX 1070 Founders Edition دارای یک سیستم برق چهار فاز است که برای منبع تغذیه پایدار بهینه شده است. انویدیا ادعا می کند که استفاده از اجزای ویژه در GTX 1070 Founders Edition باعث بهبود بهره وری، پایداری و قابلیت اطمینان در مقایسه با GeForce GTX 970 شده و عملکرد اورکلاک بهتری را ارائه می دهد. در تست های خود این شرکت، پردازنده های گرافیکی GeForce GTX 1070 به راحتی از 1.9 گیگاهرتز فراتر رفتند که به نتایج مدل قدیمی GTX 1080 نزدیک است.

کارت گرافیک Nvidia GeForce GTX 1070 از 10 ژوئن در خرده فروشی ها در دسترس خواهد بود. قیمت های پیشنهادی برای GeForce GTX 1070 Founders Edition و راه حل های شریک متفاوت است و این سوال اصلی برای این نسخه ویژه است. اگر شرکای انویدیا کارت‌های گرافیک GeForce GTX 1070 خود را با قیمت 379 دلار (در بازار ایالات متحده) بفروشند، آنگاه نسخه Founders Edition طراحی مرجع Nvidia کمتر از 449 دلار قیمت خواهد داشت. آیا مشتاقان زیادی وجود دارند که حاضرند برای مزایای مشکوک نسخه مرجع، بیایید با آن روبرو شویم؟ زمان مشخص خواهد کرد، اما ما معتقدیم که هزینه مرجع به عنوان یک گزینه برای خرید در همان ابتدای فروش جالب تر است و بعداً نقطه خرید آن (و حتی با قیمت بالا!) قبلاً به صفر می رسد.

باید اضافه کرد که برد مدار چاپی مرجع GeForce GTX 1070 مشابه کارت گرافیک قدیمی است و هر دوی آنها با دستگاه بردهای قبلی این شرکت تفاوت دارند. مقدار مصرف برق معمولی برای محصول جدید 150 وات است که تقریباً 20 درصد کمتر از مقدار GTX 1080 و نزدیک به مصرف برق کارت گرافیک نسل قبلی GeForce GTX 970 است. برد مرجع Nvidia مجموعه ای آشنا دارد. از کانکتورهای اتصال دستگاه های خروجی تصویر: یک Dual-Link DVI، یک HDMI و سه DisplayPort. علاوه بر این، از نسخه های جدید HDMI و DisplayPort پشتیبانی می شود که در بالا در بررسی مدل GTX 1080 در مورد آن نوشتیم.

تغییرات معماری

GeForce GTX 1070 مبتنی بر تراشه GP104 است که اولین نسل از معماری گرافیکی پاسکال انویدیا است. این معماری بر اساس راه‌حل‌های توسعه‌یافته در Maxwell است، اما دارای برخی تفاوت‌های عملکردی است که در قسمتی که به کارت گرافیک GeForce GTX 1080 اختصاص داده شده است، به تفصیل در مورد آنها نوشتیم.

تغییر اصلی معماری جدید، فرآیند تکنولوژیکی بود که توسط آن تمامی GPUهای جدید اجرا خواهند شد. استفاده از فرآیند ساخت 16 نانومتری FinFET در تولید GP104 باعث شد تا پیچیدگی تراشه به میزان قابل توجهی افزایش یابد و در عین حال مساحت و هزینه نسبتاً پایینی داشته باشد و اولین تراشه معماری پاسکال دارای تعداد اجرای قابل توجهی بیشتری است. واحدها، از جمله آنهایی که عملکردهای جدیدی را ارائه می دهند، در مقایسه با تراشه های Maxwell با موقعیت مشابه.

تراشه ویدیویی GP104 از نظر طراحی شبیه به راه حل های معماری مشابه Maxwell است و می توانید اطلاعات دقیقی در مورد طراحی پردازنده های گرافیکی مدرن در بررسی راه حل های قبلی انویدیا بیابید. مانند پردازنده‌های گرافیکی قبلی، تراشه‌های معماری جدید دارای پیکربندی متفاوتی از Cluster پردازش گرافیک (GPC)، Streaming Multiprocessor (SM) و کنترل‌کننده‌های حافظه خواهند بود و برخی تغییرات قبلاً در GeForce GTX 1070 رخ داده است - بخشی از تراشه قفل شده است. و غیرفعال (با رنگ خاکستری برجسته شده):

اگرچه GP104 GPU شامل چهار کلاستر GPC و 20 چند پردازنده SM است، اما در نسخه GeForce GTX 1070 تغییراتی را دریافت کرد که یک کلاستر GPC توسط سخت افزار غیرفعال شده بود. از آنجایی که هر خوشه GPC دارای یک موتور شطرنجی اختصاصی است و شامل پنج SM است و هر چند پردازنده متشکل از 128 هسته CUDA و هشت TMU بافت است، 1920 هسته CUDA و 120 TMU از 2560 پردازنده جریانی در این نسخه از GP104 و 160 واحد بافت فیزیکی فعال هستند.

پردازنده گرافیکی که GeForce GTX 1070 بر روی آن ساخته شده است شامل هشت کنترلر حافظه 32 بیتی است که یک گذرگاه حافظه نهایی 256 بیتی را ارائه می دهد - دقیقاً مانند مدل قدیمی GTX 1080. زیرسیستم حافظه به منظور برش داده نشده است. یک حافظه با پهنای باند کافی با شرط استفاده از حافظه GDDR5 در GeForce GTX 1070 فراهم کنید. هر یک از کنترلرهای حافظه دارای هشت ROP و 256 کیلوبایت حافظه نهان L2 هستند، بنابراین تراشه GP104 در این اصلاح نیز شامل 64 ROP و 2048 KB L2 است. سطح کش

به لطف بهینه‌سازی‌های معماری و فناوری فرآیند جدید، GPU GP104 به کارآمدترین پردازنده گرافیکی تا به امروز تبدیل شده است. مهندسان انویدیا در هنگام انتقال به یک فرآیند جدید، قادر به افزایش سرعت ساعت بیش از حد انتظارشان بودند، که برای آن باید سخت کار می‌کردند و تمام گلوگاه‌های راه‌حل‌های قبلی را که به آنها اجازه نمی‌داد با فرکانس بالاتر کار کنند، با دقت بررسی و بهینه‌سازی می‌کردند. بر این اساس، GeForce GTX 1070 نیز با فرکانس بسیار بالا، بیش از 40 درصد بالاتر از مقدار مرجع برای GeForce GTX 970 کار می کند.

از آنجایی که GeForce GTX 1070 در اصل فقط یک GTX 1080 کم بهره وری با حافظه GDDR5 است، کاملاً از تمام فناوری هایی که در بخش قبل توضیح دادیم پشتیبانی می کند. برای جزئیات بیشتر در مورد معماری پاسکال و همچنین فناوری‌هایی که از آن پشتیبانی می‌کند، مانند واحدهای پردازش خروجی و ویدیوی بهبودیافته، پشتیبانی Async Compute، فناوری همزمان چند پروژکتوری، تغییرات در رندر چند تراشه‌ای SLI، و نوع جدید همگام‌سازی Fast Sync ، ارزش خواندن را با بخشی از GTX 1080 دارد.

حافظه GDDR5 با کارایی بالا و استفاده کارآمد از آن

ما در بالا در مورد تغییرات در زیرسیستم حافظه GPU GP104 نوشتیم که مدل‌های GeForce GTX 1080 و GTX 1070 بر اساس آن هستند - کنترل‌کننده‌های حافظه موجود در این GPU از هر دو نوع جدید حافظه ویدیویی GDDR5X پشتیبانی می‌کنند که به تفصیل در توضیح داده شده است. بررسی GTX 1080 و همچنین حافظه خوب قدیمی GDDR5 که چندین سال است که می شناسیم.

برای اینکه در GTX 1070 جوان‌تر نسبت به GTX 1080 قدیمی‌تر، پهنای باند حافظه زیادی از دست نرود، هر هشت کنترلر حافظه 32 بیتی در آن فعال باقی ماندند و یک رابط حافظه ویدیویی مشترک 256 بیتی کامل دریافت کردند. علاوه بر این، کارت گرافیک مجهز به سریعترین حافظه GDDR5 موجود در بازار بود - با فرکانس کاری موثر 8 گیگاهرتز. همه اینها پهنای باند حافظه 256 گیگابایت بر ثانیه را در مقابل 320 گیگابایت بر ثانیه برای راه حل قدیمی تر ارائه می دهد - قابلیت های محاسباتی تقریباً به همان میزان کاهش یافته است، بنابراین تعادل حفظ می شود.

به خاطر داشته باشید که در حالی که حداکثر پهنای باند نظری برای عملکرد GPU مهم است، باید به کارایی آن نیز توجه کنید. در طول فرآیند رندر، بسیاری از تنگناهای مختلف می توانند عملکرد کلی را محدود کنند و از استفاده از تمام پهنای باند حافظه در دسترس جلوگیری کنند. برای به حداقل رساندن این تنگناها، پردازنده‌های گرافیکی از فشرده‌سازی داده‌های بدون تلفات ویژه برای بهبود کارایی خواندن و نوشتن داده‌ها استفاده می‌کنند.

نسل چهارم فشرده‌سازی دلتا اطلاعات بافر قبلاً در معماری پاسکال معرفی شده است که به GPU اجازه می‌دهد تا به طور مؤثرتری از قابلیت‌های موجود گذرگاه حافظه ویدیویی استفاده کند. زیرسیستم حافظه در GeForce GTX 1070 و GTX 1080 از تکنیک های بهبود یافته قدیمی و جدید فشرده سازی داده بدون تلفات استفاده می کند که برای کاهش پهنای باند مورد نیاز طراحی شده اند. این مقدار داده‌های نوشته شده در حافظه را کاهش می‌دهد، کارایی حافظه نهان L2 را بهبود می‌بخشد و میزان داده ارسال شده بین نقاط مختلف GPU مانند TMU و فریم‌بافر را کاهش می‌دهد.

GPU Boost 3.0 و ویژگی های اورکلاک

بسیاری از شرکای انویدیا قبلاً راه‌حل‌های اورکلاک شده کارخانه‌ای مبتنی بر GeForce GTX 1080 و GTX 1070 را اعلام کرده‌اند. و بسیاری از سازندگان کارت‌های ویدئویی نیز ابزارهای اورکلاک ویژه‌ای ایجاد می‌کنند که به شما امکان می‌دهد از عملکرد جدید فناوری GPU Boost 3.0 استفاده کنید. یکی از نمونه‌های این ابزارها EVGA Precision XOC است که شامل یک اسکنر خودکار برای تعیین منحنی ولتاژ به فرکانس است - در این حالت، برای هر مقدار ولتاژ، با اجرای یک تست پایداری، فرکانس پایداری پیدا می‌شود که GPU در آن ارائه می‌کند. افزایش عملکرد با این حال، این منحنی را می توان به صورت دستی نیز تغییر داد.

ما فناوری GPU Boost را به خوبی از کارت های گرافیک قبلی انویدیا می شناسیم. آنها در پردازنده‌های گرافیکی خود از این ویژگی سخت‌افزاری استفاده می‌کنند که برای افزایش سرعت کلاک پردازنده گرافیکی در حالت‌هایی طراحی شده است که هنوز به محدودیت‌های مصرف انرژی و اتلاف گرما نرسیده است. در پردازنده‌های گرافیکی پاسکال، این الگوریتم دستخوش تغییرات متعددی شده است که اصلی‌ترین آن، تنظیم دقیق‌تر فرکانس‌های توربو بسته به ولتاژ است.

اگر قبلاً تفاوت بین فرکانس پایه و فرکانس توربو ثابت شده بود ، در GPU Boost 3.0 امکان تنظیم افست فرکانس توربو برای هر ولتاژ جداگانه وجود داشت. اکنون فرکانس توربو را می توان برای هر یک از مقادیر ولتاژ جداگانه تنظیم کرد که به شما امکان می دهد تمام قابلیت های اورکلاک را به طور کامل از GPU خارج کنید. در بررسی GeForce GTX 1080 در مورد این ویژگی به تفصیل نوشتیم و برای این کار می توانید از ابزارهای EVGA Precision XOC و MSI Afterburner استفاده کنید.

از آنجایی که برخی از جزئیات در روش اورکلاک با انتشار کارت‌های ویدئویی با پشتیبانی از GPU Boost 3.0 تغییر کرده است، Nvidia مجبور شد توضیحات بیشتری را در دستورالعمل اورکلاک محصولات جدید ارائه دهد. تکنیک های مختلف اورکلاک با ویژگی های متغیر متفاوت وجود دارد که بر نتیجه نهایی تأثیر می گذارد. برای هر سیستم خاص، یک روش خاص ممکن است مناسب تر باشد، اما اصول اولیه همیشه تقریباً یکسان است.

بسیاری از اورکلاکرها از معیار Unigine Heaven 4.0 برای بررسی پایداری سیستم استفاده می کنند، که GPU را به خوبی بارگیری می کند، تنظیمات انعطاف پذیری دارد و می تواند در حالت پنجره ای همراه با یک پنجره ابزار اورکلاک و نظارت در نزدیکی، مانند EVGA Precision یا MSI Afterburner اجرا شود. با این حال، چنین بررسی فقط برای تخمین های اولیه کافی است و برای تایید محکم پایداری اورکلاک، باید در چندین برنامه بازی بررسی شود، زیرا بازی های مختلف به بارهای متفاوتی در واحدهای عملکردی مختلف GPU نیاز دارند: ریاضی، بافت، هندسی. بنچمارک Heaven 4.0 برای اورکلاک نیز مناسب است، زیرا دارای حالت عملیاتی حلقه ای است که در آن به راحتی می توان تنظیمات اورکلاک را تغییر داد و یک معیار برای ارزیابی افزایش سرعت وجود دارد.

انویدیا توصیه می‌کند هنگام اورکلاک کردن کارت‌های گرافیک جدید GeForce GTX 1080 و GTX 1070، ویندوز Heaven 4.0 و EVGA Precision XOC را با هم اجرا کنید. در ابتدا، مطلوب است که بلافاصله سرعت فن را افزایش دهید. و برای اورکلاک جدی، می توانید بلافاصله مقدار سرعت را روی 100٪ تنظیم کنید که باعث می شود کارت گرافیک بسیار بلند باشد، اما با کاهش دما به کمترین میزان ممکن، GPU و سایر اجزای کارت گرافیک را تا حد ممکن خنک می کند. سطح، جلوگیری از throttling (کاهش فرکانس ها به دلیل افزایش دمای GPU بالاتر از مقدار معین).

در مرحله بعد، باید مقدار توان هدف (Power Target) را نیز روی حداکثر تنظیم کنید. این تنظیم با افزایش سطح مصرف انرژی و دمای هدف GPU (GPU Temp Target) حداکثر توان ممکن را برای GPU فراهم می کند. برای برخی اهداف، مقدار دوم را می توان از تغییر Power Target جدا کرد، و سپس این تنظیمات را می توان به صورت جداگانه تنظیم کرد - برای مثال، برای دستیابی به گرمای کمتر تراشه ویدیویی.

مرحله بعدی افزایش مقدار آفست ساعت GPU است - به این معنی که فرکانس توربو در حین کار چقدر بالاتر خواهد بود. این مقدار فرکانس را برای همه ولتاژها افزایش می دهد و باعث عملکرد بهتر می شود. طبق معمول، هنگام اورکلاک، باید ثبات را هنگام افزایش فرکانس GPU در مراحل کوچک بررسی کنید - از 10 مگاهرتز به 50 مگاهرتز در هر مرحله قبل از اینکه متوجه هنگ، خطای درایور یا برنامه یا حتی مصنوعات بصری شوید. وقتی به این حد رسید، باید مقدار فرکانس را یک پله پایین بیاورید و یک بار دیگر ثبات و عملکرد را در حین اورکلاک بررسی کنید.

علاوه بر فرکانس پردازنده گرافیکی، می توانید فرکانس حافظه ویدیویی (Memory Clock Offset) را نیز افزایش دهید که در مورد GeForce GTX 1070 مجهز به حافظه GDDR5 که معمولا به خوبی اورکلاک می شود، اهمیت ویژه ای دارد. فرآیند در مورد فرکانس حافظه دقیقاً همان کاری را تکرار می کند که هنگام یافتن فرکانس GPU پایدار انجام می شود، تنها تفاوت این است که مراحل را می توان بزرگتر کرد - یکباره 50-100 مگاهرتز را به فرکانس پایه اضافه کنید.

علاوه بر مراحل بالا، می‌توانید محدودیت Overvoltage را نیز افزایش دهید، زیرا فرکانس GPU بالاتر اغلب در ولتاژ افزایش یافته، زمانی که بخش‌های ناپایدار GPU انرژی اضافی دریافت می‌کنند، به دست می‌آید. درست است، یک نقطه ضعف بالقوه افزایش این مقدار، احتمال آسیب رساندن به تراشه ویدئو و خرابی سریع آن است، بنابراین باید با احتیاط زیاد از افزایش ولتاژ استفاده کنید.

علاقه مندان به اورکلاک از تکنیک های کمی متفاوت استفاده می کنند و پارامترها را به ترتیب متفاوتی تغییر می دهند. به عنوان مثال، برخی از اورکلاک‌کننده‌ها آزمایش‌هایی را برای یافتن یک GPU و فرکانس حافظه پایدار به اشتراک می‌گذارند تا با یکدیگر تداخل نداشته باشند، و سپس اورکلاک ترکیبی تراشه‌های ویدئویی و تراشه‌های حافظه را آزمایش می‌کنند، اما اینها در حال حاضر جزئیات ناچیز یک رویکرد فردی هستند. .

با قضاوت بر اساس نظرات در انجمن ها و نظرات در مورد مقالات، برخی از کاربران الگوریتم عملکرد جدید GPU Boost 3.0 را دوست نداشتند، زمانی که فرکانس GPU ابتدا بسیار بالا می رود، اغلب بالاتر از فرکانس توربو، اما پس از آن، تحت تاثیر افزایش است. در دمای GPU یا افزایش مصرف انرژی بالاتر از حد تعیین شده، می تواند به مقادیر بسیار پایین تری کاهش یابد. این فقط ویژگی های الگوریتم به روز شده است، شما باید به رفتار جدید فرکانس GPU در حال تغییر پویا عادت کنید، اما هیچ عواقب منفی ندارد.

GeForce GTX 1070 دومین مدل پس از GTX 1080 در سری جدید پردازنده های گرافیکی انویدیا بر اساس خانواده پاسکال است. فرآیند جدید ساخت 16 نانومتری FinFET و بهینه سازی های معماری این کارت گرافیک را قادر به دستیابی به سرعت کلاک بالایی کرده است که توسط نسل جدید فناوری GPU Boost پشتیبانی می شود. با وجود اینکه تعداد بلوک‌های کاربردی در قالب پردازنده‌های جریانی و ماژول‌های بافت کاهش یافته است، تعداد آنها برای تبدیل شدن به سودآورترین و کارآمدترین راه‌حل GTX 1070 کافی است.

بر خلاف نوع جدید GDDR5X که GTX 1080 را متمایز می کند، نصب حافظه GDDR5 روی جوانترین یک جفت مدل کارت گرافیک انویدیا بر روی یک تراشه GP104، مانع از دستیابی به شاخص های عملکرد بالا نمی شود. اولاً انویدیا تصمیم گرفت باس حافظه مدل GeForce GTX 1070 را قطع نکند و ثانیاً سریعترین حافظه GDDR5 را با فرکانس مؤثر 8 گیگاهرتز روی آن قرار داد که برای GDDR5X مورد استفاده در GDDR5X فقط کمی کمتر از 10 گیگاهرتز است. مدل قدیمی تر علاوه بر این، با بهبود الگوریتم‌های فشرده‌سازی دلتا، پهنای باند حافظه موثر GPU از همان پارامتر برای مدل مشابه نسل قبلی GeForce GTX 970 بیشتر شده است.

GeForce GTX 1070 از این نظر خوب است که عملکرد بسیار بالایی دارد و از ویژگی‌ها و الگوریتم‌های جدید با قیمتی بسیار پایین‌تر در مقایسه با مدل قدیمی‌تر که کمی پیشتر معرفی شده بود، پشتیبانی می‌کند. اگر تعداد کمی از علاقه مندان بتوانند یک GTX 1080 را با قیمت 55000 بخرند، در این صورت دایره بسیار بزرگتری از خریداران بالقوه قادر خواهند بود تنها برای یک چهارم راه حل کم تولید با همان قابلیت ها، 35000 بپردازند. این ترکیب قیمت نسبتا پایین و عملکرد بالا بود که GeForce GTX 1070 را به سودآورترین خرید در زمان عرضه تبدیل کرد.

شتاب دهنده گرافیکی GeForce GTX 1060

پارامترمعنی
نام کد تراشهGP106
فن آوری تولیدFinFET 16 نانومتری
تعداد ترانزیستور4.4 میلیارد
منطقه اصلی200 میلی متر مربع
معمارییکپارچه، با آرایه ای از پردازنده های رایج برای پردازش جریانی انواع متعددی از داده ها: رئوس، پیکسل ها و غیره.
پشتیبانی سخت افزاری DirectXDirectX 12 با پشتیبانی از Feature Level 12_1
اتوبوس حافظه192 بیت: شش کنترلر حافظه 32 بیتی مستقل که از حافظه GDDR5 پشتیبانی می کنند
فرکانس GPU1506 (1708) مگاهرتز
بلوک های محاسباتی10 چند پردازنده جریانی، شامل 1280 ALU اسکالر برای محاسبات ممیز شناور در استاندارد IEEE 754-2008.
بلوک های بافت80 واحد آدرس دهی و فیلتر بافت با پشتیبانی از اجزای FP16 و FP32 در بافت ها و پشتیبانی از فیلتر سه خطی و ناهمسانگرد برای همه فرمت های بافت
واحدهای عملیات شطرنجی (ROP)6 ROP عریض (48 پیکسل) با پشتیبانی از حالت‌های مختلف anti-aliasing، از جمله قابل برنامه‌ریزی و با فرمت بافر فریم FP16 یا FP32. بلوک ها از آرایه ای از ALU های قابل تنظیم تشکیل شده اند و مسئول تولید عمق و مقایسه، چند نمونه گیری و ترکیب هستند.
نظارت بر پشتیبانیپشتیبانی یکپارچه از حداکثر چهار نمایشگر متصل از طریق Dual Link DVI، HDMI 2.0b و DisplayPort 1.2 (1.3/1.4 Ready)

مشخصات گرافیک مرجع GeForce GTX 1060
پارامترمعنی
فرکانس هسته1506 (1708) مگاهرتز
تعداد پردازنده های جهانی1280
تعداد بلوک های بافت80
تعداد بلوک های ترکیبی48
فرکانس حافظه موثر8000 (4×2000) مگاهرتز
نوع حافظهGDDR5
اتوبوس حافظه192 بیتی
اندازه حافظه6 گیگابایت
پهنای باند حافظه192 گیگابایت بر ثانیه
عملکرد محاسباتی (FP32)حدود 4 ترافلاپس
حداکثر نرخ پر شدن نظری72 گیگاپیکسل بر ثانیه
نرخ نمونه برداری بافت نظری121 گیگاکسل بر ثانیه
لاستیکPCI Express 3.0
اتصال دهنده هایک DVI Dual Link، یک HDMI و سه DisplayPort
مصرف برق معمولی120 وات
غذای اضافییک کانکتور 6 پین
تعداد اسلات های اشغال شده در شاسی سیستم2
قیمت پیشنهادی249 دلار (299 دلار) در ایالات متحده و 18990 دلار در روسیه

کارت گرافیک GeForce GTX 1060 نیز نامی مشابه همان راه حل از سری قبلی GeForce دریافت کرد که با نام قبلی مستقیم خود GeForce GTX 960 تنها با تغییر رقم اول نسل تفاوت داشت. این نوآوری در خط فعلی این شرکت یک پله پایین تر از راه حل قبلی GeForce GTX 1070 است که از نظر سرعت در سری جدید متوسط ​​​​است.

قیمت های پیشنهادی برای کارت گرافیک جدید انویدیا برای نسخه های معمولی شرکای این شرکت و برای نسخه ویژه Founder's Edition به ترتیب 249 دلار و 299 دلار است. در مقایسه با دو مدل قدیمی‌تر، این قیمت بسیار مطلوب است، زیرا مدل جدید GTX 1060، اگرچه نسبت به مادربردهای رده‌بالا پایین‌تر است، اما به اندازه ارزان‌تر نیست. در زمان اعلام، این جدید قطعا بهترین راه حل عملکرد در کلاس خود و یکی از سودآورترین پیشنهادها در این محدوده قیمتی شد.

این مدل از کارت گرافیک خانواده پاسکال انویدیا برای مقابله با تصمیم جدید شرکت رقیب AMD که Radeon RX 480 را کمی زودتر منتشر کرد، ارائه شد. آنها هنوز به طور قابل توجهی در قیمت متفاوت هستند. GeForce GTX 1060 گران تر است (249-299 دلار در مقابل 199-229 دلار)، اما همچنین به وضوح سریعتر از رقیب خود است.

پردازنده گرافیکی GP106 دارای گذرگاه حافظه 192 بیتی است، بنابراین میزان حافظه نصب شده روی کارت گرافیک با چنین گذرگاهی می تواند 3 یا 6 گیگابایت باشد. مقدار کوچکتر در شرایط مدرن رک و پوست کنده کافی نیست و بسیاری از پروژه های بازی، حتی در وضوح Full HD، با کمبود حافظه ویدیو مواجه می شوند که به طور جدی بر روان بودن رندر تأثیر می گذارد. برای اطمینان از حداکثر عملکرد راه حل جدید در تنظیمات بالا، مدل GeForce GTX 1060 به 6 گیگابایت حافظه ویدئویی مجهز شد که برای اجرای هر برنامه سه بعدی با هر تنظیمات کیفیت کافی است. علاوه بر این، امروزه تفاوتی بین 6 و 8 گیگابایت وجود ندارد و چنین راه حلی باعث صرفه جویی در هزینه می شود.

مقدار مصرف برق معمولی برای محصول جدید 120 وات است که 20 درصد کمتر از مقدار GTX 1070 است و برابر با مصرف برق نسل قبلی کارت گرافیک GeForce GTX 960 است که عملکرد و قابلیت های بسیار کمتری دارد. برد مرجع دارای مجموعه کانکتورهای معمولی برای اتصال دستگاه های خروجی تصویر است: یک Dual-Link DVI، یک HDMI و سه DisplayPort. علاوه بر این، پشتیبانی از نسخه های جدید HDMI و DisplayPort نیز وجود داشت که در بررسی مدل GTX 1080 در مورد آن نوشتیم.

طول برد مرجع GeForce GTX 1060 9.8 اینچ (25 سانتی متر) است، و با توجه به تفاوت های موجود با گزینه های قدیمی، به طور جداگانه اشاره می کنیم که GeForce GTX 1060 از پیکربندی رندر چند تراشه SLI پشتیبانی نمی کند و دارای یک رابط مخصوص برای این از آنجایی که برد نسبت به مدل های قدیمی برق کمتری مصرف می کند، یک کانکتور برق خارجی 6 پین PCI-E برای برق اضافی روی برد نصب شده است.

کارت گرافیک های GeForce GTX 1060 از روز معرفی در قالب محصولاتی از شرکای این شرکت در بازار ظاهر شده اند: Asus، EVGA، Gainward، Gigabyte، Innovision 3D، MSI، Palit، Zotac. نسخه ویژه GeForce GTX 1060 Founder's Edition که توسط خود انویدیا تولید می شود در تعداد محدود عرضه می شود که با قیمت 299 دلار به صورت انحصاری در وب سایت انویدیا به فروش می رسد و به طور رسمی در روسیه ارائه نخواهد شد. نسخه Founder's Edition با این واقعیت متمایز است که از مواد و اجزای با کیفیت بالا از جمله یک بدنه آلومینیومی ساخته شده است و از یک سیستم خنک کننده کارآمد و همچنین مدارهای قدرت با مقاومت کم و تنظیم کننده های ولتاژ طراحی شده ویژه استفاده می کند.

تغییرات معماری

کارت گرافیک GeForce GTX 1060 مبتنی بر یک پردازنده گرافیکی کاملاً جدید مدل GP106 است که از نظر عملکرد هیچ تفاوتی با اولین معماری پاسکال در قالب تراشه GP104 ندارد که مدل‌های GeForce GTX 1080 و GTX 1070 روی آن توضیح داده‌اند. این معماری بر اساس راه حل هایی است که در Maxwell کار شده است، اما دارای برخی تفاوت های عملکردی است که قبلاً به تفصیل در مورد آنها نوشتیم.

تراشه ویدیویی GP106 از نظر طراحی شبیه به تراشه پاسکال رده بالا و راه حل های مشابه معماری Maxwell است و می توانید اطلاعات دقیقی در مورد طراحی پردازنده های گرافیکی مدرن در بررسی راه حل های قبلی انویدیا بیابید. مانند پردازنده‌های گرافیکی قبلی، تراشه‌های معماری جدید دارای پیکربندی متفاوتی از دسته پردازش گرافیکی (GPC)، چند پردازنده جریانی (SM) و کنترل‌کننده‌های حافظه هستند:

پردازنده گرافیکی GP106 دارای دو کلاستر GPC است که از 10 پردازنده چند پردازنده جریانی (Streaming Multiprocessor - SM) تشکیل شده است، یعنی دقیقاً نیمی از GP104. همانطور که در GPU قدیمی‌تر، هر یک از چند پردازنده‌ها شامل 128 هسته، 8 واحد بافت TMU، 256 کیلوبایت حافظه ثبت، 96 کیلوبایت حافظه مشترک و 48 کیلوبایت حافظه نهان L1 است. در نتیجه، GeForce GTX 1060 در مجموع دارای 1280 هسته محاسباتی و 80 واحد بافت است که نصف GTX 1080 است.

اما زیرسیستم حافظه GeForce GTX 1060 نسبت به راه حل برتر نصف نشده است، آن شامل شش کنترلر حافظه 32 بیتی است که گذرگاه حافظه 192 بیتی نهایی را ارائه می دهد. با فرکانس موثر حافظه ویدیویی GDDR5 برای GeForce GTX 1060 برابر با 8 گیگاهرتز، پهنای باند به 192 گیگابایت در ثانیه می رسد که برای راه حلی در این بخش قیمتی بسیار خوب است، به خصوص با توجه به راندمان بالای استفاده از آن در پاسکال. هر یک از کنترلرهای حافظه دارای هشت ROP و 256 کیلوبایت حافظه نهان L2 هستند، بنابراین در کل نسخه کامل GP106 GPU شامل 48 ROP و 1536 KB حافظه نهان L2 است.

برای کاهش نیاز به پهنای باند حافظه و استفاده کارآمدتر از معماری پاسکال موجود، فشرده‌سازی داده‌های روی تراشه بدون تلفات بیشتر بهبود یافته است که می‌تواند داده‌ها را در بافرها فشرده کند و کارایی و عملکرد را افزایش دهد. به طور خاص، روش‌های فشرده‌سازی دلتای جدید 4:1 و 8:1 به خانواده جدید تراشه‌ها اضافه شده‌اند که 20 درصد راندمان پهنای باند را در مقایسه با راه‌حل‌های قبلی خانواده Maxwell فراهم می‌کند.

فرکانس پایه GPU جدید 1506 مگاهرتز است - فرکانس در اصل نباید زیر این علامت باشد. ساعت بوست معمولی بسیار بالاتر است، در 1708 مگاهرتز، که میانگین فرکانس واقعی است که تراشه گرافیکی GeForce GTX 1060 در طیف گسترده ای از بازی ها و برنامه های سه بعدی اجرا می کند. فرکانس واقعی Boost به بازی و شرایطی که تست در آن انجام می شود بستگی دارد.

مانند بقیه راه حل های خانواده پاسکال، مدل GeForce GTX 1060 نه تنها در فرکانس کلاک بالا کار می کند و عملکرد بالایی ارائه می دهد، بلکه حاشیه مناسبی برای اورکلاک نیز دارد. اولین آزمایش ها امکان دستیابی به فرکانس های مرتبه 2 گیگاهرتز را نشان می دهد. جای تعجب نیست که شرکای این شرکت نیز در حال آماده سازی نسخه های اورکلاک شده کارخانه ای کارت گرافیک GTX 1060 هستند.

بنابراین، تغییر اصلی در معماری جدید فرآیند 16 نانومتری FinFET بود که استفاده از آن در تولید GP106 باعث شد تا پیچیدگی تراشه به میزان قابل توجهی افزایش یابد و در عین حال مساحت نسبتاً کم 200 میلی‌متر مربع حفظ شود. بنابراین این تراشه معماری پاسکال در مقایسه با تراشه Maxwell با موقعیت‌یابی مشابه که با استفاده از فناوری فرآیند 28 نانومتری تولید می‌شود، تعداد واحدهای اجرایی بسیار بیشتری دارد.

اگر GM206 (GTX 960) با مساحت 227 میلی‌متر مربع دارای 3 میلیارد ترانزیستور و 1024 ALU، 64 TMU، 32 ROP و یک گذرگاه 128 بیتی بود، آن‌گاه GPU جدید حاوی 4.4 میلیارد ترانزیستور، 1280 ALU بود. 200 میلی‌متر مربع، 80 TMU و 48 ROP با گذرگاه 192 بیتی. علاوه بر این، تقریباً یک و نیم برابر فرکانس بالاتر: 1506 (1708) در مقابل 1126 (1178) مگاهرتز. و این با همان توان مصرفی 120 وات! در نتیجه، پردازنده گرافیکی GP106 در کنار GP104 به یکی از کارآمدترین پردازنده های گرافیکی تبدیل شده است.

فناوری های جدید انویدیا

یکی از جالب ترین فناوری های این شرکت که توسط کارت گرافیک GeForce GTX 1060 و سایر راهکارهای خانواده پاسکال پشتیبانی می شود، فناوری است. انویدیا همزمان چند پروژکتوری. قبلاً در مورد این فناوری در بررسی GeForce GTX 1080 نوشتیم، این امکان را به شما می دهد تا از چندین تکنیک جدید برای بهینه سازی رندر استفاده کنید. به طور خاص - به طور همزمان یک تصویر VR برای دو چشم به طور همزمان پخش کنید و کارایی استفاده از GPU در واقعیت مجازی را به میزان قابل توجهی افزایش دهید.

برای پشتیبانی از SMP، همه پردازنده‌های گرافیکی خانواده پاسکال دارای موتور خاصی هستند که در موتور PolyMorph در انتهای خط لوله هندسی قبل از شطرنج‌ساز قرار دارد. با آن، GPU می تواند به طور همزمان یک هندسی اولیه را بر روی چندین تصویر از یک نقطه پخش کند، در حالی که این پیش بینی ها می توانند استریو باشند (یعنی حداکثر 16 یا 32 پیش بینی به طور همزمان پشتیبانی می شوند). این ویژگی به GPU های پاسکال اجازه می دهد تا با دقت یک سطح منحنی را برای رندر واقعیت مجازی بازتولید کنند و همچنین در سیستم های چند مانیتور به درستی نمایش داده شوند.

مهم است که فناوری همزمان چند پروژکتوری در حال حاضر در موتورهای بازی محبوب (Unreal Engine و Unity) و بازی‌ها ادغام شده است و تا به امروز، پشتیبانی از این فناوری برای بیش از 30 بازی در حال توسعه، از جمله بازی‌های معروف، اعلام شده است. پروژه هایی مانند Unreal Tournament، Poolnation VR، Everest VR، Obduction، Adr1ft و Raw Data. جالب اینجاست که اگرچه Unreal Tournament یک بازی VR نیست، اما از SMP برای دستیابی به تصاویر و عملکرد بهتر استفاده می کند.

یکی دیگر از فناوری های مورد انتظار، ابزاری قدرتمند برای ایجاد اسکرین شات در بازی ها است. Nvidia Ansel. این ابزار به شما این امکان را می دهد تا تصاویر غیرعادی و بسیار با کیفیتی از بازی ها با ویژگی هایی که قبلاً در دسترس نبودند ایجاد کنید، آنها را با وضوح بسیار بالا ذخیره کنید و با افکت های مختلف تکمیل کنید و ساخته های خود را به اشتراک بگذارید. Ansel به شما این امکان را می دهد که به معنای واقعی کلمه یک اسکرین شات را همانطور که هنرمند می خواهد بسازید، به شما این امکان را می دهد که یک دوربین با هر پارامتری را در هر نقطه از صحنه نصب کنید، فیلترهای پست قدرتمند را روی تصویر اعمال کنید، یا حتی یک عکس 360 درجه برای مشاهده در یک عکس بگیرید. کلاه ایمنی مجازی

انویدیا ادغام Ansel UI را در بازی ها استاندارد کرده است و انجام این کار به آسانی اضافه کردن چند خط کد است. دیگر لازم نیست منتظر بمانید تا این ویژگی در بازی ها ظاهر شود، می توانید توانایی های Ansel را همین حالا در Mirror's Edge: Catalyst ارزیابی کنید و کمی بعد در Witcher 3: Wild Hunt در دسترس قرار خواهد گرفت. علاوه بر این، بسیاری از پروژه های بازی با قابلیت Ansel در حال توسعه هستند، از جمله بازی هایی مانند Fortnite، Paragon and Unreal Tournament، Obduction، The Witness، Lawbreakers، Tom Clancy's The Division، No Man's Sky و غیره.

GPU جدید GeForce GTX 1060 نیز از این جعبه ابزار پشتیبانی می کند Nvidia VRWorks، که به توسعه دهندگان کمک می کند تا پروژه های چشمگیر برای واقعیت مجازی ایجاد کنند. این بسته شامل ابزارها و ابزارهای بسیاری برای توسعه دهندگان است، از جمله VRWorks Audio، که به شما امکان می دهد با استفاده از ردیابی پرتوهای GPU، محاسبه بسیار دقیق انعکاس امواج صوتی از اشیاء صحنه را انجام دهید. این بسته همچنین شامل ادغام با جلوه های فیزیک VR و PhysX برای اطمینان از رفتار صحیح فیزیکی اشیاء در صحنه است.

یکی از هیجان‌انگیزترین بازی‌های واقعیت مجازی برای استفاده از VRWorks، VR Funhouse، بازی واقعیت مجازی خود انویدیا است که به صورت رایگان در سرویس استیم Valve در دسترس است. این بازی توسط Unreal Engine 4 (Epic Games) ساخته شده و بر روی کارت‌های گرافیک GeForce GTX 1080، 1070 و 1060 به همراه هدست‌های HTC Vive VR اجرا می‌شود. علاوه بر این، کد منبع این بازی به صورت عمومی در دسترس خواهد بود که به دیگر توسعه دهندگان این امکان را می دهد تا از ایده ها و کدهای آماده موجود در جاذبه های واقعیت مجازی خود استفاده کنند. حرف ما را قبول کنید، این یکی از چشمگیرترین نمایش ها از امکانات واقعیت مجازی است.

از جمله به لطف فناوری‌های SMP و VRWorks، استفاده از GPU GeForce GTX 1060 در برنامه‌های VR عملکردی را ارائه می‌دهد که برای واقعیت مجازی سطح پایه کاملاً کافی است و GPU مورد نظر حداقل سطح سخت‌افزار مورد نیاز را برآورده می‌کند، از جمله برای SteamVR، یکی از موفق ترین خریدها برای استفاده در سیستم هایی با پشتیبانی رسمی VR.

از آنجایی که مدل GeForce GTX 1060 مبتنی بر تراشه GP106 است که به هیچ وجه از پردازنده گرافیکی GP104 که مبنایی برای تغییرات قدیمی تر شده است پایین نیست، کاملاً از تمام فناوری هایی که در بالا توضیح داده شد پشتیبانی می کند.

GeForce GTX 1060 سومین مدل از سری جدید پردازنده های گرافیکی انویدیا بر اساس خانواده پاسکال است. فناوری جدید فرآیند 16 نانومتری FinFET و بهینه‌سازی‌های معماری به همه کارت‌های گرافیک جدید اجازه می‌دهد تا به سرعت کلاک بالایی برسند و بلوک‌های کاربردی بیشتری را در قالب پردازنده‌های جریانی، ماژول‌های بافت و موارد دیگر در مقایسه با تراشه‌های ویدیویی نسل قبلی قرار دهند. به همین دلیل است که GTX 1060 به سودآورترین و کم مصرف ترین راه حل در کلاس خود و به طور کلی تبدیل شده است.

به ویژه مهم است که GeForce GTX 1060 عملکرد و پشتیبانی کافی از ویژگی‌ها و الگوریتم‌های جدید را با قیمت بسیار پایین‌تری نسبت به راه‌حل‌های قدیمی‌تر مبتنی بر GP104 ارائه می‌دهد. تراشه گرافیکی GP106 استفاده شده در مدل جدید بهترین عملکرد و بهره وری انرژی را ارائه می دهد. GeForce GTX 1060 به طور ویژه طراحی شده و برای تمامی بازی های مدرن با تنظیمات گرافیکی بالا و حداکثر با وضوح 1920x1080 و حتی با قابلیت ضد aliasing تمام صفحه با روش های مختلف (FXAA، MFAA یا MSAA) کاملا مناسب است.

و برای کسانی که خواهان عملکرد بیشتر با نمایشگرهای با وضوح فوق العاده بالا هستند، انویدیا دارای کارت گرافیک های درجه یک GeForce GTX 1070 و GTX 1080 است که از نظر عملکرد و بهره وری انرژی نیز بسیار خوب هستند. و با این حال، ترکیب قیمت پایین و عملکرد کافی کاملاً مطلوب GeForce GTX 1060 را از پس‌زمینه راه‌حل‌های قدیمی‌تر متمایز می‌کند. در مقایسه با Radeon RX 480 رقیب، راه حل انویدیا کمی سریعتر با پیچیدگی و ردپای GPU کمتر است و بهره وری انرژی بسیار بهتری دارد. درست است که کمی گرانتر فروخته می شود، بنابراین هر کارت گرافیک جایگاه خاص خود را دارد.

ما در حال حرکت به سمت یکی دیگر از ویژگی های GeForce GTX 1080 هستیم که آن را به اولین در نوع خود تبدیل کرد - پشتیبانی از حافظه GDDR5X. با این ظرفیت، GTX 1080 تا مدتی تنها محصول موجود در بازار خواهد بود، زیرا از قبل مشخص شده است که GeForce GTX 1070 به تراشه های استاندارد GDDR5 مجهز خواهد شد. در ترکیب با الگوریتم‌های جدید فشرده‌سازی رنگ (که در ادامه به آن خواهیم پرداخت)، پهنای باند حافظه بالا به GP104 اجازه می‌دهد تا به طور مؤثرتری منابع محاسباتی موجود را نسبت به محصولات مبتنی بر تراشه‌های GM104 و GM200 مدیریت کند.

JEDEC مشخصات نهایی استاندارد جدید را تنها در ژانویه سال جاری منتشر کرد و تنها سازنده GDDR5X در حال حاضر Micron است. 3DNews مقاله جداگانه ای در مورد این فناوری نداشت، بنابراین به طور خلاصه نوآوری هایی را که GDDR5X ارائه می دهد در این بررسی شرح می دهیم.

پروتکل GDDR5X شباهت های زیادی با GDDR5 دارد (اگرچه هر دو تراشه از نظر الکتریکی و فیزیکی متفاوت هستند) - برخلاف حافظه HBM که یک نوع اساسی متفاوت است که همزیستی با رابط GDDR5 (X) در یک GPU را عملا غیرممکن می کند. به همین دلیل GDDR5X به این نام خوانده می شود و نه مثلاً GDDR6.

یکی از تفاوت های کلیدی بین GDDR5X و GDDR5 توانایی انتقال چهار بیت داده در هر چرخه سیگنال (QDR - Quad Data Rate) در مقابل دو بیت (DDR - Double Data Rate) است، همانطور که در تمام تغییرات قبلی وجود داشت. حافظه DDR SDRAM. فرکانس‌های فیزیکی هسته‌های حافظه و رابط انتقال داده تقریباً در همان محدوده تراشه‌های GDDR5 قرار دارند.

و به منظور اشباع پهنای باند افزایش یافته تراشه ها با داده، GDDR5X از پیش واکشی داده استفاده می کند که از 8n به 16n افزایش یافته است. با یک رابط 32 بیتی از یک تراشه جداگانه، این بدان معنی است که کنترلر نه 32، بلکه 64 بایت داده را در یک چرخه دسترسی به حافظه انتخاب می کند. در نتیجه، پهنای باند رابط حاصل به 10-14 گیگابیت در ثانیه در هر پین در فرکانس CK (ساعت فرمان) 1250-1750 مگاهرتز می رسد - این فرکانسی است که ابزارهای نظارت و اورکلاک کارت های ویدئویی مانند GPU-Z، نشان می دهد. حداقل در حال حاضر، چنین ارقامی در استاندارد گنجانده شده است، اما در آینده Micron قصد دارد به اعداد تا 16 گیگابیت در ثانیه برسد.

مزیت بعدی GDDR5X افزایش حجم تراشه - از 8 به 16 گیگابایت است. GeForce GTX 1080 با هشت تراشه 8 گیگابیتی عرضه می‌شود، اما در آینده، تولیدکنندگان کارت‌های گرافیک می‌توانند با در دسترس قرار گرفتن تراشه‌های بزرگ‌تر، میزان رم را دو برابر کنند. مانند GDDR5، GDDR5X امکان استفاده از دو تراشه روی یک کنترلر 32 بیتی را در حالت به اصطلاح clamshell فراهم می کند که آدرس دهی 32 گیگابایت حافظه را در یک گذرگاه 256 بیتی GP104 ممکن می کند. علاوه بر این، استاندارد GDDR5X، علاوه بر قدرت های برابر دو، حجم تراشه های 6 و 12 گیگابیت را توصیف می کند، که به شما امکان می دهد کل حافظه داخلی کارت های ویدئویی را به صورت "جزئی" تغییر دهید - به عنوان مثال، تجهیز یک کارت با یک گذرگاه رم 384 بیتی با تراشه ها برای مجموع 9 گیگابایت.

برخلاف انتظاراتی که همراه با اولین اطلاعات در مورد GDDR5X بود که در مالکیت عمومی ظاهر شد، مصرف انرژی نوع جدید حافظه قابل مقایسه با GDDR5 یا فقط کمی بالاتر از دومی است. برای جبران افزایش توان در پهنای باند بالا، سازندگان استاندارد ولتاژ تغذیه هسته‌ها را از 1.5 ولت، استاندارد GDDR5، به 1.35 ولت کاهش دادند. علاوه بر این، استاندارد کنترل فرکانس تراشه را به عنوان یک اقدام اجباری بسته به سنسور دما هنوز مشخص نیست که چقدر حافظه جدید واقعاً به کیفیت اتلاف گرما بستگی دارد، اما ممکن است اکنون بیشتر شاهد سیستم های خنک کننده بر روی کارت های ویدئویی باشیم که نه تنها پردازنده های گرافیکی، بلکه تراشه های RAM را نیز خدمت می کنند، در حالی که تولید کنندگان مبتنی بر GDDR5 کارت ها در اکثر موارد این امکان را نادیده می گیرند.

ممکن است این تصور ایجاد شود که انتقال از GDDR5 به GDDR5X به دلیل ارتباط این فناوری‌ها برای NVIDIA کار آسانی بود. علاوه بر این، GeForce GTX 1080 به کمترین پهنای باند حافظه تعریف شده توسط استاندارد مجهز شده است - 10 گیگابیت بر ثانیه در هر پین. با این حال، اجرای عملی رابط جدید با تعدادی از مشکلات مهندسی همراه است. انتقال داده ها در چنین فرکانس های بالایی نیاز به طراحی دقیق توپولوژی گذرگاه داده روی برد دارد تا تداخل و تضعیف سیگنال در هادی ها به حداقل برسد.

پهنای باند گذرگاه 256 بیتی حاصل در GeForce GTX 1080 320 گیگابایت بر ثانیه است که به طور قابل توجهی کمتر از سرعت 336 گیگابایت بر ثانیه نیست، که با GeForce GTX 980 Ti (TITAN X) با 384 بیت آن مشخص می شود. گذرگاه GDDR5 با سرعت 7 گیگابیت بر ثانیه در هر پین.

اکنون موتور PolyMorph می تواند تا 16 پیش بینی (نمایشگاه) را به طور همزمان ایجاد کند که به صورت دلخواه قرار گرفته و روی یک یا دو نقطه متمرکز شده و در امتداد محور افقی نسبت به یکدیگر جابجا شده اند. این تبدیل ها به طور کامل در سخت افزار انجام می شود و به خودی خود باعث کاهش عملکرد نمی شود.

این فناوری دو کاربرد کاملاً قابل پیش بینی دارد. اولین مورد کلاه ایمنی واقعیت مجازی است. با توجه به دو مرکز نمایش، پاسکال می تواند یک تصویر استریو را در یک پاس ایجاد کند (البته، این فقط در مورد هندسه است - GPU هنوز باید دو برابر بیشتر کار کند تا بافت ها را در دو فریم شطرنجی کند).

علاوه بر این، SMP اجازه می دهد تا در سطح هندسه برای جبران اعوجاج تصویر، که توسط لنزهای کلاه ایمنی معرفی شده است. برای این، تصویر برای هر چشم توسط چهار برآمدگی مجزا تشکیل می‌شود که سپس با استفاده از یک فیلتر پس از پردازش به یک صفحه چسبانده می‌شود. بنابراین، نه تنها دقت هندسی تصویر نهایی به دست می‌آید، بلکه نیاز به پردازش 1/3 پیکسل‌ها نیز وجود دارد، که در غیر این صورت، هنوز در طی اصلاح نهایی پروژکتور مسطح استاندارد برای انحنای لنزها از بین می‌رود. حذف شده است.

تنها بهینه‌سازی برای VR که ماکسول داشت این بود که نواحی پیرامونی تصویر، که برای خروجی از طریق لنزها به شدت فشرده می‌شوند، می‌توانستند با وضوح کمتری ارائه شوند که منجر به صرفه‌جویی در پهنای باند تنها 10 تا 15 درصد شد.

حوزه بعدی که ویژگی SMP مورد تقاضا است، تنظیمات چند مانیتور است. بدون SMP، تصویر روی چندین نمایشگر متصل از نقطه نظر پردازنده گرافیکی یک صفحه است و از نظر هندسی درست به نظر می رسد، مشروط بر اینکه صفحه های جلوی بیننده در یک ردیف قرار گیرند، اما اتصال در یک زاویه دیگر درست به نظر نمی رسد - گویی شما به سادگی یک عکس بزرگ را در چندین مکان خم کردید. ناگفته نماند که در هر صورت، بیننده دقیقاً یک تصویر مسطح می بیند و نه پنجره ای به دنیای مجازی: اگر سر خود را به سمت صفحه نمایش بچرخانید، اشیاء در آن کشیده می مانند، زیرا دوربین مجازی همچنان در حال نگاه کردن است. در نقطه مرکزی

با کمک SMP، درایور کارت گرافیک می تواند اطلاعاتی در مورد موقعیت فیزیکی چندین صفحه نمایش به دست آورد تا تصویری را برای هر یک از آنها از طریق درگاه دید خود نمایش دهد، که در نهایت از نظر عملکردی مجموعه چند مانیتور را به یک صفحه نمایش کامل نزدیک می کند. "پنجره".

به طور خلاصه، هدف از بافر سه گانه جدا کردن فرآیند رندر کردن فریم های جدید در خط لوله GPU از اسکن تصویر از بافر فریم با اجازه دادن به کارت گرافیک برای ایجاد فریم های جدید با نرخ دلخواه بالا و نوشتن آنها در دو فریم چرخان است. بافرها در این حالت، محتویات آخرین فریم با فرکانس مضربی از نرخ به‌روزرسانی صفحه در بافر سوم کپی می‌شود، جایی که مانیتور می‌تواند آن را بدون وقفه تصویر بردارید. بنابراین، فریمی که در زمان شروع اسکن به صفحه نمایش می رسد، همیشه حاوی آخرین اطلاعاتی است که GPU تولید کرده است.

بافر سه گانه برای نمایشگرهایی با نرخ تازه سازی 50 تا 60 هرتز بسیار مفید است. در فرکانس های 120-144 هرتز، همانطور که قبلاً در مقاله G-Sync نوشتیم، روشن کردن همگام سازی عمودی از قبل، در اصل، تأخیر را به میزان ناچیزی افزایش می دهد، اما Fast Sync آن را به حداقل می رساند.

اگر تعجب می‌کنید که Fast Sync چگونه با G-Sync مقایسه می‌شود (و همتای AMD Free Sync - اما این یک سؤال کاملاً تئوری است زیرا NVIDIA فقط از نوع خودش پشتیبانی می‌کند)، در آن صورت G-Sync تاخیر زمانی را کاهش می‌دهد که GPU زمانی برای تولید ندارد. یک فریم جدید در زمان شروع اسکن، و Fast Sync، برعکس، زمانی که نرخ نوسازی فریم در خط لوله رندر بالاتر از نرخ تازه سازی صفحه باشد، تأخیر را کاهش می دهد. علاوه بر این، این فناوری ها می توانند با هم کار کنند.

GeForce GTX 1080 Founder's Edition:طرح

این نام پرطرفدار اکنون نسخه مرجع GeForce GTX 1080 است. با شروع GeForce GTX 690، NVIDIA توجه زیادی به شکل ورود محصولات جدید خود به بازار داشته است. نمونه‌های مرجع کارت‌های ویدئویی مدرن تحت نام تجاری GeForce از پیشینیان بی‌نظیر خود که مجهز به سیستم‌های خنک‌کننده نسبتاً ناکارآمد و پر سر و صدا هستند، فاصله زیادی دارند.

GeForce GTX 1080 Founder's Edition بهترین ویژگی‌های طراحی کارت‌های گرافیک کپلر و ماکسول را در خود جای داده است: یک پوشش توربین آلومینیومی، یک پروانه خنک‌تر ساخته شده از مواد کم‌صدا، و یک قاب آلومینیومی عظیم که به ساختار استحکام می‌بخشد و گرما را از آن خارج می‌کند. تراشه های رم


به عنوان بخشی از GTX 1080، دو جزء به طور همزمان وجود دارد که به صورت دوره ای از کارت های ویدئویی مرجع NVIDIA ظاهر می شوند و ناپدید می شوند - یک هیت سینک GPU با یک محفظه بخار و یک صفحه پشتی. دومی تا حدی بدون پیچ گوشتی برچیده می شود تا جریان هوا به خنک کننده کارت گرافیک مجاور در حالت SLI ارائه شود.

علاوه بر عملکرد نماینده آن، یک نمونه مرجع از یک کارت گرافیک مورد نیاز است تا سازندگان کارت پایانی بتوانند آن را خریداری کنند - در این مورد از NVIDIA - و تا زمانی که دستگاه هایی با طراحی اصلی روی همان GPU آماده شوند، تقاضا را برآورده کنند. اما این بار، انویدیا قصد دارد نسخه مرجع را در طول عمر مدل در معرض فروش نگه دارد و از جمله موارد دیگر، از طریق وب سایت رسمی خود توزیع کند. این باعث می شود قیمت 100 دلار بالاتر GTX 1080 FE در مقایسه با 599 دلار توصیه شده برای سایرین افزایش یابد. به هر حال، Founder's Edition به نظر نمی رسد محصول ارزان قیمتی باشد.

در عین حال، کارت گرافیک دارای فرکانس های مرجع است که طبق معمول، هیچ سازنده کارت هایی با طرح اصلی زیر آن قرار نمی گیرد. همچنین از نظر پتانسیل اورکلاک هیچ گونه انتخابی از GPU برای GTX 1080 FE وجود ندارد. بنابراین، در کل اجراهای GeForce GTX 1080، ممکن است موارد گران‌تری وجود داشته باشد. اما برای مدتی، Founder's Edition نسخه غالب و حتی تنها نسخه پرچمدار پاسکال خواهد بود که به طور خودکار قیمت های خرده فروشی خود را 100 دلار بالاتر از "توصیه NVIDIA" افزایش می دهد.

GeForce GTX 1080 Ti دارای 11 گیگابایت حافظه GDDR5X، پردازنده گرافیکی 1583 مگاهرتز (قابل اورکلاک تا 2000 مگاهرتز با خنک کننده انبار)، حافظه QDR با فرکانس 11 گیگاهرتز و عملکرد 35 درصد بهتر از GeForce GTX 1080 است. و این با قیمت کاهش یافته 699 دلار است.

کارت گرافیک جدید GeForce GTX 1080 را از جایگاه پرچمدار در خط GeForce جابجا کرده و تبدیل به سریع ترینکارت گرافیکی که امروزه وجود دارد و همچنین قدرتمندترین کارت در معماری پاسکال.

قدرتمندترین کارت بازی NVIDIA GeForce GTX 1080 Ti

NVIDIA GeForce GTX 1080 Ti است رویای گیمر، که در نهایت می توانند از آخرین بازی های کلاس AAA لذت ببرند، در کلاه های واقعیت مجازی با کیفیت بالا بازی کنند، از وضوح و دقت گرافیک لذت ببرند.

GTX 1080 Ti به عنوان اولین کارت گرافیک کامل برای بازی های 4K طراحی شده است. مجهز به جدیدترین و پیشرفته ترین سخت افزارهای تکنولوژیکی است که امروزه هیچ کارت گرافیک دیگری نمی تواند به آن ببالد.

اینجا ارائه رسمی NVIDIA GeForce GTX 1080 Ti

"زمان برای چیز جدیدی است. یکی که 35 درصد سریعتر از GTX 1080 است. یکی که سریعتر از Titan X است. بگذارید آن را نهایی بنامیم…

سال به سال بازی‌های ویدیویی زیباتر شده‌اند، بنابراین نسل جدید محصول برتر را معرفی می‌کنیم تا بتوانید از بازی‌های نسل بعدی لذت ببرید.»

جن شون

مشخصات NVIDIA GeForce GTX 1080 Ti

NVIDIA برای کارت گرافیک جدید و فوق العاده قدرتمند خود کوتاهی نکرده است.

مجهز به همین است پردازنده گرافیکی GPU پاسکال GP102، مانند Titan X (P)، اما از همه جهات برتر از دومی است.

این پردازنده به 12 میلیارد ترانزیستور مجهز شده و دارای 6 کلاستر برای پردازش گرافیکی است که دو تای آن مسدود شده است. این یک کل می دهد 28 پردازنده چند رشته ایهر کدام 128 هسته

بنابراین، کارت گرافیک GeForce GTX 1080 Ti دارای 3584 هسته CUDA، 224 واحد نگاشت بافت و 88 ROP (واحدهایی که مسئول بافر z، ضد آلیاسینگ، نوشتن تصویر نهایی در بافر فریم حافظه ویدیویی هستند) است.

محدوده اورکلاک از 1582 مگاهرتز تا 2 گیگاهرتز شروع می شود. معماری پاسکال عمدتاً برای اورکلاک در مرجع و اورکلاک شدیدتر در مدل های غیر استاندارد ایجاد شده است.

GeForce GTX 1080 Ti نیز دارد 11 گیگابایت حافظه GDDR5X، از طریق یک گذرگاه 352 بیتی کار می کند. این پرچمدار همچنین دارای سریعترین راه حل G5X تا به امروز است.

با سیستم فشرده سازی و کش کاشی جدید، پهنای باند کارت گرافیک GTX 1080 Ti را می توان تا 1200 گیگابیت بر ثانیه افزایش داد که از فناوری HBM2 AMD پیشی می گیرد.

مشخصات NVIDIA GeForce GTX 1080 Ti:

مشخصات GTX TItan X Pascal GTX 1080 Ti GTX 1080
تکنولوژی فرآیند 16 نانومتر 16 نانومتر 16 نانومتر
ترانزیستورها 12 میلیارد 12 میلیارد 7.2 میلیارد
ناحیه کریستالی 471 میلی متر مربع 471 میلی متر مربع 314 میلی متر مربع
حافظه 12 گیگابایت GDDR5X 11 گیگابایت GDDR5X 8 گیگابایت GDDR5X
سرعت حافظه 10 گیگابیت بر ثانیه 11 گیگابیت بر ثانیه 11 گیگابیت بر ثانیه
رابط حافظه 384 بیتی 352 بیتی 256 بیتی
پهنای باند 480 گیگابایت بر ثانیه 484 گیگابایت بر ثانیه 320 گیگابایت بر ثانیه
هسته های CUDA 3584 3584 2560
فرکانس پایه 1417 1607
فرکانس شتاب 1530 مگاهرتز 1583 مگاهرتز 1730 مگاهرتز
قدرت پردازش 11 ترافلاپس 11.5 ترافلاپس 9 ترافلاپس
قدرت حرارتی 250 وات 250 وات 180 وات
قیمت 1200$ 699 دلار آمریکا 499$

خنک کننده NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders دارای یک راه حل جریان هوای جدید است که اجازه خنک شدن بهتر برد را می دهد و همچنین نسبت به طراحی های قبلی بی صداتر است. همه اینها باعث می شود تا کارت گرافیک را بیشتر اورکلاک کنید و به سرعت بیشتری دست پیدا کنید. علاوه بر این، راندمان خنک کننده بهبود یافته است منبع تغذیه 7 فازدر 14 ترانزیستور dualFET با راندمان بالا.

GeForce GTX 1080 Ti با جدیدترین طراحی NVTTM عرضه می‌شود که یک محفظه خنک‌کننده بخار جدید را معرفی می‌کند که دو برابر منطقه خنک‌کننده Titan X (P) دارد. این طراحی حرارتی جدید به دستیابی به خنک کننده بهینه کمک می کند و با فناوری GPU Boost 3.0 به GPU کارت گرافیک شما با مشخصات بالاتر سرعت می بخشد.

NVIDIA GeForce GTX 1080 Ti رویای اورکلاکر است

بنابراین، با این قدرت کارت گرافیک چشمگیر چه کنیم؟ پاسخ واضح است - اورکلاک تا حد مجاز. در طول این رویداد، NVIDIA پتانسیل فوق العاده اورکلاک کارت گرافیک GTX 1080 Ti خود را نشان داد. به یاد بیاورید که آنها توانستند به فرکانس پردازنده 2.03 گیگاهرتز در 60 فریم بر ثانیه مسدود شده برسند.



چه چیز دیگری برای خواندن