admin / 25.03.2019

Видеокарта референс

Знакомство с Pascal. Архитектура, технологии и особенности GeForce GTX 1080

Компания NVIDIA готовит к выпуску новую серию игровых видеокарт, которую откроет GeForce GTX 1080. Эта модель станет первым продуктом игрового класса на базе архитектуры Pascal. GeForce GTX 1080 принесет ряд технологических инноваций, о которых мы поговорим в данной статье. Материал будет носить теоретический характер, в нем рассмотрены архитектурные особенности и новые возможности GeForce GTX 1080. Тестирование и сравнение с другими видеокартами появится позже.

Стремительный прогресс в миниатюризации кремниевых чипов в последние годы сбавил обороты. Компания Intel даже отказалась от стратегии «Тик-так», которая предусматривала регулярный переход на более тонкий техпроцесс. На рынке графических ускорителей в рамках одного 28-нм техпроцесса сменилось несколько поколений продуктов NVIDIA и AMD. Отчасти это пошло на пользу и заставило производителей больше внимания уделять развитию архитектуры. Этот качественный переход в свое время был хорошо заметен при переходе с Kepler на архитектуру Maxwell, когда новое поколение оказалось более производительным и энергоэффективным без увеличения количества транзисторов или даже при уменьшении размеров кристаллов. К примеру, GeForce GTX 980 базируется на более компактном чипе GM204, что не мешает видеокарте демонстрировать более высокую производительность относительно GeForce GTX 780 Ti с более сложным чипом GK110.

Новое поколение GeForce получит как новую архитектуру, так и более тонкий техпроцесс. И GeForce GTX 1080 во многих отношениях является первопроходцем. Это первый графический ускоритель на архитектуре Pascal с графическим процессором GP104, который выполнен по нормам техпроцесса 16-нм FinFET. Среди важных инноваций компания NVIDIA отмечает еще быструю память стандарта GDDR5X. Новые технологические особенности позволяют поднять частоты до рекордного уровня, определяя новый уровень «мастерства». А новые игровые технологии расширяют возможности GeForce, особенно в области работы с VR-контентом. Это пять основных особенностей, которые выделяет производитель в новом продукте.

Стоит отметить, что изначально первопроходцем архитектуры Pascal стал специализированный ускоритель вычислений Tesla P100. Он базируется на процессоре GP100. Но поскольку продукт ориентирован на совершенно другую сферу применения, то именно GeForce GTX 1080 является пионером среди настольных графических ускорителей.

GPU GP104 наследник GM204, поэтому при изучении GeForce GTX 1080 можно отталкиваться от GeForce GTX 980, хотя новичок быстрее GeForce GTX 980 Ti и GeForce GTX Titan X. Процессоры Pascal используют кластерную структуру по типу предшественников, где кластер GPC (Graphics Processing Cluster) по сути является самостоятельным вычислительным блоком. В основе GP100 шесть кластеров, у GP104 четыре кластера, а следующий чип GP106 должен получить два кластера. Четыре GPC делают новый GPU GP104 максимально близким к GM204. Да и блок-схема этого чипа тоже напоминает старый процессор.

GPU GP104

Различия в структуре проявляются при более внимательном изучении. В прошлом поколении кластер включал в себя четыре крупных мультипроцессорных блока SMM. У GP104 младшие исполнительные блоки сгруппированы в пять мультипроцессорных блоков SM. Каждый такой крупный блок обработки данных связан со своим блоком обработки геометрии Polymorph Engine, которых теперь 20 вместо 16 у GM204.

Один SM разбит на четыре массива обработки данных со своей управляющей логикой, и это тоже аналогично структуре старых GPU. И в обоих случаях мультипроцессор оперируют 128 потоковыми ядрами (CUDA cores). В SM есть 96 КБ общей кэш-памяти, отдельный текстурный кэш и восемь текстурных блоков. В итоге имеем конфигурацию из 2560 потоковых процессоров и 160 текстурных блоков. У нового процессора 64 блока ROP и кэш-память L2 объемом 2 МБ — тут отличий от GM204 нет.

Стало больше контроллеров памяти, в Pascal изменилась вся подсистема работы с памятью. Вместо четырех 64-битных контроллеров реализовано восемь 32-битных, что обеспечивает разрядность шины памяти в 256 бит. После успешного GeForce GTX 980 такая шина памяти в топовом продукте уже не удивляет. При этом эффективность шины у GeForce GTX 1080 выше за счет новых алгоритмов сжатия данных. Также рост пропускной способности обеспечивают микросхемы нового стандарта GDDR5X, у которых эффективное значение обмена данных эквивалентно частоте 10 ГГц. Привычная память GDDR5 ограничивалась частотами до 7 ГГц. Объем видеобуфера повышен до 8 ГБ.

Благодаря новому техпроцессу GP104 компактнее GM204 при большем количестве вычислительных блоков. При этом новый процессор имеет больше возможностей для повышения частот. Изначально для него установлено базовое значение в 1607 МГц при среднем Boost Clock 1733 МГц. Пиковые значения частоты еще выше. С такими рекордными частотами GeForce GTX 1080 укладывается в TDP 180 Вт, что немного выше показателей GeForce GTX 980. А ведь новичок быстрее топовой Ti-версии, у которой TDP заметно больше.

Для наглядного сравнения сведем в одной таблице характеристики GeForce GTX 1080 и топовых видеокарт предыдущих поколений.

Видеоадаптер GeForce GTX 1080 GeForce GTX Titan X GeForce GTX 980 Ti GeForce GTX 980 GeForce GTX 780 Ti
Ядро GP104 GM200 GM200 GM204 GK110
Количество транзисторов, млн. шт 7200 8000 8000 5200 7100
Техпроцесс, нм 16 28 28 28 28
Площадь ядра, кв. мм 314 601 601 398 561
Количество потоковых процессоров 2560 3072 2816 2048 2880
Количество текстурных блоков 160 192 176 128 240
Количество блоков рендеринга 64 96 96 64 48
Частота ядра, МГц 1607–1733 1000–1075 1000–1075 1126–1216 875–926
Шина памяти, бит 256 386 386 256 384
Тип памяти GDDR5X GDDR5 GDDR5 GDDR5 GDDR5
Частота памяти, МГц 10010 7010 7010 7010 7010
Объём памяти, МБ 8192 12288 6144 4096 3072
Поддерживаемая версия DirectX 12.1 12.1 12.1 12.1 12.0
Интерфейс PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0
Мощность, Вт 180 250 250 165 250

Видеокарты NVIDIA среднего и старшего уровня давно используют технологию GPU Boost, которая повышает частоту графического процессора до тех пор, пока он не превысит ограничения по температуре или мощности. Минимальным значением для 3D-режима является базовая частота, но зачастую при обычной игровой нагрузке частоты всегда выше. Новые GeForce получили улучшенную технологию GPU Boost 3.0 с более гибким алгоритмом изменения частоты в зависимости от питающего напряжения в режиме частотного ускорения. У GPU Boost 2.0 фиксированная разница между базовым значением и частотой Turbo. GPU Boost 3.0 позволяет использовать разное смещение частот, что позволит лучше раскрыть потенциал GPU. Теоретически при автоматическом изменении параметров в Boost-режиме с повышением или понижением напряжения частота будет изменяться нелинейно, в каких-то точках дельта Boost может быть больше, чем это было бы с GPU Boost старой версии. Новые возможности гибкой регулировки Boost будут доступны пользователям. Свежая версия утилиты EVGA Precision уже поддерживает GeForce GTX 1080, среди ее возможностей автоматический сканер с тестом стабильности, который может формировать нелинейную кривую частот Boost для разных напряжений. Переход на новый техпроцесс и оптимизация структуры ядра позволили добиться столь значительного частотного ускорения, что максимальный Boost относительно заявленных значений может повышаться до уровня 2 ГГц.

С момента появления GDDR5 компания NVIDIA работала над следующим поколением скоростной памяти. Результатом взаимодействия с разработчиками памяти стало появление GDDR5X со скоростью передачи данных 10 Гбит/с. Работа со столь быстрой памятью выдвигает новые требования к разводке электрических цепей. Поэтому были переработаны линии передачи данных между GPU и микросхемами памяти, изменена структура самого чипа. Все это позволяет эффективно работать со сверхбыстрым видеобуфером. Среди преимуществ GDDR5X и более низкое рабочее напряжение на уровне 1,35 В.

При эффективной частоте памяти в 10000 МГц увеличение пропускной способности относительно привычных для нынешнего поколения 7012 МГц почти 43%. Но этим преимущества Pascal не ограничиваются. GeForce поддерживают специальные алгоритмы сжатия данных в памяти, что позволяет более эффективно использовать кэш и передавать больше данных при той же пропускной способности. Поддерживается несколько методик, в зависимости от типа данных выбирается свой алгоритм сжатия. Важную роль играет алгоритм сжатия цвета delta color compression. Благодаря ему кодируется не цвет каждого отдельного пикселя, а разница между пикселями при последовательной передаче данных. Вычисляется некий усредненный цвет тайла и данные о смещении цвета для каждого пикселя этого тайла.

Такое сжатие обеспечивает высокую продуктивность Maxwell, но эффективность Pascal еще выше. GPU GP104 дополнительно поддерживает новые алгоритмы с еще большим сжатием для случаев, когда разница между цветом минимальна.

В качестве примера NVIDIA приводит два слайда из игры Project CARS. Розовым цветом на них закрашены те тайлы, где применялось сжатие данных. Верхний слайд отражает работу сжатия на Maxwell, нижний на Pascal.

Как видим, сжатие у Pascal применяется и к тем зонам, где оно не выполнено на Maxwell. В итоге почти весь кадр подвергся сжатию. Конечно, эффективность работы таких алгоритмов зависит от каждой конкретной сцены. По данным NVIDIA разница в этой эффективности между GeForce GTX 1080 и GeForce GTX 980 варьируется от 11% до 28%. Если взять за среднее значение величину 20%, то с учетом повышения частот памяти результирующий рост пропускной способности составляет около 70%.

Новое поколения GeForce поддерживает асинхронные вычисления Async Compute с улучшенным использованием вычислительных ресурсов для разных типов задач. В современных играх GPU одновременно с рендерингом изображения могут выполнять и другие задачи. Это может быть расчет физики тел, постообработка изображения и специальная техника асинхронного искажения времени (Asynchronous Time Warp) для режима виртуальной реальности. При выполнении разных задач не всегда задействуются все вычислительные блоки, и выполнение каждой задачи может занимать разное время. К примеру, если неграфические вычисления выполняются дольше графических, то все равно идет ожидание завершения каждого процесса для переключения к новым задачам. При этом часть ресурсов GPU простаивает. В Pascal появилась динамическая балансировка загрузки. Если одна задача выполнилась раньше, то освободившиеся ресурсы подключаются на выполнение другой задачи.

Таким образом удается избежать простоев и поднять общую производительность при комбинированной нагрузке на GPU. При подобной нагрузке важную роль играет и скорость переключения между задачами. Pascal поддерживает прерывание задач на разных уровнях для максимально быстрого переключения. При получении новой команды процессор прерывает задачи на уровнях обработки пикселей и потоков, сохраняя их состояние для дальнейшего завершения, и вычислительные блоки принимаются за новую задачу. Pascal поддерживает прерывание на уровне отдельных инструкций, Maxwell и Kepler только на уровне потоков.

Прерывание на разных уровнях позволяет точнее определить момент переключения задачи. Это важно для техники Asynchronous Time Warp, которая деформирует уже сформированное изображения перед его выводом для коррекции в соответствии с положением головы. При Asynchronous Time Warp нужно быстрое упреждение для переключения строго перед выводом кадра, иначе возможны артефакты в виде «дрожания» картинки. Pascal справляется с этой задачей лучше всего.

В Pascal появилась аппаратная поддержка технологии мультипроецирования, которая позволяет работать одновременно с разными проекциями изображения. Специальный блок Simultaneous Multi-Projection внутри PolyMorph Engine отвечает за формирование разных проекций при обработке одного потока геометрии. Этот блок обрабатывает геометрию одновременно для 16 проекций с одним или двумя центрами перспективы. Это не требует повторной обработки геометрии и позволяет реплицировать данные до 32 раз (16 проекций на две точки).

Благодаря технологии можно получить корректное изображение на мультимониторных конфигурациях. При использовании трех мониторов изображение рендерится для одной проекции. Если крайние мониторы повернуты под небольшим углом, чтобы создать эффект окружения, то вы получите некорректную геометрию в боковых зонах. Мультипроецирование создает корректное изображение, формирую правильные проекцию в соответствии с углом положения монитора. Единственным условием для такого режима является поддержка широкого FOV самим приложением.

Такая методика формирования изображения позволяет наиболее эффективно использовать изогнутые панели, а также открывает возможности для корректного рендеринга на других устройствах вывода изображения, даже на сферическом экране.

Данная технология расширяет возможности Pascal при формировании стерео-изображения и в системах виртуальной реальности (VR). В режиме стерео формируется два изображения одной сцены для каждого глаза. Аппаратная поддержка Simultaneous Multi-Projection позволяет создать каждую проекцию для своего глаза при единоразовой обработке геометрии с использованием технологии Single Pass Stereo. И это значительно ускоряет работу в таком режиме.

В системах VR пользователь использует очки со специальными линзами, которые вносят определенные искажения. Для компенсации изображение немного деформируется по краям, а пользователь в итоге наблюдает откорректированную линзой картинку. Но изначально видеокарта обрисовывает изображение в обычной плоской проекции, а часть периферийного изображения потом отпадает.

Технология Lens Matched Shading может разбить изображение на четыре квадранта и сделать последующую выборку пикселей. То есть картинка изначально проецируется на несколько плоскостей, которые симулируют изогнутую форму линзы.

Итоговое изображения рендерится в меньшем разрешении, ненужные зоны отсекаются. Изначально в Oculus Rift на один глаз идет изображение 1,1 мегапиксель, но первоначальной плоской проекции оно рендерится в разрешении 2,1 мегапиксель. Благодаря Lens Matched Shading начальное изображение будет 1,4 мегапикселя. Это позволяет значительно увеличить производительность в VR-режиме.

Виртуальная реальность является перспективным направлением, которое расширит опыт взаимодействия с виртуальной средой и подарит игрокам новые ощущения. NVIDIA активно поддерживает развитие VR. Одним из сдерживающих факторов для популяризации VR-систем являются высокие требования к производительности графического ускорителя. Специальные технологии и аппаратная оптимизация способствует качественному росту быстродействия именно в этом направлении. Компания выпустила комплексный набор VRWorks из специальных API, библиотек и программных движков. В его состав входят в том числе средства работы с Single Pass Stereo и Lens Matched Shading. Сюда также входит технология MultiRes Shading, которая позволяет изменять разрешение в боковых зонах при VR-рендеринге с целью снижения нагрузки.

Эффект присутствия связан не только с визуальными ощущениями, но и с другими чувствами. Звук тоже играет важную роль. Поэтому NVIDIA разработала технологию VRWorks Audio для воссоздания реалистичного звука с учетом положения источника звуковых волн и отражения их от поверхностей. Технология использует движок OptiX, который изначально использовался для просчета освещения по методу трассировки лучей. Отслеживается путь звуковых «лучей» от источника до отражающих поверхностей и обратно. Этот прогрессивный метод позволит воссоздавать реалистичный звук с учетом акустических особенностей виртуального помещения и с наложением отраженных звуков. Подробнее об NVIDIA VRWorks Audio в видеоролике:

Усилить эффект погружения можно за счет взаимодействия с виртуальной средой. Сейчас интерактивность реализована за счет позиционного слежения и отслеживания ручных контроллеров. На базе PhysX создан механизм, который определяет, будет ли взаимодействие при виртуальном контакте с тем или иным объектом. Также с PhysX можно реализовать достоверные физически эффекты при воздействии на виртуальную среду.

В новом поколении видеокарт появилась поддержка VR SLI. Этот режим предусматривает, что обработкой изображения для каждого глаза в VR-режиме займется отдельный GPU. Такой способ исключает задержки при работе SLI и обеспечивает лучшую производительность. Поддержка VR SLI будет внедрена в движки Unreal Engine 4 и Unity, что позволяет надеяться на большую популяризацию этой технологии по мере роста доступности систем виртуальной реальности.

Простая технология SLI тоже обновилась. Старшие видеокарты GeForce всегда имели два разъема под мостики SLI. Этими мостики нужны для коммутации всех видеокарт друг с другом в режимах 3-Way и 4-Way SLI. Теперь в простом SLI две видеокарты могут использовать сразу два интерфейса обмена данными, повышая общую пропускную способность.

Новый способ коммутации требует новых сдвоенных мостиков SLI HB. Поддержка совместного режима при подключении по простому одинарному мостику сохраняется. Сдвоенный мостик рекомендуется для высоких разрешений — 4К, 5К и мультимониторных систем. Скоростной мостик рекомендуется также при 2K с монитором 120 Гц и быстрее. В более простых режимах можно обойтись мостиком старого образца.

У GeForce GTX 1080 повышена скорость самого интерфейса — с 400 МГц до 650 МГц. Она может быть реализована с новыми мостиками и с некоторыми версиями старого формата. Увеличение скорости обмена данными в SLI обеспечивает более плавную смену кадров и некоторый рост производительности в тяжелых режимах.

Возможности рендеринга на нескольких GPU в DirectX 12 были расширены. Поддерживается два основных типа работы с такими конфигурациями: Multi Display Adapter (MDA) и Linked Display Adapter (LDA). Первый позволяет работать совместно разным GPU, в том числе объединяя потенциал интегрированной и внешней графики. LDA рассчитан для совместного использования аналогичных решений. Implicit LDA по сути используется в SLI, благодаря чему обеспечивается широкая совместимость с приложениями на программном уровне. Explicit LDA и MDA дают больше возможностей разработчикам, но обеспечение такого режима в каждом приложении ложится на их плечи.

Также стоит отметить, что официально заявлено о поддержке SLI только в конфигурации из двух GeForce GTX 1080. Более сложные конфигурации теоретически возможны в режимах Explicit LDA и MDA. Интересно, что при этом NVIDIA предлагает разблокировать режим 3-Way и 4-Way при помощи специального кода для энтузиастов. Для этого нужно будет сделать специальный запрос на сайте компании по идентификатору своего GPU.

В GPU GP104 появилась поддержка Fast Sync. Эта технология является альтернативой включенной или выключенной вертикальной синхронизации. В динамичных играх (особенно многопользовательских) высокая частота кадров обеспечивает максимальную отзывчивость на действия пользователя. Но при превышении частоты обновления монитора возможны артефакты в виде разрывов изображения. Это нейтрализует вертикальная синхронизация, что обеспечивает попутно и некоторые задержки. Fast Sync позволяет выводить максимальное количество кадров без вероятных разрывов. Это обеспечивается аппаратными изменениями в конвейере вывода изображения. Вместо традиционного двойного буфера используется тройной, и выводится только полностью отрендеренный кадр.

С Fast Sync можно играть на обычном мониторе при 100–200 fps без визуальных артефактов и с минимальными задержками, как в обычном режиме с отключенным VSync. Ниже отражены результаты исследования задержек при выводе изображения в разных режимах в игре Counter-Strike: Global Offensive.

Как видим, небольшая разница между Fast Sync и выключенным VSync есть, но она не идет ни в какое сравнение относительно задержек вывода кадров с активным VSync.

Если же говорить не о максимальной отзывчивости, а о максимальной плавности изображения, то она обеспечивается технологией G-Sync, которая реализуется в связке со специальными мониторами. G-Sync обеспечивает полную аппаратную синхронизацию выводимых кадров с частотой обновления экрана.

GeForce GTX 1080 может выводить изображение через DVI, HDMI и DisplayPort. Поддерживается DisplayPort 1.2 и HDMI 2.0b с HDCP 2.2, но видеокарта готова и к DisplayPort 1.3/1.4. В случае использования последних возможен вывод изображения 4K при 120 Гц или 8K (7680×4320) при 60 Гц через два кабеля DisplayPort 1.3. Для сравнения нужно отметить, что GeForce GTX 980 может выводить только 5120×3200 при коммутации через два кабеля DisplayPort.

Стандартная версия GeForce GTX 1080 оснащается тремя портами DisplayPort, одним HDMI и одним Dual-Link DVI.

Процессор GP104 получил улучшенный блок декодирования/кодирования видео с поддержкой стандарта PlayReady 3.0 (SL3000) и аппаратного декодирования HEVC с поддержкой высококачественного видео 4K/8K. Полные возможности GeForce GTX 1080 в сравнении с GeForce GTX 980 отражены в нижней таблице.

В списке инноваций GeForce GTX 1080 поддержка контента и дисплеев HDR. Этот стандарт является крупный прорывом в технологиях, обеспечивая охват видимого цветового пространства в 75% вместо 33% у RGB при глубине цвета 10/12 бит. Такие дисплеи отображают больше оттенков, имеют выше яркость и глубже контраст, позволяя рассмотреть больше тонких цветовых нюансов. На данный момент уже выпускаются телевизоры с поддержкой HDR, мониторы ожидаются в следующем году.

Кроме декодирования HDR поддерживается и аппаратное кодирование, что позволит записывать видео такого стандарта. А в скором времени будет добавлена функция HDR-стриминга для игровой консоли Shield.

NVIDIA работает с разработчиками над тем, чтобы привнести HDR в сегмент компьютерных игр. В результате поддержку HDR получат Rise of the Tomb Raide, Tom Clancy’s The Division, The Talos Principle, Paragon, вторая часть Shadow Warrior и другие игры.

Современный гейминг меняется, у игроков проявляются новые интересы и желание взглянуть на любимую игру под новым углом. Иногда обычный скриншот превращается в нечто большее, чем простой кадр из игры. А с NVIDIA Ansel каждый скриншот может стать необычным. Это новая технология для захвата изображений с набором специальных возможностей. Ansel позволяет накладывать фильтры, улучшать изображение, использовать свободную камеру и создавать панорамы. Для полной функциональности нужна поддержка со стороны приложения. Для этого в Ansel предусмотрена простая интеграция. К примеру, для интеграции Ansel в The Witcher 3 разработчики добавили лишь 150 строчек кода, а для логической игры Witness понадобилось 40 строчек кода.

Ansel переводит игру в режим паузы и далее позволяет выполнять разные операции. Например, можно менять камеру и выбирать любой ракурс. Какие-то ограничения возможны только в случае, если разработчики намеренно ограничат движение свободной камеры.

Можно повышать разрешение конечного изображения и увеличивать уровень LOD, чтобы добиться максимальной четкости всех деталей. Повышение разрешение сочетается с дополнительным сглаживанием для лучшего эффекта.

Более того, Ansel позволяет создавать гигантские изображения вплоть до 4,5 гигапикселей. Такие изображения сшиваются из отдельных фрагментов, что выполняется на аппаратном уровне. Также на итоговое изображение можно наложить различные пост-эффекты. Изображение можно сохранить а формате RAW или в EXR с 16-битным кодированием цвета. Это даст широкие возможности для последующей работы с ним.

Можно создавать стереопанормы и 360-градусные снимки, которые потом можно рассматривать в очках виртуальной реальности.

Есть огромное множество эффектов, которые можно применять к захватываемому изображению — зернистость, Bloom, сепия, линзовые эффекты и много другого, вплоть до создания картинки с эффектом рыбьего глаза. Широкие возможности Ansel поражают. Игрок получает такие возможности, которых ранее просто не было.

После изучения архитектурных особенностей и новых технологий нужно взглянуть на саму видеокарту GeForce GTX 1080. Референсная версия внешне напоминает предыдущие модели со слегка обновленным дизайном и более резкими очертаниями.

Обратная стороны защищена двумя пластинами, что напоминает «бронирование» GeForce GTX 980.

Общая конструкция охлаждения осталась без изменений. Кулер работает по принципу турбины. Есть крупное основание, ребристый радиатор для охлаждения GPU и дополнительный радиатор в районе узла питания для лучшего охлаждения силовых элементов.

Все остальные нюансы мы рассмотрим в отдельной статье, где заодно проведем и сравнительное тестирование. Если говорить о предварительных оценках самого производителя, то NVIDIA сравнивает новинку с GeForce GTX 980 и говорит о преимуществе около 70% в простых играх и разрыве более чем в 2,5 раза в VR-режиме. Разница с GeForce GTX 980 Ti будет поменьше, но о каких-то конкретных значениям можно будет говорить после практических тестов.

Выводы

Настало время подвести итоги нашего теоретического знакомства с GeForce GTX 1080. Эта видеокарта на данный момент является самым продвинутым в технологическом плане продуктом среди графических ускорителей. В GeForce GTX 1080 впервые используется 16-нм процессор архитектуры Pascal и новая память GDDR5X. Сама архитектура является развитием Maxwell с оптимизациями и новыми функциями для DirectX 12. Архитектурные улучшения в значительной мере усиливаются за счет существенного роста частот GPU и памяти. Очень значительный прогресс в сфере VR-рендеринга благодаря новым технологиям, ускоряющим работу в этом режиме. Прогрессивным нововведением является поддержка HDR-дисплеев и соответствующего контента. Благодаря новому блоку обработки видео еще больше возможностей по воспроизведению и записи видео высокого разрешения, включая работу с форматом HDR. Любители сверхдинамичных мультиплеерных игр оценят технологию Fast Sync. Ценителей виртуальных красот порадуют возможности Ansel. Покупая GeForce GTX 1080, вы в итоге получите не просто самый быстрый на данный момент видеоускоритель, но и самый функциональный.

Официально данная модель станет доступна покупателям после 27 мая. Первыми в продажу поступят версии референсного дизайна Founders Edition. Они будут иметь более высокий ценник. Чуть позже выйдут нестандартные варианты, стоимость которых на $100 ниже. Ну а мы к моменту появления GeForce GTX 1080 на отечественном рынке постараемся в рамках большого тестирования в полной мере раскрыть их потенциал в сравнении с существующими топовыми видеокартами.

История

8 июля 2016 года была представлена видеокарта среднего ценового диапазона GeForce GTX 1060, сопоставимая по производительности с GeForce GTX 980, но потребляющая намного меньше энергии.

22 июля 2016 года компания NVIDIA представила профессиональную видеокарту NVIDIA TITAN X (Pascal) (не путать с видеокартой предыдущего поколения GeForce GTX Titan X (GM200), однако она не относится к игровой серии видеокарт, несмотря на то, что она основана на новом флагманском чипе GP102. Однако по обещаниям компании в дальнейшем должен выйти игровой аналог новинки.

18 августа 2016 года компания NVIDIA анонсировала новую видеокарту — GeForce GTX 1060 3GB. Отличие от оригинальной GeForce GTX 1060 заключается не только в двукратном сокращении объёма видеопамяти, но и в сокращении числа потоковых процессоров. 27 декабря 2017 года была представлена одноименная модель оснащенная 5 Гбайтами памяти, которая предназначена исключительно для азиатского рынка. Кроме урезанного объёма памяти была урезана ширина шины памяти до 160 бит.

Видеокарты GeForce GTX 1050 и GTX 1050 Ti имеют референсный дизайн, но они не имеют официальной даты анонса, есть дата начала продаж — 25 октября. Дата выхода видеокарт зависит от сроков, в которые партнеры NVIDIA смогут выпустить модельный ряд видеокарт своего дизайна.

1 марта 2017 года в ходе мероприятия GDC 2017 компания NVIDIA представила видеокарту GeForce GTX 1080 Ti, которую глава компании назвал самым мощным игровым графическим ускорителем в мире. По словам NVIDIA, новинка на 35 % производительнее GeForce GTX 1080 и обходит даже Titan X Pascal. Дата начала продаж — 10 марта.

6 апреля 2017 года компания NVIDIA выпустила новую видеокарту — NVIDIA TITAN Xp. Дело в том что новая видеокарта GeForce GTX 1080 Ti оказалась производительнее TITAN X несмотря на цену $700 против $1200 соответственно. Чтобы исправить данное недоразумение была выпущена новинка в которой разблокированы все потоковые процессоры чипа GP102, а их 3840 штук.

17 мая 2017 года была анонсирована видеокарта начального уровня GeForce GT 1030, которая базируется на новом чипе GP108. В начале марта 2018 года было обнаружено что некоторые партнеры NVIDIA (в том числе MSI, Gigabyte, Palit) выпускают видеокарты данной модели оснащенные видеопамятью стандарта DDR4, которая обеспечивает втрое меньшую пропускную способность памяти чем у референсной модели NVIDIA GeForce GT 1030. Они также обладают заниженными тактовыми частотами что обеспечивает им сниженное энергопотребление.

21 мая 2018 года прошел «тихий анонс» новой видеокарты GeForce GTX 1050 3GB, которая обладает всеми 768 ядрами CUDA, но при этом объём памяти как и разрядность шины сокращены до 3072MB и 96 bit соответственно. В качестве компенсации новинка обладает более высокими тактовыми частотами.

Архитектура

Новые возможности в GP10x:

  • Возможность вычислений CUDA 6.0 (только на чипе GP100), 6.1 (на чипах GP102, GP104, GP106, GP107, GP108)
  • Интерфейс DisplayPort 1.4
  • Интерфейс HDMI 2.0b
  • Четвёртое поколение технологии Delta Color Compression, которая сжимает данные для увеличения пропускной способности памяти.
  • Функции аппаратного ускорения декодирования видео PureVideo, поддержка HEVC HDR10 (10 bit), HDR12 (12 bit) (GM200 и GM204 не имеют этой функции).
  • Поддержка технологии HDCP 2.2 для 4K Контента, защищенного DRM воспроизведения и потоковой передачи данных (GM200 и GM204 не поддерживает HDCP 2.2, в отличие от GM206)
  • NVENC HEVC HDR10 10 bit аппаратное декодирование
  • GPU Boost 3.0
  • Simultaneous Multi-Projection
  • Новый контроллер памяти GDDR5X и поддержка стандарта GDDR5 (GP102, GP104)
  • Впервые использовалась память стандарта HBM2 в старшем чипе GP100
  • Динамическая балансировка нагрузки системы планирования.
    Благодаря поддержке асинхронных вычислений архитектура Pascal может заниматься несколькими процессами одновременно, что позволяет максимально загрузить GPU.
  • Тройная буферизация реализована на уровне драйвера. Компания NVIDIA называет это решение «Fast Sync».

Примечания

  1. NVIDIA GeForce GTX 1060 сопоставим по мощности с GeForce GTX 980. 4PDA — Новости мира мобильных устройств. Дата обращения 12 июля 2016.
  2. NVIDIA Pascal: The World’s most advanced GPU architecture. GeForce.
  3. Официальный анонс ускорителя NVIDIA GeForce GTX 1060 с 3 Гбайт памяти. 3DNews Daily Digital Digest.
  4. Фото дня: 3D-карта Gigabyte GeForce GTX 1060 5GB Windforce OC. iXBT.
  5. NVIDIA представила видеокарты GeForce GTX 1050/1050 Ti. 3DNews Daily Digital Digest.
  6. NVIDIA TITAN Xp: дебют самого мощного в мире графического ускорителя. 3DNews Daily Digital Digest.
  7. GeForce GT 1030. NVIDIA.
  8. В продаже появились видеокарты GeForce GT 1030 с существенно более медленной памятью. iXBT.
  9. АНОНСИРОВАНА МОДЕЛЬ GEFORCE GTX 1050 С 3 ГБ ВИДЕОПАМЯТИ. GTX-Force.ru.
  10. NVIDIA Pascal. NVIDIA.
  11. Существует ухудшенная версия GT1030 с памятью DDR4 вместо GDDR5 от партнеров в связи с неоднозначностью спецификаций.
  12. Видеокарта GeForce GTX 1060 с памятью GDDR5X представлена в каталоге Nvidia. iXBT.
  13. Видеоакселераторы NVIDIA TITAN X не относятся к игровой серии видеокарт и распространяются только через магазин NVIDIA, расположенный в США.
  14. Тест и обзор: NVIDIA Titan X на архитектуре Pascal в SLI. HardwareLuxx.

FILED UNDER : Железо

Submit a Comment

Must be required * marked fields.

:*
:*