1-freelance.ru

Журнал "Фрилансер"
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

GeForce GTX 1050 Ti vs Quadro 1000M

GeForce GTX 1050 Ti vs Quadro 1000M

Сведения о типе (для десктопов или ноутбуков) и архитектуре GeForce GTX 1050 Ti и Quadro 1000M, а также о времени начала продаж и стоимости на тот момент.

Место в рейтинге производительности215807
Соотношение цена-качество22.800.26
АрхитектураPascalFermi
Графический процессорN17P-G1Fermi
ТипДесктопнаяДля мобильных рабочих станций
Дата выхода25 октября 2016 (5 лет назад)22 февраля 2011 (10 лет назад)
Цена на момент выхода139$174.95$
Цена сейчас373$ (2.7x)129$ (0.7x)

Для получения индекса мы сравниваем характеристики видеокарт и их стоимость, учитывая стоимость других карт.

Характеристики

Общие параметры GeForce GTX 1050 Ti и Quadro 1000M: количество шейдеров, частота видеоядра, техпроцесс, скорость текстурирования и вычислений. Они косвенным образом говорят о производительности GeForce GTX 1050 Ti и Quadro 1000M, но для точной оценки необходимо рассматривать результаты бенчмарков и игровых тестов.

Количество потоковых процессоров76896
Количество конвейеров CUDA768 нет данных
Частота ядра1290 МГц700 МГц
Частота в режиме Boost1392 МГц нет данных
Количество транзисторов3,300 млн585 млн
Технологический процесс16 нм40 нм
Энергопотребление (TDP)75 Вт45 Вт
Максимальная температура97 °C нет данных
Скорость текстурирования66.8211.20
Производительность с плавающей точкой2,138 gflops268.8 gflops

Совместимость и размеры

Параметры, отвечающие за совместимость GeForce GTX 1050 Ti и Quadro 1000M с остальными компонентами компьютера. Пригодятся например при выборе конфигурации будущего компьютера или для апгрейда существующего. Для десктопных видеокарт это интерфейс и шина подключения (совместимость с материнской платой), физические размеры видеокарты (совместимость с материнской платой и корпусом), дополнительные разъемы питания (совместимость с блоком питания). Для ноутбучных видеокарт это предполагаемый размер ноутбука, шина и разъем подключения, если видеокарта подключается через разъем, а не распаивается на материнской плате.

Размер ноутбука нет данныхСредний
ИнтерфейсPCIe 3.0 x16MXM-A (3.0)
Длина145 мм нет данных
Дополнительные разъемы питаниянет нет данных

Оперативная память

Параметры установленной на GeForce GTX 1050 Ti и Quadro 1000M памяти — тип, объем, шина, частота и пропускная способность. Для встроенных в процессор видеокарт, не имеющих собственной памяти, используется разделяемая — часть оперативной памяти.

Тип памятиGDDR5DDR3
Максимальный объём памяти4 Гб2 Гб
Ширина шины памяти128 бит128 бит
Частота памяти7 Гб/с900 МГц
Пропускная способность памяти112 Гб/с28.80 Гб/с
Разделяемая память

Видеовыходы

Перечисляются имеющиеся на GeForce GTX 1050 Ti и Quadro 1000M видеоразъемы. Как правило, этот раздел актуален только для десктопных референсных видеокарт, так как для ноутбучных наличие тех или иных видеовыходов зависит от модели ноутбука.

Видеоразъемы1x DVI, 1x HDMI, 1x DisplayPortNo outputs
HDMI+ нет данных
Поддержка G-SYNC+ нет данных

Технологии

Здесь перечислены поддерживаемые GeForce GTX 1050 Ti и Quadro 1000M технологические решения и API. Такая информация понадобится, если от видеокарты требуется поддержка конкретных технологий.

Читайте так же:
Материнская плата asrock g31m s характеристики
VR Ready+ нет данных
Ansel+ нет данных

Поддержка API

Перечислены поддерживаемые GeForce GTX 1050 Ti и Quadro 1000M API, включая их версии.

DirectX12 (12_1)12 (11_0)
Шейдерная модель6.45.1
OpenGL4.64.6
OpenCL1.21.1
Vulkan1.2.131N/A
CUDA+2.1

Тесты в бенчмарках

Это результаты тестов GeForce GTX 1050 Ti и Quadro 1000M на производительность рендеринга в неигровых бенчмарках. Общий балл выставляется от 0 до 100, где 100 соответствует самой быстрой на данный момент видеокарте.

Общая производительность в тестах

Это наш суммарный рейтинг производительности. Мы регулярно улучшаем наши алгоритмы, но если вы обнаружите какие-то несоответствия, не стесняйтесь высказываться в разделе комментариев, мы обычно быстро устраняем проблемы.

Обзор видеокарты GeForce GTX 1060

После анонса GTX 1080 и GTX 1070, представляемые как видеокарты высокого класса с самой «Современной архитектурой в мире» Pascal, nVidia, как обычно, чуть позже представила бюджетные варианты видеокарт 1060, 1050, а также свой новый флагман 1080 Ti.

Изначально GTX 1080 по заявлению самой Nvidia в 2 раза мощнее предыдущего поколения. Сама GTX 1060 была выпущена в соответствии с выпуском компании AMD видеокарты среднего класса Radeon RX 480.

Не смотря на большое количество модификаций от различных производителей (ASUS, MSI, ZOTAC, GIGABYTE и других), основные характеристики чипа не будут меняться, изменениям будут подвержены лишь частотные характеристики, охлаждение, размеры, качество элементов питания и других высоко используемых элементов видеокарты. Да и практика показывает, что разгоном занимаются далеко не все люди, кому-то легче купить уже разогнанную видеокарту и не ломать себе голову с разгоном. Да и вообще показывает, разгон даёт выигрыш в производительности в пределах 10% — 15% (в лучшем случае, если вам повезло с устройством). Да и не следует забывать, что разгон имеет преимущество в высоком классе видеокарт, там где действительно немного не хватает производительности, например, на больших разрешениях (4k, 2k).

Официальные технические характеристики видеокарты GeForce GTX 1060:

Как видно из спецификации, устройство изначально выпускается в двух вариантах: 6-гигабайтная версия и 3-гигабайтная, отличается количество куда ядер, а частоты остались одними и теми же. Отличия памяти только в её объеме, всё остальное совпадает.

Следует отметить что в отличии от GTX 960, которая не поддерживает виртуальную реальность, линейка «тысячных видеокарт» начиная от GTX 1060 уже можно пробивать в виртуальной реальности.

Для сравнения: ближайший конкурент «тысяча шестидесятой» это видеокарта AMD Radeon RX 480:

ВидеоадаптерGeForce GTX 1060Radeon RX 480
ЯдроGP106Polaris 10
Количество транзисторов4,4 млрд. шт5,7 млрд. шт
Техпроцесс16 нм14 нм
Количество потоковых процессоров12802304
Количество текстурных блоков80144
Количество блоков рендеринга4832
Частота ядраОт 1506 Mhz до 1708 MhZОт 1120 Mhz до 1266 Mhz
Шина памяти192 bit256 bit
Тип памятиGDDR5GDDR5
Частота памяти8000 Mhz8000 Mhz
Объём памяти, МБ6,144 Гб8,192 Гб
Поддерживаемая версия DirectX1212
ИнтерфейсPCI-E 3.0PCI-E 3.0
Мощность, Вт120150
Читайте так же:
Материнская плата asus ipibl lb

Производители

Продукция компании ASUS

Представлена 11 моделями: 8 шестигиговых и 3 на три гигабайта.

ASUS GeForce GTX 1060 6Gb

Версии на 3 гига:

  1. Компактная PH
  2. Обычная Dual
  3. Разогнанная Dual

ASUS GeForce GTX 1060 3Gb

Продукция компании MSI

Представлена 22 моделями:

Продукция компании Gigabyte

Gigabyte GeForce GTX 1060 5G Windforce OC

В конце 2017 года в сети появились слухи о GTX 1060 с 5 ГБ видеопамяти от Gigabyte. Слухи подтвердились появлением данной карты на официальном китайском сайте Gigabyte. Видеокарта разогнана с завода до 1556 МГц в стандартном режиме и 1771 МГц в режиме Boost. Имеется альтернативный режим разгона, при котором частота повышается до 1582 МГц, а в бусте — до 1797 МГц.

Gigabyte GTX 1060 5G Windforce OC

Видеокарта двухслотовая, габариты GeForce 1060 5Gb следующие:

  • длина: 223 мм.
  • ширина: 121 мм.
  • толщина: 39 мм.
  • DVI-D — 2 шт.
  • HDMI 2.0b — 1 шт.
  • DisplayPort 1.4 — 1 шт.

Охлаждение Windforce представлено медным композитным радиатором и двумя вертушками по 90 мм, вращающимся навстречу друг другу. Производитель заявляет, что это обеспечивает меньший шум и на 23% лучший воздушный поток, по сравнению с конвекцией.

Продукция компании Zotac

Представлено пять доступных моделей:

Компания Palit

Palit в свою очередь, представлена всего 8 моделями видеокарт:

Компания Inno3d

Тестирование видеокарты GTX 1060

Поскольку видеокарта среднего класса и не претендует на разрешения больше FullHD (1920×1080), то и тестировать будем все игры в этом разрешении.

Возьмём самые последние игры, которые действительно могут показать нагрузку на видеокарту. Напомним, Ведьмак 3 вышел в 2015, но даже флагман nVidia очень с большой натяжкой мог показать заветные и всеми любимые «Шестьдесят кадров в секунду». Да, новое поколение уже спокойно тянет (за исключением может, разве что 1050), в отличие от поколения Maxwell (900 серии).

Geforce GTX 960GTX 1050GTX 1060Radeon R480
Battlefield 130307453
Call of Duty: Infinite Warfare444859,672
The Witcher 3: Wild Hunt26,822,640,453
Watch Dogs 230,832,951,441

В общем тесты показывают, что по сравнению с GeForce GTX 960, десятая серия «шестидесятки» на 30-50% производительнее.

Цены на GeForce GTX 1060

Цены на «тысяча шестидесятые» колеблются от 13 000 рублей до 23 000 рублей, всё зависит во-первых от того, где покупать и от объёма видеопамяти; во-вторых: от производителя, популярности, долговечности элементов, запаса на разгон, питания, заводского разгона, памяти, типа памяти, дизайна, цвета и других характеристик.

Какой процессор раскроет 1060

Вполне достаточно для данной видеокарты любого 4-ядерного процессора с частотой 3,5 Mhz, чем больше, тем лучше. В теории может хватить и Core i3, но всё же рекомендуется взять, например, Core i5 6400 (Skylake), да в принципе и поколение Haswell сможет нормально себя показать.

Если говорить про исключения то, например, GTA V может не полностью загрузить видеокарту, так как там используется в значительной степени процессор для физики. Для данной видеокарты скорее важна частота поэтому тот же 6400 лучше разгонять по шине.

Читайте так же:
Материнская плата amd fm2

Стоит брать?

Если вам нужнавидеокарта для FullHD, GTX 1060 будет неплохим выбором. 1060 в десятой линейке nVidia является «золотой серединой», так как 1050 маловата для комфортного игрового процесса, а «тысяча семидесятая» будет значительно дороже. Рекомендуется брать версию c 6Gb памяти так как 3GB даже на «народном разрешении» уже недостаточно для современных «ААА» игровых проектов. Если же говорить про общую картину, то производительность сопоставима с GTX 970 и RX 480 от AMD.

GTX 1060 3Gb или 6Gb (тесты в играх)

Какую GTX 1060 выбрать

NVIDIA GeForce GTX TITAN — за 1000 долларов. Новый удар по позициям AMD в верхнем ценовом диапазоне

Казалось бы, зачем компании NVIDIA противопоставлять конкурента своему же продукту — NVIDIA GeForce GTX 690? Ответ ясен только тем пользователям, которые на практике использовали технологии NVIDIA SLI и AMD CrossFireX. Проблема обоих данных технологий заключается в том, что они эффективны только в том случае, если запускаемое приложение их поддерживает, а само приложение поддерживает драйвер видеокарт. В противном случае пользователь довольствуется низким приростом производительности от второй видеокарты или вовсе отсутствием какого-либо прироста. Все это достаточно печально, но факт. Да и технологии NVIDIA SLI и AMD CrossFireX не во всех приложениях еще избавились от такого паразитического эффекта, как «фризы». Фризы — это мелкие подергивания изображения, которые заметны исключительно пользователю и не фиксируются никаким программами. Фризы возникают из-за малейшей разницы в уровне производительности двух графических ядер и достаточно трудно поддаются «лечению».

Новый продукт NVIDIA GeForce GTX TITAN основан на единственном крупном ядре GPU GK110. Результаты тестов показывают, что данная видеокарта является наиболее производительной среди всех существующих одночиповых видеокарт, но во многих играх уступает двухчиповым решениям NVIDIA GeForce GTX 690 и AMD Radeon HD 7990. При этом видеокарта NVIDIA GeForce GTX TITAN имеет сопоставимую с ними стоимость. Тем самым, пользователь приобретая NVIDIA GeForce GTX TITAN получает следующие преимущества перед покупкой NVIDIA GeForce GTX 690 и AMD Radeon HD 7990:
— меньший уровень энергопотребления,
— стабильную производительность, не зависящую от готовности драйверов, программ к работе с двухчиповыми видеокартами,
— отсутствие фризов,
— меньший уровень тепловыделения,
— меньший уровень шума от системы охлаждения,
— продукт на одном ядре, который будет лидером по уровню производительности еще долгое время.

Видеокарта основана на ядре GK110, которое имеет 2688 ядер CUDA, 225 текстурных блока и 28 ROP модулей. К примеру, решение GeForce GTX 680 имеет всего 1536 CUDA ядер, что позволяет оценить превосходство новой видеокарты.
Видеокарта NVIDIA GeForce GTX TITAN имеет рабочую частоту 836 Мгц, которая благодаря технологии GPU Boost 2.0 повышает рабочую частоту до 876 Мгц.

Обновленная технология GPU Boost 2.0 теперь при разгоне графического ядра учитывает не только потребляемую мощность видеокартой, но и ее рабочую температуру. Поэтому теперь пользователь может регулировать оба параметра и, самое главное, самостоятельно повышать рабочее напряжение на графическом ядре. При этом технология GPU Boost 2.0 самостоятельно управляет повышением рабочей частоты, с учетом установленных лимитов энергопотребления и рабочей температуры.

Читайте так же:
Моргает кнопка питания на ноутбуке

Внешне видеокарта ничем не отличается от других топовых продуктов NVIDIA. Плата двухслотная, достаточно длинная. Установлена система охлаждения на базе теплоиспарительной камеры и турбины охлаждения, выдувающей воздух за пределы системного блока.

Видеокарта NVIDIA GeForce GTX TITAN имеет стандартный набор портов для вывода изображения — два DVI, HDMI, DisplayPort.

На боковой поверхности видеокарты расположены два коннектора SLI, для подключения мостиков и объединения вычислительной возможности нескольких видеокарт.

На боковой поверхности имеется два коннектора для подачи дополнительного питания на видеокарту — шестипиновый и восьмипиновый.

На видеокарте имеется схема INA 3221, которая отвечает за контроль за уровнем энергопотребления.

Схема питания видеокарты восьмифазная и организована по схеме 6+2. В качестве контроллера напряжения выступает чип OnSemi NCP4206.

На видеокарте распаяны чипы видеопамяти Samsung K4G20325FD-FC03 типа GDDR5, с рабочей частотой 1500 Мгц.

Само ядро видеокарты GK110 значительно увеличилось в размерах и достигло 521 квадратных миллиметров. Для сравнения, ядро GK104 видеокарт GeForce GTX 680 имеет площадь всего 294 квадратных миллиметра. Именно данное обстоятельство говорит нам о том, что врятли мы когда-либо увидим видеокарту NVIDIA GeForce GTX TITAN со стоимостью в 500 долларов — это не возможно. Спецификации видеокарты
1. Рабочая частота ядра: 840 МГц, турбо частота — 876 Мгц
2. Универсальных процессоров CUDA: 2688
3. Тип памяти: GDDR5
4. Объем памяти: 6 Гб
5. Рабочая частота видеопамяти: 1502 МГц
6. Шина 384 битная
7. Шина PCI Express 3.0
8. Рекомендованная стоимость: $1000 долларов для США

1. Температурный режим работы видеокарты

Видеокарта тестировалась при следующих условиях:
— в комнате 27 градусов,
— видеокарта установлена в закрытый корпус,
— в корпусе нет дополнительных вентиляторов охлаждения,
— нагрузка подается до полной стабилизации температур в течение 15 минут.

Результаты тестирования показывают, что система охлаждения видеокарты справляется со своими задачами. Новая система GPU Boost 2.0 даже при разгоне не позволит нарушить данный температурный режим работы продукта.

2. Разгон видеокарты
На сегодняшний день достоверно известно, что некоторые экземпляры NVIDIA GeForce GTX TITAN без проблем берут частоту в 1005 Мгц по ядру и 1755 Мгц по видеопамяти. Заключение
Видеокарта NVIDIA GeForce GTX TITAN является новым достаточно интересным решением, которое является конкурентом именно двухчиповым видеокартам как NVIDIA, так и AMD. Естественно, новый продукт перетянет на себя многих потенциальных покупателей видеокарт AMD Radeon HD 7990 в связи с указанными во вводной части статьи преимуществами решения NVIDIA GeForce GTX TITAN.

Видеокарта geforce gtx 1000

Традиционно мобильные аналоги видеокарт получались значительно слабее относительно десктопных прототипов. Связано это было, с урезанием вычислительных блоков и с понижением частот, что было необходимо для уменьшения TDP. Иногда мобильная видеокарта даже получала другой GPU. Но относительно новых GeForce архитектуры Pascal серии GTX 1000 вышло все даже наоборот. По крайней мере топовые мобильные видеокарты GeForce GTX 1080 и GeForce GTX 1070, ни сколько не уступают по производительности своим старшим товарищам. По своим характеристикам GeForce GTX 1070 является копией декстопной, то с GeForce GTX 1070 ситуация совсем иная.

Читайте так же:
Жесткий диск на 1 терабайт для ps4

В GeForce GTX 1070 для ноутбуков используется GPU GP104 как и в GeForce GTX 1080, но только немного в урезанном виде. Кристалл производится по 16-нм техпроцессу FinFET, число транзисторов составляет прежние 7,2 млрд., пусть даже не все из них используются. У варианта GPU GP104 в мобильной видеокарте GeForce GTX 1070 мы получаем 2048 потоковых процессоров, 128 текстурных блоков, 64 блока рендеринга и 16 SM. У настольной версии эти показатели ниже 1920 потоковых процессоров, 120 текстурных блоков, 64 блока рендеринга и 15 SM. Интерфейс памяти что у декстопной, что у мобильной версии одинаков, в обоих случаях он состоит из восьми 32-битных контроллеров, поэтому ширина шины памяти составляет 256 бит. В результате количество конвейеров растровых операций не изменилось, оставшись в количестве 64 штук. А вот что касается тактовых частот, то здесь имеются отличия.

В мобильной версии GeForce GTX 1070 они составляют 1442 МГц и 1645 МГц в режиме Boost. У настольной версии частоты выше, но не намного 1506 МГц и 1683 МГц в режиме Boost, как видим разница минимальна. Для мобильной GeForce GTX 1070 Nvidia использовала классическую память GDDR5, но зато она установлена в весьма быстром варианте на 2000 МГц. Благодаря 256-битной шиной памяти GeForce GTX 1070 дает пропускную способность памяти 256 Гбайт/с (у GeForce GTX 1080 — 320 Гбайт/с). Тепловой пакет видеокарты составляет 100 Вт. Графический адаптер GeForce GTX 1070 предназначен для установки в мощные игровые ноутбуки, толщина которых может составлять 18 мм, а вес — менее 2 кг, новый видеоадаптер должен обеспечить высокую производительность при частоте 120Гц в 4K-играх. Также он подойдет для ноутбуков, приобретаемых в качестве замены десктопным ПК. Поддержка технологии Battery Boost обещает вдвое большее время работы от батареи в играх и более плавный игровой процесс. Технология NVIDIA G-Sync в ноутбуках с GeForce GTX 1070 позволит установить разрешение 2500×1400 с частотой 120 Гц. GPU также поддерживает технологии NVIDIA VRWorks, включая NVIDIA Simultaneous Multi-Projection для повышения производительности в виртуальной реальности и NVIDIA Ansel, позволяющий игрокам выстроить кадр для скриншотов с помощью продвинутых инструментов. Версия Max-Q отличается от обычной только уменьшенной тактовой частотой (базовая 1101-1215 МГц, динамическая 1265-1379 МГц против 1433 МГц и 1645 МГц соответственно). Так же имеются различия и по теплопакету 150 Вт для обычной версии и 115 Вт для GeForce GTX 1070 Max-Q.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector