Как сравнить производительность видеокарт: какая из двух лучше? Оценка производительности своей видеокарты
Как сравнить производительность видеокарт: какая из двух лучше? Оценка производительности своей видеокарты
Доброго времени суток!
Довольно часто при апгрейде компьютера (или вообще при покупке нового ПК/ноутбука) встает вопрос о выборе видеокарты, и ее оценки производительности. Ведь далеко не всегда тот, что дороже, оказывается более производительным (сейчас все смешалось: модели, закупленные по старому курсу доллара — один ценник, по-новому — другой. )!
В этой статье приведу несколько сайтов (способов*) , которые помогут вам сравнить производительность разных видеокарт (а значит выбор железа сделают проще, особенно для неискушенных пользователей, коих большинство).
Да и вообще, иногда цены на конкретные видеокарты выше раза в 2, чем на другие, а их производительность (в лучшем случае) — повыше на 5-10% (что часто практически незаметно). Есть ли смысл переплачивать?
Итак, рассмотрим данную тему поподробнее. 👌
Архитектура
Новая видеокарта GeForce GTX 580, взяла за основу графический процессор GF110, который содержит 3 миллиарда транзисторов. Нужно отметить, что технологические линии полупроводниковой компании TSMC, которая выпускает графические процессоры для компаний NVIDIA и AMD, существенно улучшены, в вопросе энергопотребления и теплоотдачи, новый чип будет улучшен.
Процессор GF110 совмещает в себе однозначное строение предшествующей модели и обновления, которые удалось достигнуть на протяжении года. В отличие от предыдущей модели от GeForce GTX 480, в обновленном процессоре все блоки активны, они имеют 512 гибких и эффективных шейдерных процессоров, 64 текстурных блока и 16 устройств Polymoph Engine. Все прочие характеристики остались не тронутыми, это и 48 блоков растеризации, и кеш L2 768 КБ, и контролеры памяти 64 бит, которые формируют шину 384 бит, так же новинка комплектуется 1,5 ГБ памяти. Исходя из всего вышесказанного, создается впечатление, что новая видеокарта GTX 580 не так уж далеко ушла от бывшего лидера, но существуют и другие инновации. Одна из них, это увеличенные тактовые частоты, нынешний графический процессор работает на 772 МГц, а шрейдерный домен на 1544 МГЦ. Память увеличена до 1 ГГц.
Вторая и немаловажная инновация, включает в себя обновленные текстурные блоки, которые впервые появились еще на GTX 460. Их отличие заключается в двое увеличенном быстродействии, во время работ с текстурами FP16, которые применяют в современных играх, и это значит, что режим HDR обрабатывается на высокой скорости и при этом не теряет производительности. И наконец, еще одно важное усовершенствование, это переделанный алгоритм отсечения пикселов (Z-cull), с помощью которого можно более точно определять скрытые части сцены, извлекать их из обработки, при этом освобождая ресурсы. Производитель утверждает, что прирост данной операции составляет 8% ,что делает существенный вклад в производительность.
Работа над ошибками
Естественно, что особое внимание производитель уделил особенностям Fermi, которые имели нарекания, т.е., потребление энергии, теплоотдача и шум. Абсолютно все блоки функциональные блоки GF110 спроектированы заново, с учетом всех изъянов, которые были обнаружены в блоках GF100, и теперь графический процессор имеет меньшую утечку тока, соответственно меньше нагревается. В процессе модернизации, изменилась и система питания, с точки зрения, как элементной базы, так и управления. Теперь в ее состав входит три датчика, которые измеряют ток, потребляемый видеокартой. Если драйвер замечает аномальную повышенность тока и использование утилит, то тактовые частоты снижаются, для сохранения заявленного уровня TDP.
Сравнивать с конкурентами, конечно не хорошо, но NVIDIA можно понять, очень высокие показатели потребления электроэнергии, определены с помощью утилит, а их, как известно многие не запускают, а нагрузка на видеокарту в современных играх не встречается вообще. Сегодня можно наблюдать, подобные ситуации с тепловыми пакетами центрального процессора, в понимании производителей AMD и Intel, AMD применяет показатель среднего потребления (ACP), а Intel применяет максимально допустимый TDP. Однако, нужно учесть, что этот алгоритм применяется только в вышеупомянутых приложениях.
Что касается системы охлаждения, то она значительно изменена, так вместо тепловых трубок, радиатор имеет большую камеру, которая расположена по всей площади его подошвы, и тонкого алюминиевого оребрения. Уже знакомый центробежный вентилятор, выдувает наружу горячий воздух. Так же модернизированы системы управления кулером и термоконтролем. Характерный резкий скачек скорости вентилятора и его шумности, уменьшается за счет плавного роста. В итоге, при максимальной нагрузке на видеокарту, шум отчетливо слышен, но это не мешает комфортной работе. Стоит так же учесть, что температурный режим значительно улучшился. GeForce GTX 580 даже при самой высокой нагрузке с выключенным алгоритмом снижения частот, не достигает даже 90 °С.
Сравнение производительности GPU серверов с картами RTX A5000 / A4000
Выпуск нового в оборудования, учет рыночных тенденций и внимательное отношение к потребностям пользователей помогают нам разрабатывать новые продукты для более эффективного решения задач корпоративных клиентов. На смену устаревшей серии GTX10 и дефицитной RTX30 пришли наследницы серии Quadro — GPU A4000 и А5000. Именно за счет серверов с новыми видеокартами мы расширили свой серверный парк и предлагаем вам оценить производительность и экономичность нового решения.
Все новые GPU NVIDIA создаются на базе текущей архитектуры Ampere.
Ampere использует 8-нм техпроцесс от Samsung и поддерживает высокоскоростную память GDDR6, HBM2 и GDDR6X. Память GDDR6X является шестым поколением памяти DDR SDRAM и может достигать скорости до 21 Гбит/с. В А5000 и А4000 Nvidia использует ядра RT 2-го поколения и тензорные ядра 3-го поколения, позволяющие обеспечить двукратный прирост производительности по сравнению со старыми ядрами Turing. GPU карты используют стандарт PCIe Gen 4, что позволяет убрать узкие места при обмене данными с GPU.
В Ampere используется новая версия CUDA 8+. На чипе теперь есть два потоковых мультипроцессора FP32, что обеспечивает рост производительности FP32 по сравнению с картами на базе Turing. Старшие GPU A5000 и выше поддерживают NVLink 3.0 для объединения карт парами — это приводит к кратному увеличению производительности.
Видеокарты NVIDIA RTX A4000 и RTX A5000 были анонсированы в апреле 2021 года.
Технические характеристики и стоимость видеокарт NVIDIA RTX A4000 и RTX A5000, RTX 3090, Quadro RTX 4000
Архитектура | |
Quadro RTX 4000 | Turing |
GTX 1080Ti | Pascal |
RTX A4000 | Ampere |
RTX A5000 | Ampere |
RTX 3090 | Ampere |
Техпроцесс | |
Quadro RTX 4000 | 12 nm FinFET |
GTX 1080Ti | 16 нм FinFET |
RTX A4000 | 8 нм |
RTX A5000 | 8 нм |
RTX 3090 | 8 нм |
Графический процессор | |
Quadro RTX 4000 | TU104 |
GTX 1080Ti | GP102 |
RTX A4000 | GA102 |
RTX A5000 | GA104 |
RTX 3090 | GA102 |
Количество транзисторов | |
Quadro RTX 4000 | 11 800 млн |
GTX 1080Ti | 13 600 млн |
RTX A4000 | 17 400 млн |
RTX A5000 | 28 300 млн |
RTX 3090 | 28 300 млн |
Пропускная способность памяти | |
Quadro RTX 4000 | 416 Гб/с |
GTX 1080Ti | 484 Гб/с |
RTX A4000 | 448 GB/s |
RTX A5000 | 768 GB/s |
RTX 3090 | 936.2 Гб/с |
Разрядность шины видеопамяти | |
Quadro RTX 4000 | 256 бит |
GTX 1080Ti | 352 бит |
RTX A4000 | 256 бит |
RTX A5000 | 384 бит |
RTX 3090 | 384 бит |
Память GPU | |
Quadro RTX 4000 | 8 Гб GDDR6 |
GTX 1080Ti | 11 ГБ GDDR5X |
RTX A4000 | 16 ГБ GDDR6 |
RTX A5000 | 24 ГБ GDDR6 |
RTX 3090 | 24 ГБ GDDR6X |
Память ECC | |
Quadro RTX 4000 | нет |
GTX 1080Ti | нет |
RTX A4000 | да |
RTX A5000 | да |
RTX 3090 | нет |
Ядра CUDA | |
Quadro RTX 4000 | 2 304 |
GTX 1080Ti | 3 584 |
RTX A4000 | 6 144 |
RTX A5000 | 8 192 |
RTX 3090 | 10 496 |
Тензорные ядра | |
Quadro RTX 4000 | 288 |
GTX 1080Ti | |
RTX A4000 | 192 |
RTX A5000 | 256 |
RTX 3090 | 328 |
Ядра RT | |
Quadro RTX 4000 | 36 |
GTX 1080Ti | |
RTX A4000 | 48 |
RTX A5000 | 64 |
RTX 3090 | 82 |
SP performance | |
Quadro RTX 4000 | 7.1 терафлопс |
GTX 1080Ti | |
RTX A4000 | 19,2 терафлопс |
RTX A5000 | 27,8 терафлопс |
RTX 3090 | 35,6 терафлопс |
RT Core performance | |
Quadro RTX 4000 | нет |
GTX 1080Ti | нет |
RTX A4000 | 37,4 терафлопс |
RTX A5000 | 54,2 терафлопс |
RTX 3090 | 69,5 терафлопс |
Tensor performance | |
Quadro RTX 4000 | 57,0 терафлопс |
GTX 1080Ti | |
RTX A4000 | 153,4 терафлопс |
RTX A5000 | 222,2 терафлопс |
RTX 3090 | 285 терафлопс |
Максимальная мощность | |
Quadro RTX 4000 | 160 Вт |
GTX 1080Ti | 250 Вт |
RTX A4000 | 140 Вт |
RTX A5000 | 230 Вт |
RTX 3090 | 350 Вт |
Интерфейс | |
Quadro RTX 4000 | PCIe 3.0 x16 |
GTX 1080Ti | PCI Express 3.0 x16 |
RTX A4000 | PCI-E 4.0 x16 |
RTX A5000 | PCI-E 4.0 x16 |
RTX 3090 | PCIe 4.0 x16 |
Разъемы | |
Quadro RTX 4000 | ДП 1.4 (3) |
GTX 1080Ti | |
RTX A4000 | ДП 1.4 (4) |
RTX A5000 | ДП 1.4 (4) |
RTX 3090 | ДП 1.4 (4) |
Форм-фактор | |
Quadro RTX 4000 | 1 слот |
GTX 1080Ti | 2 слота |
RTX A4000 | 1 слот |
RTX A5000 | 2 слота |
RTX 3090 | 2-3 слота |
Программное обеспечение vGPU | |
Quadro RTX 4000 | нет |
GTX 1080Ti | нет |
RTX A4000 | нет |
RTX A5000 | есть неограниченно |
RTX 3090 | есть с ограничениями |
Nvlink | |
Quadro RTX 4000 | нет |
GTX 1080Ti | нет |
RTX A4000 | нет |
RTX A5000 | 2x RTX A5000 |
RTX 3090 | есть |
Поддержка CUDA | |
Quadro RTX 4000 | 7.5 |
GTX 1080Ti | 6.1 |
RTX A4000 | 8.6 |
RTX A5000 | 8.6 |
RTX 3090 | 8.6 |
Поддержка VULKAN | |
Quadro RTX 4000 | есть, 1.2.131 |
GTX 1080Ti | есть, 1.2.131 |
RTX A4000 | есть |
RTX A5000 | есть |
RTX 3090 | есть, 1.2 |
Цена | |
Quadro RTX 4000 | 115 000 руб. |
GTX 1080Ti | 66 000 руб. |
RTX A4000 | 125 000 руб. |
RTX A5000 | 190 000 руб. |
RTX 3090 | 215 000 руб. |
На новых картах куда больше памяти, это позволяет эффективно работать с нейросетями и изображениями.
Другим существенным отличием RTX A4000 и RTX A5000 является аппаратное ускорение размытия движения, позволяющее значительно сократить время и затраты на при рендеринге.
В старших картах от RTX A5000 есть поддержка vGPU — NVIDIA RTX vWS что позволяет обеспечить совместное использование вычислительных ресурсов и виртуальных GPU несколькими пользователями.
В среднем новые видеокарты NVIDIA обгоняют по производительности старую линейку Quadro в 1,5-2 раза и потребляют меньше электричества.
Мы провели собственное тестирование профессиональных видеокарт NVIDIA RTX A5000 и A4000 и сравнили их с RTX 3090 и Quadro RTX 4000 — представителем предыдущего поколения профессиональных видеокарт компании NVIDIA.
Описание тестовой среды
Процессор OctaCore Intel Xeon E-2288G, 3,5 GHz;
32 GB DDR4-3200 ECC DDR4 SDRAM 1600 МГц;
Samsung SSD 980 PRO 1TB (1000 GB, PCI-E 4.0 x4);
Серверная материнская плата Asus P11C-I Series (1 PCI-E x16, 1 M.2, 2 DDR4 DIMM, 2x Gigabit LAN + IPMI);
Microsoft Windows 10 Professional 64-разрядная.
Результаты тестов
Tест V-Ray GPU RTX
Tест V-Ray GPU CUDA
Тесты V-Ray GPU CUDA и RTX позволяют измерить относительную производительность GPU при рендеринге. GPU RTX A4000 и RTX A5000 значительно превосходят по производительности Quadro RTX 4000 и GeForce GTX 1080 Ti (тест V-Ray GPU RTX на этой карте провести невозможно, т.к. она не поддерживает технологию RTX), но уступают RTX 3090, что объясняется высокой пропускной способностью памяти (936.2 Гб/с против 768.0 Гб/с у RTX A5000) и количеством потоковых процессоров (10496 против 8192 у RTX A5000).
«Собаки против кошек»
Для сравнения производительности GPU для нейросетей мы используем набор данных «Собаки против кошек» — тест анализирует содержимое фотографии и различает изображена на фото кошка или собака. Все необходимые исходные данные находятся здесь. Мы запускали этот тест на разных GPU и в различных облачных сервисах, получили следующие результаты:
Полный цикл обучения
Полный цикл обучения тесовой нейросети занял от 5 до 30 минут. Результат NVIDIA RTX A5000 и A4000 составил 07:30 и 9:10 минут соответственно. Быстрее единичных NVIDIA RTX A5000 и A4000 работал только GPU сервер с 8 картами GeForce RTX 2080Ti и потреблением электричества около 2 кВт/час. Видеокарты Tesla V100 прошлого поколения доступны в сервисах Google Cloud Compute Engine, Microsoft Azure и Amazon Web Services и показали наилучший результат из протестированных там карт.
Сколько стоит обучить нейросеть в разных местах?
На графике представлена стоимость обучения модели с использованием различных сервисов для следующих конфигураций:
Что лучше для ноутбука – Nvidia или AMD
Если же говорить не о стационарном, а о мобильном ПК, то выбор оптимального решения по видеографике будет напрямую зависеть от тех задач, которые стоят на ежедневной повестке перед пользователем. И если речь идет о работе в Office-ных приложениях, то можно ограничиться самыми примитивными моделями интегрированных карт от Intel.
Что касается продукции AMD, то для того, чтобы потянуть тяжелый гейминг, пользователю придется раскошеливаться на ПК с графикой серии Vega и RX, а это не менее 100 тысяч российских рублей. Примечательно, что модели подешевле являются откровенно слабыми, и если уж и тратиться, то на устройства с топовыми видеокартами от NVIDIA, которые делают железо по-настоящему мощным.
Подводя общую черту, стоит отметить, что многие разработчики склоняются именно к линейке GeForce от Nvidia, однако это не означает, что AMD значительно хуже. А все потому, что решающую роль в вопросах выбора будет играть не только конкретная модель GPU, но и ее компоновка с CPU и RAM (от производительных характеристик последних напрямую зависит качество работы видеокарты).
Размер, внешний вид и технологии видеокарты
Технически карты AMD и NVidia производятся по абсолютно одинаковым методикам и технологическим условиям. Различия в производстве относятся только к способу изготовления чипа.
Размеры подложек видеокарт имеют, как правило, 3 варианта исполнения:
- Полноразмерная. Длиной до 24 см, высотой 13 см.
- Slim-фактор. Высота остаётся такой же, длина уменьшается в 1.5-2 раза.
- Низкопрофильная. Высота 6.5 см, длина 12-15 см.
Важно! Иногда выделяют ещё и 4-й тип – экстрим-версии. Их высота составляет стандартные 13 см, но длина может доходить до 30 см. Такие видеоадаптеры занимают место 2-х или даже иногда 3-х слотов PCIE.
Внешний вид карты и технология её исполнения зависят от фирмы-производителя. Обычно используются многослойные подложки с числом слоёв от 8 до 16.
Особо массивные карты снабжаются либо задней пластиной (backplate), либо полной защитой по периметру всей видеокарты. В карты с повышенным тепловыделением (1080, 2080, Fury, Vega и т.д.) может быть интегрирована система водяного охлаждения.
Как отслеживать производительность GPU видеокарты в Windows 10
С помощью Диспетчера задач Windows 10 можно получить информацию о производительности графических процессоров, позволяя пользователю получить представление, как используются ресурсы видеокарты, не прибегая к помощи сторонних программ.
Далее рассмотрим, как использовать данный инструментарий и интерпретировать полученные данные о работе видеокарт.
Вкладка Производительность
- Запустите Диспетчер задач Windows 10, используя сочетание клавиш Ctrl + Shift + Esc, или просто кликните правой кнопкой мыши на панели задач, выберите в контекстном меню соответствующий пункт «Диспетчер задач» (если активен компактный режим просмотра, то нажмите кнопку «Подробнее»), а далее перейдите к вкладке «Производительность»;
- Слева необходимо кликнуть по пункту «Графический процессор». Если в системе имеется несколько графических процессоров (видеокарт), то каждый из них будет отображаться с использованием номера, соответствующего его физическому местоположению, например, «Графический процессор 0», «Графический процессор 1», «Графический процессор 2» и так далее.
Windows 10 поддерживает и сочетания нескольких графических процессоров в режимах Nvidia SLI и AMD CrossFire. Когда одна из этих конфигураций обнаружена в системе, то вкладка «Производительность» будет указывать каждую связь с использованием номера (например, «Связь 0», «Связь 1» и так далее). При этом для проверки будет доступен каждый графический процессор в пределах такой связки.
На странице выбранного графического процессора вы найдёте общие данные о производительности GPU, представленные в виде двух блоков: «Графический процессор» и «Оперативная память».
Графический процессор
Этот раздел содержит текущую информацию о движках самого GPU, а не о отдельных его ядрах. По умолчанию отображается четыре наиболее востребованных движка GPU (3D, копирование, декодирование и обработка видео), однако вы всегда можете изменить эти представления (смотрите скриншот).
Здесь также можно изменить вид графика с четырёх на один движок, кликнув правой кнопкой мыши в любом месте раздела и выбрав опцию «Изменить график» → «Одно ядро».
Оперативная память
В этом блоке отображается два типа видеопамяти: общая и выделенная.
Выделенная память – это память, которая будет использоваться только графической картой (память, используемая в процессах).
Общая память – это объём системной памяти, потребляемой для графических нужд.
В правом нижнем углу отображается параметр «Зарезервированная аппаратно память» — это объём памяти, зарезервированный для видеодрайвера.
Также в разделе «Графический процессор» отображается процентный показатель использования ресурсов GPU.
Вкладка Процессы
Отслеживать производительность графического процессора можно и на вкладке «Процессы». Здесь отображена обобщённая сводка для того или иного процесса.
В столбце «Графический процессор» отражено использование наиболее активного движка для представления общего использования ресурсов GPU определённым процессом.
В Windows 10 информация о GPU будет отображена в Диспетчере задач только при использовании архитектуры Windows Display Driver Model (WDDM). WDDM – это архитектура графических драйверов для видеоадаптера, позволяющая выполнять рендеринг рабочего стола и приложений на экране монитора.
WDDM предусматривает наличие графического ядра, включающее планировщик (VidSch) и менеджер видеопамяти (VidMm). Именно эти модули и отвечают за принятие решений при использовании ресурсов графического процессора.
В свою очередь Диспетчер задач Windows получает информацию об использовании ресурсов GPU именно напрямую от планировщика и менеджера видеопамяти графического ядра (независимо от того какой графический процессор используется – интегрированный или выделенный, т. е. встроенная или дискретная видеокарта).
Поэтому, если в Диспетчере задач Windows 10 вы не видите данных о графическом процессоре. То первым делом следует проверить версию WDDM. Если используется WDDM версии выше 2.0, то всё в порядке и данные должны отображаться, если версия ниже, то следует обновить драйвера для видеокарты.
Как узнать версию WDDM
- Запустите команду «Выполнить» (используйте сочетание клавиш WIN + R);
- Введите dxdiag.exe → нажмите ОК;
- Откройте вкладку «Экран»;
Справа, в разделе «Драйверы», будет указана текущая версия WDDM (на скриншоте).
Что делать если не получилось достичь необходимых результатов?
Если вы перепробовали все методы, но все равно не знаете как разгонять видеокарты до необходимой частоты, попробуйте очистить и смазать систему охлаждения. После таких манипуляций кулер должен работать исправно, полноценно выполняя свои функции. Если чистка вентилятора не помогла, необходимо задуматься о смене графического процессора. Новые модели видеокарт являются более производительными, при желании их можно разогнать еще больше.
Если вы все же решились на покупку более производительной графической карты, рекомендуем обратить внимание на видеокарты бу . Они не уступают новым комплектующим по качеству и вполне справляются со своими обязанностями. Широкий модельный ряд позволит выбрать видеоадаптер, полностью отвечающий вашим требованиям. Большим плюсом такой покупки будет сопутствующая гарантия, быстрая доставка и, конечно же, цена. Уже давно многие пользователи апгрейдят свои компьютеры подержанными комплектующими, это позволяет в разы повысить продуктивность работы ПК при этом не потратив много денег.