Eurotehnik.ru

Бытовая Техника "Евротехник"
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Как работает режим SLI – мощь нескольких видеокарт в одном устройстве

Как работает режим SLI – мощь нескольких видеокарт в одном устройстве

Когда-то, в давние времена технологий, получение большей мощности видеокарты означало необходимость покупать карту, более мощную (и, возможно, более дорогую!), чем текущая карта. Но, пользователи всегда «мечтали» иметь возможность просто купить дубликат видеокарты, которая у них есть, вместо того, чтобы тратить деньги на что-то более новое и быстрое?

Что ж, к счастью, Nvidia и их технология с несколькими GPU «SLI» дают нам просто решение, если вы используете одну из их карт.

Первое, что приходит в голову — это старая классика, которая имеет минимальные требования к видеокарте, например, Fallout 2. Но играть в 2021 году в «ванильный» Fallout 2 уже не интересно, а популярный Fallout 2: Restoration Project с модом на высокое разрешение и дополнительной обработкой изображения требует уже заметно больше ресурсов.

реклама

Еще один подводный камень, с которым можно столкнуться в случае старых игр — зашкаливающий FPS, требующий от видеокарты бесполезной траты ресурсов. Скорость майнинга Ethash на моей GeForce GTX 1060 обычно составляет 21-22 Mh/s, но с таким высоким FPS скорость просела до 19.5 Mh/s даже в Fallout 2. Поэтому сразу стоит ограничить максимальный FPS в драйвере видеокарты, или, что гораздо удобнее, в MSI Afterburner.

После включения лимита частоты кадров скорость майнинга нормализовалась.

FPS в Fallout 2: Restoration Project иногда проседает.

Три и больше

Парой видеоадаптеров SLI и CrossFire не ограничиваются. Эти технологии позволяют одновременно задействовать до 4 графических адаптеров. Однако такое количество уже избыточное: у простого юзера попросту нет задач, требующих такой вычислительной мощности.

Обычно сборка с 4 и более видео ускорителями используются для майнинга криптовалют. Впрочем, такие фермы уже теряют актуальность, так как разработаны специальные устройства — майнеры, которые по эффективности превосходят графические чипы.

Максимально можно подключить до 12 видеокарт к одной материнской плате. Однако потребуется системная плата с соответствующим количеством слотов, блок питания, способный обеспечить такую сборку энергией, а также источник этой энергии. Желательно дешевой, так как «кушает» даже небольшая ферма очень много электричества.

Читайте так же:
Можно ли давать фотографировать птс

Также нужно обеспечить нормальную вентиляцию, так как греется такая сборка весьма ощутимо. Естественно, работу графических адаптеров нужно синхронизировать, поэтому потребуется и мощный процессор.

Все труды были напрасны

Авторы T-Rex продолжат совершенствовать свое творение, но велика вероятность, что их труды на деле не принесут должных результатов в лице нового всплеска майнинга на видеокартах. И на этот раз дело не в Nvidia.

Свести все усилия T-Rex на нет собираются непосредственно разработчики криптовалюты Ethereum. Они готовятся перевести свой блокчейн на новый протокол Proof-of-Stake (POS) и отказаться от ныне используемого Proof-of-Work (POW) как раз с целью снижения популярности видеокарт как инструмента для майнинга.

Ещё почти полгода назад, в мае 2021 г. представитель Ethereum Foundation Карл Бикхйзен (Carl Beekhuizen) заявлял, что переход на новый протокол завершится «в ближайшие месяцы». Точную дату он не называл, но, как пишет Tom’s Hardaware, как только протокол POW уйдет в прошлое, многим майнерам, добывающим Ethereum, придется или продать свои видеокарты, или начать майнить другие токены.

Hybrid SLI

В 2008 года Nvidia анонсировала Hybrid SLI, чтобы конкурировать с аналогичной концепцией PowerXpress от AMD. Это технология использует встроенный графический процессор в связке с графическим процессором (с модулем MXM (Mobile PCI Express Module)). Если ноутбук подключить к электросети, то GPU будет работать вместе со встроенным графическим процессором для увеличения производительности. Модуль MXM отключится, если ноутбук будет работать от аккумулятора, при этом снизится энергопотребление графической системы.
Это технология доступна и для ПК при использовании видеокарты GeForce 8500 GT в связке с чипсетом из серии nForce 700.

Диспетчер устройств

Если ноутбук постоянно работает на встроенной видеокарте на базе процессора (Intel или AMD), самый простой способ как ее переключить – это выключить совсем, чтобы система всегда по умолчанию применяла дискретную.

Читайте так же:
Как восстановить перезаписанный файл excel

Как это сделать:

  1. Запустите «Диспетчер устройств».
  2. Далее найдите и откройте в списке пункт «Видеоадаптеры».
  3. Выберите свою карту и нажмите правой кнопкой мыши «Отключить».

Для того, чтобы внесенные изменения применились, остается лишь перезагрузить ноутбук.

Можно ли использовать две видеокарты одновременно

22 июн 2017, 21:04

Возник вопрос общего характера, т.к. запутался в куче различных гайдов и советов разных лет.

Дано: Машина с двумя видеокартами, GTX950 и интегрированное ядро процессора.

Хочу: Заставить обе видеокарты работать одновременно. Интегрированное ядро может не отключаться при наличии внешней карты. Под Windows на этом железе такое возможно. Проверено.

Вопрос: Как правильно это реализуется в современных линуксах? При настройках системы по умолчанию работает только одна карта — та, что установлена как первая для инициализации в биосе. Вторая молчит. Для диагностики (в биосе стоит инициализация GTX950 первой):

DVI-D-0 — это монитор который воткнут в интегрированную карту. Активировать не получается. Эта строчка не меняется от наличия или отсутствия монитора на кабеле, пока первой в биосе выставлена внешняя карта.
DVI-I-0 — это монитор который временно перекинут на второй видеовыход внешней видеокарты.

Подскажите пожалуйста общее направление — куда дальше копать? У меня сложилось впечатление что X-ы или то, их конфигурирует, наткнувшись на первую видеокарту на этом и успокаивается. Надо как-то объяснить системе что у нее больше одной видеокарты — но как это сделать правильно? Про xorg.conf боле-менее современные источники говорят что он устарел (старые соответственно не работают). А новых найти не могу. Или теперь у всех оно автоматически «просто работает», а я такой невезучий?

Да, я понимаю конечно, что проще просто воткнуть второй монитор во второе гнездо первой видяхи и не заниматься странным, но я хочу разобраться именно со случаем двух раздельных видеокарт. Т.к. Есть желание в дальнейшем разбираться с пробросом видеокарты в KVM. А для этого нужны именно две раздельные видеокарты. Но сначала нужно хотя бы разобраться с обычными X-ами, IMHO.

Читайте так же:
Метод крамера в excel

Второй попутный вопрос: Куча советов по настройке X-ов, требуют править содержимое каталога /etc/X11/xorg.cond.d — в Минт 18 такого каталога нету, но есть /usr/share/X11/xorg.conf.d — это оно самое (просто в другом месте), или не совсем?

Третий попутный вопрос: Столкнулся с тирингом видео. Победил только засунув в xorg.conf (который сгенерил графической утилитой nvidia драйверов) вот этих кусков выделенных жирным):

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 22:42

slant , для проприетарного драйера должна быть актуальна директива nvidia-xconfig —sli=on (правки про тиринг возможно затрет, оно вроде генерит свой конфиг)

У тебя тут как раз вижу Option «SLI» «Off» можно наверное и вручную поправить, но не уврен что там одна директива для двухкарточного режима.

Изображение

Изображение

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 22:52

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 23:00

Изображение

Изображение

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 23:05

Изображение

Изображение

Две видеокарты одновременно в Linux Mint 18

23 июн 2017, 12:54

М. Я наверное несколько неточно сформулировал свои ожидания. Я не надеюсь что мне подскажут сразу точное решение, но очень бы хотелось, чтобы кто-то уточнил на словах — как оно должно быть в принципе, если следовать логике дистрибутива:
— Два Х сервера с полностью разными конфигами, ли один общий конфиг в /etc/X11/xorg.conf c разными секциями?
— Конфиги должны быть составлены вручную, или есть какой-то механизм управления автогенерацией/автодетектом при старте (я так подозреваю, что это каталог /usr/share/X11/xorg.conf.d )?
— Чем эти два X сервера должны запускаться — есть штатный механизм, или второй Х только руками?
— Налаживается ли в таком варианте общее пространство рабочего стола или нет (т.е. мышка может свободно переходить между ними или нет). Это штатная фича, или ставится какой-то дополнительный софт?

Читайте так же:
Как аккуратно выделить объект в фотошопе

Или, может, я вообще тут страдаю такой редкой фигней, которая в современных дистрибутивах вообще не предусмотрена штатно? Просто в гугле материала так много что я в нем запутался малость. Общее направление движения хотелось бы определить, применительно именно к современному состоянию Минт/ubuntu.

Две видеокарты одновременно в Linux Mint 18

26 июн 2017, 17:07

Перекопал кучу документации и изрядно помучал гугл, но заставить все нормально заработать так и не смог, надеюсь — пока. Однако появились более конкретные вопросы.

Сделал конфиг Xorg — теперь второй монитор подключенный к интегрированному видео Пытается включится при старте Xorg (например когда его mdm запускает), но через секунду уходит обратно в спячку.

Вот лог Xorg’a: — Там видно, что драйвер даже пытается стартовать, и сканирует монитор на предмет режимов. Причем правильно их находит. (1280х1024 родное разрешение этого монитора, пусть обозначает его SyncMaster без конкретной модели в названии — но это для него нормально.)

Вот сам конфиг Xorg:

Монитор который воткнут в интегрированное видео — Monitor1/Screen1.
Пробовал менять драйвер на modesetting — лог вывода и общий результат практически идентичный.

По идее монитор должен висеть на HDMI-1-1 (? если верить логу Xorg ) но такого нету в списке вообще.

Еще подозрение вызывает вот это:

[/i]
Т.е. драйвер intel почему-то выгружен? Почему?

Вот что выдает lspci -k применительно к видеокартам:

Тоже вопрос: а при чем тут «i915» для интегрированного видео, если по идее оно должно использовать «intel»? Или я здесь недопонимаю что-то?

Пробовал откатится на nouveau для GTX950 — не помогает. Ни с конфигом, ни без конфига. На всякий случай перепроверил под виндой — конфигурация для материнки в принципе рабочая, там оба монитора на разных картах живут одновременно без проблем.

У меня такое чувство, что я где-то что-то практически очевидное не замечаю.

Читайте так же:
Как в bios включить usb порты

Две видеокарты одновременно в Linux Mint 18

03 июл 2017, 01:26

Все еще не теряю надежды разобраться в происходящем, но пока подвижек мало. Перешел к дифференциальной диагностике.

1. Скачал и запустил Mint 17.3 в лайв режиме. Результат: система увидела только монитор на интеловском ядре. Походу слишком старое ядро/драйвера чтобы запустить GTX 950.
2. Запустил Минт 18.1 в лайв режиме. Результат: иксы видят только монитор на карте Nvidia (драйвер noveau) однако на мониторе подключеном к интеловскому ядру остается висеть логотип минта (который при загрузке).
3. Скачал и запустил Manjaro Linux в лайв режиме. Результат: система видит сразу оба монитора и позволяет произвольно включать и выключать их сразу, без дополнительных конфигураций иксов вручную. То, чего хочу достичь в минте.
4. Если физически удалить GTX950 из машины, то минт видит и использует интегрированное интеловское ядро. И в лайв режиме, и с тем конфигом что я писал для иксов. Т.е. драйвер есть и работоспособен.
5. У манжаро ядро 4.9. На установленной системе у меня установлено 4.10, так что тут если только регрессия?.

После закидывания гугла подозрительными местами из логов запуска иксов — почти постоянно вкидывает на руководства по настройке Nvidia Optimus. Возник вопрос: а не может ли быть так, что система считает, что у меня именно подобная конфигурация, и отключает «ненужную» вторую карту после первичной инициализации? Ведь в логах иксов я вижу второй подключенный монитор, его порт, и результат опроса рабочих режимов. А в xrandr потом нет этого порта вообще (даже не просто отсутствие доступных режимов монитора — самого названия порта подключения нету).
Как бы попробовать выпилить все относящееся Optimus из системы напрочь, хотя бы для теста? Или отключить его полностью? Можете подсказать как? А то в гайдах только про настройку пишут.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector