Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog wrote: 06 Jun 2022, 18:58 весь RT выполняется через общедоступные api, из проприетарного там может быть разве что их денойзер который я встречал только в WD legion
Подобное елышал и про геймворксы, мол, "вом же предоставляется набор инструментов с заранее скомпилированными библиотеками", только вот архитектуры сильно разные, и это работает коряво, если не влезть в код.
В деноизере в том числе и дело. В Ларке завезли новый деноизер, и расклады перевернулись в другую сторону, кстати говоря
А вот например в Control ничего подобного нет, там всё самописное и никакой ссылки на закрытые библиотеки NV там нет.Это взято из книги Raytracing Gems II в котором графический инженер описывал как оно у них устроено и как рендерится(и я почему-то уверен что в 99% нынешних RT тайтлов также :-D .Кроме разве что совсем уж ранних проектов аля Metro E или BF5
не, ну я не запрещаю верить в мощь и потанцевал. Только вот появляются вопросы, когда при включении лучей энергопотребление падает на 20%, в то время как должно настолько же увеличиваться. У жифорса все при этом нормально. И это в каждой игре, где есть "RTX on".
Ровно так же вел себя gameworks. И причины тоже поначалу всеми силами отрицали, пока не случился скандал с чем-то типа project cars
Нет, я про то что они рендерятся в 1/4 от натива и ещё не на всех поверхностях.А RT тени там просто шлак, сравнивать с той же ларой например смысла не вижу
так в ларе как раз самый шлачный РТ. Радиус затенения ужасный, и профит околонулевой
Как бы ролик с титрами я взял с ютуба, где там логотип? С патчем добавили?
не знаю, когда добавили. Настолько я не слежу. Прошел ее до конца этой весной
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

Подобное елышал и про геймворксы
Не знаю что ты там слышал про геймворксы, обсуждается не он.Факт в том что всё делается через общедоступные api и о какой "заточке" рт идёт речь я не знаю
В Ларке завезли новый деноизер, и расклады перевернулись в другую сторону
А можно тесты? Не видел с новым патчем. Ты же про тот где ещё DLSS 2 завезли?
Только вот появляются вопросы, когда при включении лучей энергопотребление падает на 20%, в то время как должно настолько же увеличиваться
Я может очевидную вещь скажу, но GPU не совершенен и затупы с "пузырями" есть всегда :-D.У тебя энергопотребление могло упасть т.к упор в те самые RT ядра которые просто не успевают за остальными ALU, вот и весь разговор.А сами эти ядра много то не жрут, у них площать на кристалле минимальная т.к это Mimd заточенный на строго одну операцию, да и не много их там даже в таких монстрах как 3090 или 6900 по сравнению с основным массивом alu
Ровно так же вел себя gameworks
В Gameworks входит целая кипа эффектов, и на AMD они тупо не работали, игра либо скрывала эти опции либо не давала возможности их включить :-D.Поэтому нет, не так же
Если же копнуть глубже, то по маркетинговым соображениям не работал TXAA и PCSS тени, HFTS не работали тупо потому-что amdшные полярисы(до веги) не поддерживают консервативный растр который используется в HFTS
Ещё HBAO есть, его раньше блочили но потом таки дали возможность включать всем(как он там кстати сейчас? Проприетарная разработка Nv вроде как, роняет радеоны на колени или нет? :-D )
пока не случился скандал с чем-то типа project cars
Это когда разрабы забили на проблему Physx и то что он нормально с AMD картами не работает?(процессор всё ускоряет вместо GPU).Ну что можно сказать, недальновидность в деле :-D .Им может быть хотелось чтобы в игре были красивые частицы, но самому что-то пилить нет, вот и использовали самое доступное.В любом случае эти времена давно ушли
Это конечно никак не оправдывает то, что PhysX тогда был максимально проприетарен и GPU ускорение только на NV работало
энергопотребление падает на 20%
По поводу жора кстати вот превый же тест c "чемоданным RTX on" по твоему утверждению
Spoiler
Помоему оно как жрало 215 с гаком ватт так и жрёт, что не так? :-D Назови точно игры в которых у тебя такое было, может реально дело в дровах?
Вот на Nv кстати, тоже жесткого роста потребления не вижу
Spoiler
Радиус затенения ужасный, и профит околонулевой
Играл с последним патчем и никакого ужасного радиуса затенения с околонулевым профитом не видел.С RT в ларе у теней нет никакой блочности и они становятся контактными(что вообще мелочь, но как же часто про неё разрабы забывают).А радиус там хреновый на параметре высоко, на ультре он заметно дальше и я прогрузок не видел
Факт просто в том что в ларе и рифтрбрейкере тени заметно лучшего качества чем в FC6 в котором они реально перед носом прорисовываются, не знаю как оно рендерится,Ubi насчёт них не говорили но смутные сомнения одолевают конечно :-[
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog wrote: 06 Jun 2022, 19:24 Не знаю что ты там слышал про геймворксы, обсуждается не он.Факт в том что всё делается через общедоступные api и о какой "заточке" рт идёт речь я не знаю
Да да, дх11 тоже открытый api, ага. Только геймворксам это не мешало быть закрытыми
А можно тесты? Не видел с новым патчем. Ты же про тот где ещё DLSS 2 завезли?
Зайди на мой канал (видео выше с него) и ищи последний тест Ларки на 6800хт
Я может очевидную вещь скажу, но GPU не совершенен и затупы с "пузырями" есть всегда :-D.У тебя энергопотребление могло упасть т.к упор в те самые RT ядра которые просто не успевают за остальными ALU, вот и весь разговор.А сами эти ядра много то не жрут, у них площать на кристалле минимальная т.к это Mimd заточенный на строго одну операцию, да и не много их там даже в таких монстрах как 3090 или 6900 по сравнению с основным массивом alu
В метро тяжелые лучи, и жор огого при их включении. Не, не аргумент
[
Gameworks это целая кипа эффектов, и на AMD они тупо не работали, игра либо скрывала эти опции либо не давала возможности их включить :-D.
Если же копнуть глубже, то по маркетинговым соображениям не работал TXAA и PCSS тени, HFTS не работали тупо потому-что amdшные полярисы(до веги) не поддерживают консервативный растр который используется в HFTS
Ещё HBAO есть, его раньше блочили но потом таки дали возможность включать всем(как он там кстати сейчас? Проприетарная разработка Nv вроде как, роняет радеоны на колени или нет? :-D )
Ты хоть знаешь, что такое консервативная растеризация?

Это когда разрабы забили на проблему Physx и то что он нормально с AMD картами не работает?(процессор всё ускоряет вместо GPU).Ну что можно сказать, недальновидность в деле :-D .Им может быть хотелось чтобы в игре были красивые частицы, но самому что-то пилить нет, вот и использовали самое доступное.В любом случае эти времена давно ушли
Это конечно никак не оправдывает то, что PhysX тогда был максимально проприетарен и GPU ускорение только на AMD работало
Это когда хуанг использовал cuda-шейдеры, при этом закрыв исходный код к скомпилированным библиотекам. То есть сделал всю игру проприетарной. Физикс это еще детский сад
По поводу жора кстати вот превый же тест c "чемоданным RTX on" по твоему утверждению
Spoiler
Помоему оно как жрало 215 с гаком ватт так и жрёт, что не так? :-D Назови точно игры в которых у тебя такое было, может реально дело в дровах?
Конечно, ведь видя логотип RTX, амд сразу разучивается писать дрова, и все дело в кривых дровах, ага.
Вот на Nv кстати, тоже жесткого роста потребления не вижу
Spoiler
А у радеона он проседает. Лихо, да? Везде растет, а в хуангоиграх проседает. Да стопудово кривые дрова, а не проприетарщина (нет)
Играл с последним патчем и никакого ужасного радиуса затенения с околонулевым профитом не видел.С RT в ларе у теней нет никакой блочности и они становятся контактными(что вообще мелочь, но как же часто про неё разрабы забывают).А радиус там хреновый на параметре высоко, на ультре он заметно дальше и я прогрузок не видел
Факт просто в том что в ларе и рифтрбрейкере тени заметно лучшего качества чем в FC6 в котором они реально перед носом прорисовываются, не знаю как оно рендерится,Ubi насчёт них не говорили но смутные сомнения одолевают конечно :-[
рифт вроде красная игра, а ты похвалил лучи в ней. Ты точно не treex :crazy:
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

тоже открытый ap
i
Ну как бы нет :-D .Общедоступный не значит открытый
Исходников DirectX у нас нет, они только у майков.Использовать этот апи майки предлагают через свой sdk и шейдерный код на высокоуровневом HLSL, как оно устроено под капотом более детально известно только им
Только геймворксам это не мешало быть закрытыми
Геймворкс тут вообще никаким боком, это сторонняя библиотека к DX не имеющая прямо никакого отношения
В метро тяжелые лучи, и жор огого при их включении. Не, не аргумент
Зануда mode on
Давай начнем с того что 70% рендера кадра в играх сейчас это освещение.
Spoiler
Для примера вот общее время рендера кадра Deus Ex Human revolution.SSAO, теневая карта, лайтмапы занимают значительно времени.В новых играх будет еще больше т.к добавится еще и BRDF, другие gi растеризационные техники.Fxaa так много ест потому-что он вкупе с Msaa применяется, современный TAA жрет копейки Image
В Metro EE выпилили весь растровый его рендер(который там был достаточно тяжел) оставив лишь тени, то есть освободили кучу памяти и удалили такую же кучу старого шейдерного кода
А это меньше нагрузка на обычные alu, а нагрузка на обычные alu это постоянные обращения в кэш и "отбирание" у планировщика тактов для работы которые можно отдать другим блокам включая RT
Поэтому да, аргумент:-D
Control даже со всеми RT эффектами использует кучу legacy, например даже при активации RT теней, теневая карта все равно генерируется, RT лишь борется с "питерпенингом" и блочностью "дополняя" обычные тени.Тоже самое там с GI, пробы освещения и фейковые лампочки(которые как бы тоже жрут время кадра, игра на отложенном рендере построена) никуда не деваются, единственный RT эффект в контроле который на 99% заменяет старый растр-это отражения
И то, даже с ним в игре все равно выполняется трассировка лучей по конусу(это растровый метод) для шероховатых поверхностей
Итого:Control не смотря на Rt эффекты имеет кучу растровых костылей которые Rt не устраняет, то есть нагрузка на обычные alu там тупо выше
Metro EE:самая прожорливая часть рендера в лице освешения на 90% переведена на полный рт рендер с удалением лайтмап, shadow volumes(такая особая gi техника), фейковых источников и много, много всего.Нагрузка на alu там ниже.Трассировка то там прожорлива, но удаление legacy мусора можно сказать компенсирует потерю. Рт ядра тупо больше работы получают т.к нет голоданий по кэшу и тактам
Ты хоть знаешь что такое
Да,знаю.Это когда все(это важно) пиксели перекрытые примитивом заполняются, то есть закрашивается даже если перекрытие там минимальное.Обычно такое для отладки отбрасывания невидимых триугольников используют, но HFTS оно надо для пущей точности, иначе артефакты получишь, прочитать вот тут можно
Spoiler
последний тест Ларки на 6800хт
Да, нашел.По сравнению с результатами до апдейта найденными в инете производительность рт сильно апнули на амд(только кто сказал что там денойзер заменили? С чего ты взял что он с самого начала там был проприетарным), но мы тут потерю сравниваем
Ролика с отключением и замерами на новом патче я не нашел, поэтому спрошу так.Сколько она теряет то в цифрах?
Это когда хуанг использовал cuda-шейдеры
О каких куда шейдерах речь? Куда это закрытый api создававшийся не для игр и в играх не использующийся(его даже подключить никак нельзя).Конкретно физикс и сейчас Dlss используют куда вызовы(то есть проприетарные вызовы которые нужны драйверу), но это вызовы для драйвера которые ему нужны чтобы он понимал что гпу сейчас выполняет, при этом вызываются они без всякого cuda sdk.Графические шейдеры же на языке куды вообще писать нельзя, это тебе не Hlsl, там синтаксис другой :-D
Можно тогда конкретный пруф скинуть по этому поводу? Я по запросу project cars scandal находил только посты на реддите с жалобой на физикс и его работу на цпу(писал про это уже)
А у радеона он проседает
Так а где проседы то? Она как потребляля 215,так и потребляет.Тоже самое с этой 3060
У тебя на канале я нашел только один тест контрола с rt, но в нем ты его не выключал и проследить как там растет потребление я не могу
рифт вроде красная игра, а ты похвалил лучи в ней
Игр с РТ тенями мало, а хочется больше :-D .
Spoiler
Жаль что игра не зашла, я хоть какого-то сюжета ожидал, а получил по факту песочницу в которой заняться нечем кроме отстрела жуков
Last edited by Maillog on 07 Jun 2022, 10:28, edited 1 time in total.
User avatar
ghostwraith
Posts: 836
Joined: 12 Mar 2021, 21:40
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by ghostwraith »

Dukenukem wrote: 06 Jun 2022, 18:17 Амд имеет слабые блоки трассировки и не может быть быстрее нвидии 6000 поколение бета тест на хомячках 16 гигабайт и трассировки.4080 это уже проверенные 16 гигабайт для такого чипа.
ага, проверенные 16 гб хюникс :-D
AMD 5900x 5.050 MHz PBO -21 AllCore,32DDR4-3733 CL14-14-14-28
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
User avatar
ghostwraith
Posts: 836
Joined: 12 Mar 2021, 21:40
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by ghostwraith »

Dukenukem wrote: 06 Jun 2022, 18:20 Дата выхода 7 февраля 2019 игры были как видишь ты пытался взять про запас и так не играл на ней (особого интереса нет играть в игры без трассировки),так и не майнил,да и играть некомфортно зная,что в однопотоке core i3 12100f быстрее твоего недоразумения и по фпс примерно равен
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика. Так что не велика потеря. Зато не менял карту 3 раза :-D А ты каждое поколение меняешь обрубок на обрубок? Потому что начинает не хватать памяти? :-D
AMD 5900x 5.050 MHz PBO -21 AllCore,32DDR4-3733 CL14-14-14-28
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
Dukenukem
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Dukenukem »

ghostwraith wrote: 07 Jun 2022, 02:51
Dukenukem wrote: 06 Jun 2022, 18:20 Дата выхода 7 февраля 2019 игры были как видишь ты пытался взять про запас и так не играл на ней (особого интереса нет играть в игры без трассировки),так и не майнил,да и играть некомфортно зная,что в однопотоке core i3 12100f быстрее твоего недоразумения и по фпс примерно равен
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика. Так что не велика потеря. Зато не менял карту 3 раза :-D А ты каждое поколение меняешь обрубок на обрубок? Потому что начинает не хватать памяти? :-D
Не менял карту как видишь твое старье не может запустить новое метро эксодус с улусшенной трассировкой.
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика Бедненький не смог купить карту rtx , аж начал с гусем одну и ту же байку про видеопамять рассказывать друг другу.
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog wrote: 07 Jun 2022, 01:34 Ну как бы нет :-D .Общедоступный не значит открытый
Исходников DirectX у нас нет, они только у майков.Использовать этот апи майки предлагают через свой sdk и шейдерный код на высокоуровневом HLSL, как оно устроено под капотом более детально известно только им
удобно, правда? А теперь замени слово DirectX на Gameworks или RTX. Ну как, складненько выходит? :-)
Давай начнем с того что 70% рендера кадра в играх сейчас это освещение.
Spoiler
Для примера вот общее время рендера кадра Deus Ex Human revolution.SSAO, теневая карта, лайтмапы занимают значительно времени.В новых играх будет еще больше т.к добавится еще и пбр, другие gi растеризационные техники.Fxaa так много ест потому-что он вкупе с Msaa применяется, современный TAA жрет копейки Image
в Metro EE выпилили весь растровый его рендер(который там был достаточно тяжел) оставив лишь тени, то есть освободили кучу памяти и удалили такую же кучу старого шейдерного кода
А это меньше нагрузка на обычные alu, а нагрузка на обычные alu это постоянные обращения в кэш и "отбирание" у планировщика тактов для работы которые можно отдать другим блокам включая RT
Поэтому аргумент был бы не плох, но мимо :-D
ну вообще не аргумент. Хотя бы потому, что именно растеризация - сильная часть RDNA2, а тут внезапно ее разгрузили и амд стала быстрее?
Control даже со всеми RT эффектами использует кучу legacy, например даже при активации RT теней, теневая карта все равно генерируется, RT лишь борется с "питерпенингом" и блочностью "дополняя" обычные тени.Тоже самое там с GI, пробы освещения и фейковые лампочки(которые как бы тоже жрут время кадра, игра на отложенном рендере построена) никуда не деваются, единственный RT эффект в контроле который на 99% заменяет старый растр-это отражения
в Контроле только отражения что-то и делают. Остальное - незначительно
И то, даже с ним в игре все равно выполняется трассировка лучей по конусу(это растровый метод) для шероховатых поверхностей
то есть, SSR?
Итого:Control не смотря на Rt эффекты имеет кучу растровых костылей которые Rt не устраняет, то есть нагрузка на обычные alu там тупо выше
если выглядит неплохо, то почему бы и нет? Экономия ресурсов всегда важна. Нам же не нужен еще один киберпанк или дайн лайт 2, где даже в 1080р никто не гарантирует 60 фпс.
Metro EE:самая прожорливая часть рендера в лице освешения на 90% переведена на полный рт рендер с удалением лайтмап, shadow volumes(это такая особая gi техника), фейковых источников и много, много всего.Нагрузка на alu там ниже.Трассировка то там прожорлива, но рт ядра тупо больше работы получают т.к нет голоданий по кэшу и тактам
то есть, исходя из того, что "РТ-ядра тупо больше работы получают" следует, что амд таки умеет в тяжелую трассировку?
Кстати о голоданиях по кешу - фигня это все на деле, ибо если был бы жесткий упор в псп, то ее разгон давал бы заметный профит. Но в играх с "RTX on" разгон видеопамяти не дает ничего от слова совсем. Там проблемка в другом, не в видеопамяти
Да, нашел.По сравнению с результатами до апдейта найденными в инете производительность рт сильно апнули на амд(только кто сказал что там денойзер заменили?
с того, что патч был именно с новым деноизером, это было указано в аннотациях. И фпс тогда вырос на 20%, если память не изменяет
С чего ты взял что он с самого начала там был проприетарным), но мы тут потерю сравниваем
а какой же он еще мог быть в игре, которая вышла до рклиза RDNA2?
Ролика с отключением и замерами на новом патче я не нашел, поэтому спрошу так.Сколько она теряет то в цифрах?
О каких куда шейдерах речь? Куда это закрытый api создававшийся не для игр и в играх не использующийся(его даже подключить никак нельзя).Конкретно физикс и сейчас Dlss используют куда вызовы(то есть проприетарные вызовы которые нужны драйверу), но это вызовы для драйвера которые ему нужны чтобы он понимал что гпу сейчас выполняет, при этом вызываются они без всякого cuda sdk.Графические шейдеры же на языке куды вообще писать нельзя, это тебе не Hlsl, там синтаксис другой :-D
Можно тогда конкретный пруф скинуть по этому поводу? Я по запросу project cars scandal находил только посты на реддите с жалобой на физикс и его работу на цпу(писал про это уже)
накладно искать с телефона, это обсасывалось на реддитах. Примерно в том же контексте, что и реализация FSR в Даин Лайт 2 (но тут не удивительно, ведь там паршивейшим образом реализован дылысэс, потому и фср зашакалили, а подеры потом по губам полякам навозили, реализовав как надо). Но в карсах физика-то отрубалась, а производительность все равно была R9 290х=gtx760. Если освежить память, то это примерно то же самое, что 6900хт = 3060
Так а где проседы то? Она как потребляля 215,так и потребляет.Тоже самое с этой 3060
У тебя на канале я нашел только один тест контрола с rt, но в нем ты его не выключал и проследить как там растет потребление я не могу
в Контроле дела не так плохо, там не проседает. А вот в спарже галактики прям минус 20%, и результат ниже, чем 3070
Игр с РТ тенями мало, а хочется больше :-D .
как по мне, это самое бесполезное из того, что есть в лучах.
Civil
Posts: 12
Joined: 28 Oct 2021, 13:38
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Civil »

RadeonForce wrote: ну вообще не аргумент. Хотя бы потому, что именно растеризация - сильная часть RDNA2, а тут внезапно ее разгрузили и амд стала быстрее?
Говорят же тебе ,что планировщик у амд запутался.Сильная сторона растеризация уровень 3080 +-
RadeonForce wrote: то есть, исходя из того, что "РТ-ядра тупо больше работы получают" следует, что амд таки умеет в тяжелую трассировку?
Относительно могут
RadeonForce wrote: в Контроле дела не так плохо, там не проседает. А вот в спарже галактики прям минус 20%, и результат ниже, чем 3070
В старжах галактики серьезная нагрузка,поэтому амд сразу пасует
как по мне, это самое бесполезное из того, что есть в лучах.
Мне тоже нравятся ртх тени.
User avatar
ghostwraith
Posts: 836
Joined: 12 Mar 2021, 21:40
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by ghostwraith »

Dukenukem wrote: 07 Jun 2022, 05:35 Не менял карту как видишь твое старье не может запустить новое метро эксодус с улусшенной трассировкой.
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика Бедненький не смог купить карту rtx , аж начал с гусем одну и ту же байку про видеопамять рассказывать друг другу.
конечно бедненький, не изобрели в тот момент :-D А потом оверпрайс за дешевку и за бетатестера не захотел покупать. :-D
AMD 5900x 5.050 MHz PBO -21 AllCore,32DDR4-3733 CL14-14-14-28
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Civil wrote: 07 Jun 2022, 10:52 Говорят же тебе ,что планировщик у амд запутался
ты что-то путаешь, ведь именно у амд он аппаратный, а у нвидии - софтовые костыли. Последнее служило козырем в дх11, но в дх12/вулкане утягивает вниз
Относительно могут
никитос, да из твоих уст это же звучит как "амд победило" :lol:
В старжах галактики серьезная нагрузка,поэтому амд сразу пасует
где она там серьезная, 100 фпс в 4К без хуанголучей :lol: А лучня там всяко слабее, чем в Метро
Мне тоже нравятся ртх тени.
тебе нравится само слово rtx. Думаю, даже "какашка rtx" будет самым красивым из того, что ты в своей не так давно начавшейся жизни видел :-D
Civil
Posts: 12
Joined: 28 Oct 2021, 13:38
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Civil »

RadeonForce wrote: ты что-то путаешь, ведь именно у амд он аппаратный, а у нвидии - софтовые костыли. Последнее служило козырем в дх11, но в дх12/вулкане утягивает вниз
Нвидиа постепенно решают проблему плюс стараются ребята с интела с их передовыми альдер лейками.
RadeonForce wrote:никитос, да из твоих уст это же звучит как "амд победило" :lol:
В чем то в трассировке 2000 серию нвидиа
RadeonForce wrote:где она там серьезная, 100 фпс в 4К без хуанголучей :lol: А лучня там всяко слабее, чем в Метро
Я и имел ввиду с трассировкой без длсс в 4к не поиграешь= на амд не поиграешь в 4к с трассировкой
RadeonForce wrote:тебе нравится само слово rtx. Думаю, даже "какашка rtx" будет самым красивым из того, что ты в своей не так давно начавшейся жизни видел :-D
Молодой пацан на,всё заработал сам.
User avatar
Zmey
Posts: 1403
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Zmey »

Civil wrote: 07 Jun 2022, 13:09
RadeonForce wrote: Молодой пацан на,всё заработал сам.
:good:
Главное не пытаться показать, что ты лучше, чем на самом деле.
Заработал на 3070, выбрал ее по субъективным причинам.
И ложить на мнение кукаретиков.
Спокойно с dlss можно отлично поиграть, + много игр с поддержкой rtx-лучей.
Большинство игроделов подстраиваются именно под сине-зелень, так зачем выборочно страдать и брать то что тебе не надо ...
Civil
Posts: 12
Joined: 28 Oct 2021, 13:38
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Civil »

Zmey wrote: 07 Jun 2022, 13:30
Civil wrote: 07 Jun 2022, 13:09
RadeonForce wrote: Молодой пацан на,всё заработал сам.
:good:
Главное не пытаться показать, что ты лучше, чем на самом деле.
Заработал на 3070, выбрал ее по субъективным причинам.
И ложить на мнение кукаретиков.
Спокойно с dlss можно отлично поиграть, + много игр с поддержкой rtx-лучей.
Большинство игроделов подстраиваются именно под сине-зелень, так зачем выборочно страдать и брать то что тебе не надо ...
Какая 3070 зачем мне этот 8 гиговый огрызок, это гусь не может смирится ,что у меня карта мощнее 3080 ти,могу скрин скинуть,но чуть позже сейчас отдыхаю с элитной эскортницей.
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

Говорят же тебе ,что планировщик у амд запутался.
Очередная неверная интерпретация, планировщик то тут причём? Он аппаратный во всех GPU и не он виновен в пузырях конвеера которые возникают всегда пока у нас есть вся эта система с кучей кешей, разными ядрами которых ещё и много и кучей типов комманд и чисел.Простоев и не использования не будет только если у тебя в устройстве будет ОДИН ALU, ОДИН планировщик(называйте как угодно, устройство интерпретирующее команды в машинный код) который будет подавать на исполнение только ОДНУ команду твёрдо зная что этот один ALU выполнит её за N времени
Ну как, складненько выходит?
Нет, не выходит.Gameworks либы от DirectX зависят и подключая его к движку можно добавлять шейдерный код этого самого геймворкса
а тут внезапно ее разгрузили и амд стала быстрее?
Ну может потому-что надо полностью текст читать, а не наискось? :-D Речь шла о пузырях в конвеере GPU которых в Metro EE тупо меньше т.к костылей нет, перечитай ту стену текста ещё раз и вникни
Остальное - незначительно
Чистый субъектевизм. Мне вот значительно, дальше что? ;-)
то есть, SSR?
Не SSR, SSR с G-буффером работает в основном и страдает от потери информации в кадре, трассировка по вершинам лишена таких недостатков
Открыл ещё раз GPU gems и нашёл точное название "Voxel cone scene distant field reflections".То есть да, трассировка по вокселям по сути, конусами называют группу лучей(поэтому и трассировка по конусам, то есть луч бьёт не по одному пикскелю проверяя пересечение, а бьёт целой группой лучей по этому вокселю чтобы найти где было пересечение.Минус очевиден-чем меньше эта группа лучей, там хуже)
если выглядит неплохо, то почему бы и нет?
Тут сейчас помоему производительность AMD в RT обсуждается, а не то что надо применять или не надо
в 1080р никто не гарантирует 60 фпс.
Spoiler
Ну во первых на топах там с RT таки есть 60, ну и про скейлинг не забываем
исходя из того, что "РТ-ядра тупо больше работы получают" следует, что амд таки умеет в тяжелую трассировку?
Опять же, читай то что выше я написал внимательней.Трассировка может и тяжелая сама по себе, но ядра больше "дышат" вот и всё, а по поводу того насколько она тяжелая...ну даже в Metro EE разрабы применили "оптимизации", например при заходе в помещение явно видно как RT обновляется в реальном времени(видимо отсечение работает или хз), то есть даже так, с выпилом всего legacy пришлось немного резать
жесткий упор в псп
Причём тут упор в псп если речь идёт о кэше? Упор в пропускную способность конкретно Vram у Gpu будет по видимому всегда ибо кэши значительно быстрее, NV и AMD в разных поколениях попытались хоть как-то устранить этот дисбаланс двумя разными путями со своими подводными камнями.А твой разгон памяти даёт ровно нихера в в данном контексте и сокращает разрыв с кэшем...ну на 1% или может быть 2 :-D поэтому и не повлияет
Кэш в GPU это L2,L1,L0 и т.д, то есть то что находится на самом кристалле и общается напрямую с ядрами
Предвижу сообщение "А в RDNA 2 много кэша, так чё оно работает?".Да, работает но явно не "спасает" при трассеровке.BVH структура весит куда больше чем 128мб(или сколько там в топе у Amd их L3)
разгон
Мы не знаем зависит ли скорость работы кэша от разгона Vram или частоты ядер, это всё догадки
разгон видеопамяти не дает ничего от слова совсем
Ну а мне разгон видеопамяти в Control давал пару лишних fps с RT :-D
Патч был именно с новым деноизером
New improved shadow denoiser for use with ray traced shadows.
Ок, есть пруфы что там изначально был RTX денойзер или что они не заменили старый RT денойзер на новый?
а какой же он еще мог быть в игре, которая вышла до рклиза RDNA2?
Денойзер как бы работает на обычном HLSL коде, а не благославленном хуангом.Проприетарный от NV оптимизирован под их x2 FP32 и на AMD поэтому работает похуже, ничего сверхординарного тут нет
В любом случае, ты думаешь о релизе нового GPU геймдеверы не знают за N до релиза?
А вот в спарже галактики прям минус 20%
Ля, раньше было про все RTX on игры, теперь только стражи :-D .Ну ок, вот результаты
Spoiler
Если что на 3:02 он опять заходит в комнату где до этого RT был выключен
Я может опять что-то не так делаю или не то ищу, но я не вижу какого-то падения до 20%
Last edited by Maillog on 07 Jun 2022, 15:25, edited 13 times in total.
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

Кстати кому интересно, скомпилировал сэмпл D3D12 Raytracing Procedural Geometry
Это тот самый, в котором тестили трассировку на RDNA 2 до выхода и там она заметно уступала
Spoiler
Если хотите можете потестить как дело сейчас обстоит.Вот ссылка на гугл диск, думаю с чего запускать разберетесь :-D
Желательно закрыть все программы которые GPU юзают и окно держать в фокусе винды.Разрешение лучей там зависит от того как сильно вы окно растянули, поэтому лучше на весь экран разворачивайте
Spoiler
Из требований: Поддержка DXR и последние установленные редисты
Ссылка на гитхаб со всеми сурсами
Spoiler
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Civil wrote: 07 Jun 2022, 13:09 Нвидиа постепенно решают проблему плюс стараются ребята с интела с их передовыми альдер лейками.
первые с эти столкнулись максвеллы. Потом паскали. Потом туринги. Потом ампер. Плохо, видимо, стараются.
В чем то в трассировке 2000 серию нвидиа
ух ты, это уже путь к выздоровлению. А то раньше было "уровень 2080S" :lol:
Я и имел ввиду с трассировкой без длсс в 4к не поиграешь
как раз только без длсс и можно поиграть в 4К :haha: Остальные варианты - это уже не 4К, а компромисс, серьезно уступающий нативу, особенно в динамике (длсс)
на амд не поиграешь в 4к с трассировкой
так и на невидии тоже :lol:
Молодой пацан на,всё заработал сам.
сэкономил на школьных завтраках - это не заработал :-D
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Zmey wrote: 07 Jun 2022, 13:30 Главное не пытаться показать, что ты лучше, чем на самом деле.
Заработал на 3070, выбрал ее по субъективным причинам.
И ложить на мнение кукаретиков.
Большинство игроделов подстраиваются именно под сине-зелень, так зачем выборочно страдать и брать то что тебе не надо ...
что тут интел забыл? Уже давно это не так. Тут интересно другое: сколько выходило игр, подстроенных под амд - у зеленых фиаско. Игры, подстроенные под нвидиа - так амд там пободаться еще может. В этом разница - чуть разрабы отойдут от методички, у зеленых сразу же неприятности. Амд же более универсальны (касается растеризации, разумеется)
Спокойно с dlss можно отлично поиграть, + много игр с поддержкой rtx-лучей.
видеопамяти он не нарастит
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

сколько выходило игр, подстроенных под амд - у зеленых фиаско
А что делать когда игру рекламит AMD, а у зеленых результаты не хуже или лучше :-D.Тоже самое и наоборот валидно
подстроенные под нвидиа - так амд там пободаться
Я уже что-то совсем не понимаю, ты же сам раньше писал что хуанг заносит и 6800 на уровне 3070 и это слив, а теперь оказывается может пободаться ;-) .Хорошее бодание чё, топ на уровне предтопа
Амд же более универсальны
Лять да, настолько универсальны что требуют в шейдерах применение и скалярной и векторных операций(и впринципе больше векторную математику любит) чтобы получить для себя буст, настолько универсальны что кол-во управляющей логики в чипе резала в RDNA 1 и вейфронт увеличивала в два раза чтобы больше за так операций подать на исполнение можно было(видимо просто так резали да? Полярис был видимо таким универсальным что пузырей недогруза у него не было), настолько универсально что добавили в драйвера настройку тесселяции чтобы она так сильно не грузила(давние времена уже), настолько универсальна что любит вычислительные шейдеры, а пиксельные как-то уже не очень(тоже давние времена), если так всё универсально, почему NV денойзер оптимизированный под INT+FP она тянет хуже? :-D Было бы оно универсально-ему бы было фиолетово что запускать, оно бы это делало с максимальной скоростью

Не бывает ничего универсального и нет на GPU рынке ничего такого, каждая архитектура имеет свои минусы которые нужно сглаживать чтобы не было проблем(и нет, у AMD их не меньше чем у NV ;-) )
Last edited by Maillog on 07 Jun 2022, 16:02, edited 1 time in total.
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog wrote: 07 Jun 2022, 14:20 Очередная неверная интерпретация, планировщик то тут причём? Он аппаратный во всех GPU и не он виновен в пузырях конвеера которые возникают всегда пока у нас есть вся эта система с кучей кешей, разными ядрами которых ещё и много и кучей типов комманд и чисел.Простоев и не использования не будет только если у тебя в устройстве будет ОДИН ALU, ОДИН планировщик(называйте как угодно, устройство интерпретирующее команды в машинный код) который будет подавать на исполнение только ОДНУ команду твёрдо зная что этот один ALU выполнит её за N времени
не пытайся воспринимать написанное им всерьез, чувак заходит сюда высраться
Нет, не выходит.Gameworks либы от DirectX зависят и подключая его к движку можно добавлять шейдерный код этого самого геймворкса
метод разный, суть-то та же - закрытый код + SDK без возможности влезть в код. Высокоуровневый api он такой.
Ну может потому-что надо полностью текст читать, а не наискось? :-D Речь шла о пузырях в конвеере GPU которых в Metro EE тупо меньше т.к костылей нет, перечитай ту стену текста ещё раз и вникни
я прекрасно понял о том, что ты пишешь. И еще раз повторюсь: получается, если все оптимизировано, амд хорошо молотит лучи? А если RTX on, то там обязательно неприятности начинаются. Потому что именно при появлении "RTX on" индусы из амд резко теряют способность к написанию драйвера, а архитектура становится импотентной к лучам. И нет, дело вовсе не в "RTX on", а виновата только амд, дрова амд и все кто угодно, кроме нвидии :-D
Тут сейчас помоему производительность AMD в RT обсуждается, а не то что надо применять или не надо
да лучи как угодно можно провернуть. Это субъективный показатель. Еще задолго до лучей гоняли Quake 2 RT (не путать со стимовским рекламным тайтлом), где было ну вот примерно что-то такое
Spoiler
Image
а позже еще и оказалось, что у веги уровень 2080ти. Когда завезли аппаратную трассировку, туринг подрос, теперь 2080 был на уровне веги 64. А ведь лучи они и в африке лучи, да? Только там деноизер не работал. Но в лучи-то амд тогда нагнула всех (радеон7 был недосягаемый даже для 2080ти)
ну во первых на топах там с RT таки есть 60, ну и про скейлинг не забываем[/spoiler]
даже до патча с более тяжелыми лучами, 3090 на 2200 мгц не могла в 60+ в 1080р. Сейчас - не сможет тем более. И это, вдумайся: на 3080ти и 3090 играть в 1080р со скейлом? Ну это несерьезно же. 4К без лучей на голову лучше выглядит, чем 1080р с лучами
Опять же, читай то что выше я написал внимательней.Трассировка может и тяжелая сама по себе, но ядра больше "дышат" вот и всё, а по поводу того насколько она тяжелая...ну даже в Metro EE разрабы применили "оптимизации", например при заходе в помещение явно видно как RT обновляется в реальном времени(видимо отсечение работает или хз), то есть даже так, с выпилом всего legacy пришлось немного резать
но ведь это по сей день самое топовое RT-освещение, разве нет?
Причём тут упор в псп если речь идёт о кэше? Упор в пропускную способность конкретно Vram у Gpu будет по видимому всегда ибо кэши значительно быстрее, NV и AMD в разных поколениях попытались хоть как-то устранить этот дисбаланс двумя разными путями со своими подводными камнями.
Кэш в GPU это L2,L1,L0 и т.д, то есть то что находится на самом кристалле и общается напрямую с ядрами
Предвижу сообщение "А в RDNA 2 много кэша, так чё оно работает?".Да, работает но явно не "спасает" при трассеровке.BVH структура весит куда больше чем 128мб(или сколько там в топе у Amd их L3)
как раз наеборот, инфинити кеш - костыль для освещения. И BVH не обязательно в него целиком влезать
А твой разгон памяти даёт ровно нихера в в данном контексте и сокращает разрыв с кэшем...ну на 1% или может быть 2 :-D поэтому и не повлияет
разгон должен влиять в любом случае, та как вместе с разгоном памяти разгоняется и кеш. Надеюсь, это не новость, что у любого кеша есть своя тактовая частота?
Мы не знаем зависит ли скорость работы кэша от разгона Vram или частоты ядер, это всё догадки
я еще полгода назад на руоверах это демонстрировал
Ну а мне разгон видеопамяти в Control давал пару лишних fps с RT :-D
в этом и суть. У амд в хуанголучах затык не в псп.
Ок, есть пруфы что там изначально был RTX денойзер или что они не заменили старый RT денойзер на новый?
нет, но это очевидно. С новым деноизером на хуанге фпс остался тот же, на радеоне - на 20% подскочил. "Совпадение? Не думаю". (с)
В любом случае, ты думаешь о релизе нового GPU геймдеверы не знают за N до релиза?
знают они многое. Но не проявляют интерес, если им "уже занесли". Вспомни ведьмака, где должна была быть волосня tressfx помимо hairworks, но незадолго до релиза амд были посланы поляками и вышло что вышло.
Вот кстати че нашел
https://gamebomb.ru/gbnews/12539
цитата про закрытый код
«Мы не просим разработчиков делать что-то неэтичное. GameWorks улучшает визуальное качество игр на видеокартах GeForce. Технология способна ухудшить производительность на оборудовании наших конкурентов. Требовать доступ к исходному коду всех наших клеевых технологий — это попытка исправить проблемы с производительностью их оборудования. Отдать кому-то свою серию, исходный код или другие наработки — необычный шаг для любой компании в игровой индустрии. Большую часть времени мы оптимизируем игры на основе бинарных билдов, а не исходного кода», — объяснил Брайан Берк (Brian Burke), представитель Nvidia.
и самое сочное
«Лицензия GameWorks является стандартной практикой в игровой индустрии. Исходный код GameWorks предоставляется разработчикам, которые приобрели лицензию. Но по условиям лицензии, они не могут передавать исходный код лицам, у которых такой лицензии нет».
и думаешь, что-то поменялось в случае RTX и деноизерами?
Ля, раньше было про все RTX on игры, теперь только стражи :-D
про все. Или почти. Исключения всегда можно разыскать
Spoiler
Если что на 3:02 он опять заходит в комнату где до этого RT был выключен
ищи в 4К. Ясен пень, что в 1080р карты такого уровня простаивают
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog wrote: 07 Jun 2022, 15:38 А что делать когда игру рекламит AMD, а у зеленых результаты не хуже или лучше :-D.Тоже самое и наоборот валидно
бывает. Но громких фиаско у радеона на RDNA2 нет. Вернее, есть там, где начинается проприетарщина (RTX on). Чтобы ты понимал, что такое громкое фиаско -
https://gamegpu.com/rpg/%D1%80%D0%BE%D0 ... st-gpu-cpu
Я уже что-то совсем не понимаю, ты же сам раньше писал что хуанг заносит и 6800 на уровне 3070 и это слив, а теперь оказывается может пободаться ;-) .Хорошее бодание чё, топ на уровне предтопа
С каких это пор 6800 топ, если он обрезан от 6900хт на 25%, и еще почти на столько же по частоте?
Лять да, настолько универсальны что требуют в шейдерах применение и скалярной и векторных операций(и впринципе больше векторную математику любит) чтобы получить для себя буст, настолько универсальны что кол-во управляющей логики в чипе резала в RDNA 1 и вейфронт увеличивала в два раза чтобы больше за так операций подать на исполнение можно было(видимо просто так резали да? Полярис был видимо таким универсальным что пузырей недогруза у него не было),
полярис причем? Это же GCN c warp64, лол
настолько универсально что добавили в драйвера настройку тесселяции чтобы она так сильно не грузила(давние времена уже), настолько универсальна что любит вычислительные шейдеры, а пиксельные как-то уже не очень(тоже давние времена),

воу воу, ты щас про GCN. Вычислительные шейдеры сейчас это про амперы :lol:
если так всё универсально, почему NV денойзер оптимизированный под INT+FP она тянет хуже? :-D
потому что это оптимизация под проприетарные тензорные ядра
Было бы оно универсально-ему бы было фиолетово что запускать, оно бы это делало с максимальной скоростью
амд может отстать на какой-то процент, но нвидия же падает на донышко, если разработчик осмелился оптимизировать игру под амд.
Не бывает ничего универсального и нет на GPU рынке ничего такого, каждая архитектура имеет свои минусы которые нужно сглаживать чтобы не было проблем(и нет, у AMD их не меньше чем у NV ;-) )
ключевой минус - софтварный шедулер, который в низкоуровневых api уже не помощник, а штука, которая требует жирного драйвера под каждую игру. Кстати, вероятно, заметил, что у радеона лучше масштабируемость архитектуры в низкие разрешения? То есть, раньше-то было наоборот, GCN (вега) могла бодаться в 4К с 1080ти, но при этом в 720р уже будет на уровне 1070, при этом в обоих случаях 99% загрузка гпу по мониторингу. Пример такой игры - Детроит. Так вот щас амперы стали на место GCN, а RDNA - на место максвелла (паскаля). И это говорит о лучшей эффективности архитектуры. Лучшую эффективность архитектуры паскаль вроде никто тогда не оспаривал, ссылаясь именно на это. Ну и на жор конечно же
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

даже до патча с более тяжелыми лучами, 3090 на 2200 мгц не могла в 60+ в 1080р
По нынешним тестам без DLSS 60fps там есть на 1080p
чувак заходит сюда высраться
Ля тогда ладно, я слишком серьёзный дед и подобное плохо распознаю :-D
Но громких фиаско у радеона на RDNA2 нет
Какие есть у Ампера? Ну кроме той херни с питальником в котором не сама архитектура виновата, а недостаточное кол-во обвязки
что такое громкое фиаско -
Это одно из, я правильно понял? Похоже больше на софтверную ошибку в самой игре чем аппаратную.С таким успехом и учитывая контекст я могу заявить что EzBench и экстремально низкая производительность amd в нём это фиаско, чё в остальных то играх такой доминации AMD нет? ;-)
Вычислительные шейдеры сейчас это про амперы
А это уже зависит где.Раньше NV заметно отставала, теперь же всё зависит от API(CUDA или OpenCL если мы говорим про вычисления) и реализации этого самого кода
под проприетарные тензорные ядра
Денойзер от NV работает на обычных ядрах если что :-D .Вот тут гитхаб их, найди хоть одну тензорную операцию
Spoiler
И ещё есть косвенный пруф.Вот данные самой же NV о рендеринге кадра в Metro Exodus
Spoiler
Image
Что это за огромный столб сразу после прохода RT ядер думаю сам поймешь

Ну и вдогонку.Денойзер Nvidia активно использует 32 битную математику с плавающей запятой и скалярные операции аля else или if
Spoiler
Image
AMD же в своём FidelityFX денойзере использует FP16 и векторную математику(i,d,x и > это оно и есть)
Spoiler
Image
NV так напирает на F32 потому-что их амперы такое выполняют быстрее из-за добавления ещё одного массива из 16 FP32 ядер в SM
AMD так напирает на F16 потому-что их карты(помоему начиная с веги) выполняют разреженную математику с рейтом 2:1(то есть быстрее).
При этом кстати NV урезала в ампере рейт F16 и он выполняется с той же скоростью что и 32(1:1), видимо чтобы опять разграничить потребительские решения и "технические" A100 и подобные.

Это уже так, пища к размышлению и интересный факт который я нашёл и которым хотел поделиться :-D
софтварный шедулер
Он у обоих фирм настолько же софтварный, насколько драйвер им это позволяет :-D .У обоих GPU шилдеры интерпретируют команды в машинный код и это делается аппаратно, на этом уровне никакого вмешательства быть не может т.к код на 0 и 1 не пишется
радеона лучше масштабируемость архитектуры в низкие разрешения?
От проекта всё зависит, им кэш в этом хорошо помогает а не драйвер :-D .Амд не просто так приводила вот этот график где в их IC на низких разрешениях попадение почти 100%
Spoiler
Image
С каких это пор 6800 топ, если он обрезан от 6900хт на 25%, и еще почти на столько же по частоте?
6900XT и 3090 это уже супер топы и для гейминга такое покупать...ну если у тебя денег лишних много, по Fps per dollar такие карты дно так-то
А 6800 же конкурент 3080? Так Amd её позиционировало
полярис причем? Это же GCN c warp64, лол
Нет, разделение на Wave32 и 64(да, спутал.Не warp, а wave.Warp это у NV) произошло с RDNA, там оборудование под это было изменено
Spoiler
новые CU имеют два режима исполнения: Wave32 и Wave64, адаптированные для разных типов загрузок, а ширина блока SIMD была увеличена с 16 слотов (SIMD16) до 32 (SIMD32), так что размер вейвфронта теперь соответствует размеру SIMD. Это ключевое архитектурное изменение RDNA позволяет более эффективно загружать работой имеющиеся блоки SIMD. Если в GCN один Wave64 выполняется за четыре такта на SIMD16, то в случае RDNA один Wave32 исполняется за один же такт на одном SIMD32. А исполнение 64 потоков группируется как пара Wave32 и они исполняются на двух SIMD32.
получается, если все оптимизировано, амд хорошо молотит лучи?
Лично я нигде не заявлял что амд не умеет их молотить, ясно дело что если взять например RX5700xt и сравнить её с RX6500xt, то вторая намолотит лучей больше чем первая не смотря на заметно меньшую производительность в растре
Но сейчас обсуждается как хорошо она это делает в сравнении(и соответственно как долго их карты проживут т.к РТ всё больше и больше в нашем гейминге и темпы не сбавляются)
а виновата только амд, дрова амд и все кто угодно, кроме нвидии
Не ну так-то можно и зеркалочку сделать.В упоминаемом тут hairworks же тесселяция дикая применялась? Ну так...
И нет, дело вовсе не в "Убогом геометрическом движке", а виновата только нвидия, дрова нвидии и все кто угодно, кроме amd
А если RTX on, то там обязательно неприятности начинаются
А что делать когда без плашки RTX on Nv всё равно теряет меньше при включении RT? :-[
да лучи как угодно можно провернуть. Это субъективный показатель. Еще задолго до лучей гоняли Quake 2 RT (не путать со стимовским рекламным тайтлом), где было ну вот примерно что-то такое
Спойлер
а позже еще и оказалось, что у веги уровень 2080ти. Когда завезли аппаратную трассировку, туринг подрос, теперь 2080 был на уровне веги 64. А ведь лучи они и в африке лучи, да? Только там деноизер не работал. Но в лучи-то амд тогда нагнула всех (радеон7 был недосягаемый даже для 2080ти)
С этого места поподробнее.Что за Quake 2 RT? По запросу в гугле выводит только RTX, есть сурс?

Туринг подрос где? В этой же демке или в RTX где задействуются новые ядра? На твоём скриншоте я не вижу тьюринга в тестах
А ведь лучи они и в африке лучи, да?
Не совсем, лучи они и в африке лучи тогда, когда реализованы через одинаковый алгоритм(как сейчас с BVH и ускорением прохода через него).Что там в этой кваке было я не знаю ибо никогда не слышал
Но в лучи-то амд тогда нагнула всех
Открытие то какое, в рафинированной вычислительной нагрузке вычислительными же шейдерами AMD впереди, никогда такого не было :-D
Spoiler
Image
но ведь это по сей день самое топовое RT-освещение, разве нет?
Самое топовое оно потому-что оттуда Legacy полностью выпилили
И BVH не обязательно в него целиком влезать
Вот поэтому как я написал и не "спасает", обычным увеличением кэша заметно повысить производительность никогда было нельзя
та как вместе с разгоном памяти разгоняется и кеш.
Будут пруфы хоть какие-то по этому поводу? С чего ты взял что у кэша не может быть своего тактового генератора? Ты это возможно с процессоров взял т.к у них реально так и работает, но видяха это как бы другое :-D
я еще полгода назад на руоверах это демонстрировал
На форумах редко пишу, извините.Что ты там демонстрировал я не знаю
С новым деноизером на хуанге фпс остался тот же, на радеоне - на 20% подскочил
Ну то есть ты не рассматриваешь вариант что денойзер был свой, но его переписали под AMD(НАПРИМЕР добавив туда ту самую векторную математику)?
Вот кстати че нашел
Gamebomb, классный источник :-D . Я с таким же успехом могу скинуть форбс где другая точка зрения
https://www.forbes.com/sites/jasonevang ... 9289db65e3
Но да ладно, даже так Hairworks же там работал на всех карточках не? Просто на AMD всё просаживалось
и думаешь, что-то поменялось в случае RTX и деноизерами?
Поменялось потому-что в их RTX пакете никакого RT кода нет, только денойзер.Можешь проверить прямо сейчас, на NV developer может зарегаться кто угодно, проверок там нет
что в 1080р
Там 1440p если что, недогруз там идёт только если RT off и сжирает при этом 220 ватт
Last edited by Maillog on 07 Jun 2022, 20:11, edited 1 time in total.
Civil
Posts: 12
Joined: 28 Oct 2021, 13:38
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Civil »

RadeonForce wrote: амд может отстать на какой-то процент, но нвидия же падает на донышко, если разработчик осмелился оптимизировать игру под амд.
Под амд вот именно надо оптимизировать, кажду игру только тогда тянет,а смысл это делать ради 2% владельцев rx 6000.
RadeonForce wrote: как раз только без длсс и можно поиграть в 4К :haha: Остальные варианты - это уже не 4К, а компромисс, серьезно уступающий нативу, особенно в динамике (длсс)
Я не считаю ,что длсс везде уступает нативу
RadeonForce wrote: сэкономил на школьных завтраках - это не заработал :-D
Я на 4к телеке играю пока ты смотришь в свою фулл хд форточку на ютубе в 144p пытаясь найти изъяны длсс
RadeonForce wrote: И это говорит о лучшей эффективности архитектуры. Лучшую эффективность архитектуры паскаль вроде никто тогда не оспаривал, ссылаясь именно на это. Ну и на жор конечно же
Паскаль это паксвелл , Ничего принципиально нового в архитектуре нет
RadeonForce wrote: ключевой минус - софтварный шедулер, который в низкоуровневых api уже не помощник, а штука, которая требует жирного драйвера под каждую игру. Кстати, вероятно, заметил, что у радеона лучше масштабируемость архитектуры в низкие разрешения
Вега благодаря грайм шедулеруру всегда кукурузила в низких разрешениях
Maillog wrote: Очередная неверная интерпретация, планировщик то тут причём? Он аппаратный во всех GPU и не он виновен в пузырях конвеера которые возникают всегда пока у нас есть вся эта система с кучей кешей, разными ядрами которых ещё и много и кучей типов комманд и чисел.Простоев и не использования не будет только если у тебя в устройстве будет ОДИН ALU, ОДИН планировщик(называйте как угодно, устройство интерпретирующее команды в машинный код) который будет подавать на исполнение только ОДНУ команду твёрдо зная что этот один ALU выполнит её за N времени
Если бы так было бы с одним алу нужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.Чем больше команд тем,больше шансов простоя некоторых allu.
Maillog wrote: Не совсем, лучи они и в африке лучи тогда, когда реализованы через одинаковый алгоритм(как сейчас с BVH и ускорением прохода через него).Что там в этой кваке было я не знаю ибо никогда не слышал
Потому- что пересечения BVH-лучей RDNA2 выполняются с использованием универсальных вычислительных блоков , когда Ампер ограничен количеством ядер RT в простых сценах
Maillog wrote: А что делать когда без плашки RTX on Nv всё равно теряет меньше при включении RT? :-[
Это всем известно нвидиа мощнее в трассировке лучей
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

Потому- что пересечения BVH-лучей
Не пересечение лучей, а обход BVH с целью узнать в какой пиксель в коробке попал луч.Это начиная с Тьюринга выполняется на RT ядрах, у амд же да, не так
Зануда mode on
Никакого пересечения луча нет, есть пересечение лучом конкретного треугольника, это луч пересекает треугольник, а не наоборот.Происходит это так
1."Выпуск" лучей(это не такая сложная операция и она как раз выполняется на обычных ядрах)
2.После "выпуска" ядра в дело вступают RT ядра которые "вскрывают" BVH и находят нужную коробку(предположим в гепотетическом примере что у нас объект состоит из 2 больших и в этих двух больших ещё по две малых коробки)
И вот конкретно проверка в самих коробках выполняется на RT ядрах у NV и на обычных у AMD
а.Коробка 1 это та большая коробка? Нет, здесь нет пересечения
б.Коробка 2 это та большая коробка? Да, здесь есть пересечение, открываем и ищем дальше
И вот так потом откроется более малая коробка в которой уже есть треугольники, предположим что мы нашли нужную
а.Это 1 пиксель? Нет, не тот
б.Это 2 пиксель? Да, тот
Вот мы нашли пересечение лучом второго пикселя, теперь нам нужно зафиксировать что именно по этому треугольнику прошёл луч, для этого опять же RT ядро проверяет пересечение(так называемый intersection test), именно это указывает и NV и AMD как Ray/box intersection(Ray/Box рядом через черту не просто так стоят)
3.Пересечение подтверждено? Отлично, результаты возвращаются
Опять же насколько я понял СНАЧАЛА происходит распаковка всех BVH, а уже потом идёт проверка на пересечение в этих BVH ибо так эффективнее
Насколько эта операция по распаковке сложна? Хрен его знает, профайлеры подобные вызовы не показывают, они показывают только Ray hit(это когда происходит повторный тест пересечения, самый ресурсоёмкий этап) и создание BVH силами обычных ядер
Если открыть слайды о архитектурах у AMD и NV, то можно найти ещё упоминание такой метрики как Ray/triangle intersection, а это уже то, что к нынешнему рендеру РТ в играх с использованием BVH не относится

Это пересечение лучом треугольника БЕЗ учёта BVH, то есть это всё тоже самое что я описал выше, но без всего второго пункта.И вот конкретно такого в играх cейчас нет, есть только в прикладных программах
Это всем известно нвидиа мощнее в трассировке лучей
Spoiler
Видимо RadeonForce этого не знает или тупо отрицает этот факт(что конкретно по голой вычислительной мощности RT ядра у NV тупо мощнее что с положительной стороны себя показывает как не крути, есть хоть одна игра или тест где от включения RT AMD теряла меньше чем NV? Обычно либо паритет либо AMD теряет больше даже в тайтлах которые AMD пиарит)
нужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.
Я не просто так про одинаковые команды написал
Last edited by Maillog on 07 Jun 2022, 20:19, edited 9 times in total.
User avatar
R2DSF
Posts: 364
Joined: 15 Mar 2021, 13:46
Location: /dev/null
Contact:
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by R2DSF »

Кстати, новый Хорайзен лютое мыльцо с неотключаемым лютым ДоФ. Но сюжетец норм, залип.
Я в Steam --- https://steamcommunity.com/id/R2DSF/ | Конфигурация ПК --- https://sysprofile.ru/p/1/R2DSF
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog wrote: 07 Jun 2022, 16:38 По нынешним тестам без DLSS 60fps там есть на 1080p
ой ли?
Spoiler
а фпс ведь еще просел, так как туда завезли более продвинутые тени (что-то там они дополнительно отражают)
Какие есть у Ампера? Ну кроме той херни с питальником в котором не сама архитектура виновата, а недостаточное кол-во обвязки
да это аппаратный косяк на платах. К архитектуре. ясен пень, не относится. Да вот элементарно - кривое говно типа хитмана, по процессорной части
https://gamegpu.com/%D0%B1%D0%BB%D0%BE% ... eon-v-dx12
да и на слабых процах в целом
Это одно из, я правильно понял? Похоже больше на софтверную ошибку в самой игре чем аппаратную.
но ведь и дрова под нее выходили, и за год дор этого теста тут тестили демку, и там было то же самое. А вспомни WWZ, еще одна игра на движке, пиленном под радеоны (на секундочку, уе4 в той же степени запилен под жифорсы)
С таким успехом и учитывая контекст я могу заявить что EzBench и экстремально низкая производительность amd в нём это фиаско, чё в остальных то играх такой доминации AMD нет? ;-)
а кто сказал, что она экстремально низкая? отставание 6800хт от 3080ти всего 20%. То есть 3080 на обычные 5-10% обойдет 6800хт. Но опять же, демку пилил любитель на жифорсе. Через 2 дня после релиза вышел патч, который поднял радеоны на 60% в сравнении с релизом. Зеленых - примерно на 30%. Это говорит лишь о том, что амд была оптимизирована никак, нвидия - кое-как. Теперь плюс-минус в полную силу работают.
релиз и апдейт
Image
Image
А это уже зависит где.Раньше NV заметно отставала, теперь же всё зависит от API(CUDA или OpenCL если мы говорим про вычисления) и реализации этого самого кода
не, у невидии щас много флопсов. Раньше GCN любил вычислительные шейдеры по той же причине - например, у RX 580 флопсов было практически как у 1070, а разница в производительности сильно отличалась не в пользу амд. Вот и щас посмотри:
3070@2050 = 20.5 Тфлопс
2080ти@2050 = 17.84 Тфлопс
Хотя на таких частотах карты как минимум равны, а чаще 2080ти и быстрее будет на полшишечки
Денойзер от NV работает на обычных ядрах если что :-D .Вот тут гитхаб их, найди хоть одну тензорную операцию
Spoiler
пусть будет так. И тем не менее, по какой причине не завозится деноизер для амд, остается лишь гадать. Неужели в тех же самых играх на консолях используется деноизер невидии? Ну это же невозможно
И ещё есть косвенный пруф.Вот данные самой же NV о рендеринге кадра в Metro Exodus
Spoiler
Image
Что это за огромный столб сразу после прохода RT ядер думаю сам поймешь
это старая версия метро, которая "RTX on". Там-то как раз и была задница у амд, 6900 и до 3070 не дотягивалась. В Метро ЕЕ лучи уже самими разработчиками завезены, а не с чемоданом прилетели
Ну и вдогонку.Денойзер Nvidia активно использует 32 битную математику с плавающей запятой и скалярные операции аля else или if
Spoiler
Image
AMD же в своём FidelityFX денойзере использует FP16 и векторную математику(i,d,x и > это оно и есть)
Spoiler
Image
про амд я знаю.
NV так напирает на F32 потому-что их амперы такое выполняют быстрее из-за добавления ещё одного массива из 16 FP32 ядер в SM
AMD так напирает на F16 потому-что их карты(помоему начиная с веги) выполняют разреженную математику с рейтом 2:1(то есть быстрее).
При этом кстати NV урезала в ампере рейт F16 и он выполняется с той же скоростью что и 32(1:1), видимо чтобы опять разграничить потребительские решения и "технические" A100 и подобные.
не то чтобы прям урезали, просто у них появилось много флопсов, которые дефакто в играх незадействованы в большинстве сценариев. Ну типа как вейвфронт 64 у GCN был, при котором архитектура никогда не загружалась в полной мере. Даже писали, что в максимально оптимизированных играх типа Doom архитектура трудилась лишь на 60-70%. Полное раскрытие только в проф. приложениях, где напор на паралеллизм. Полагаю, если очень грубо сказать, аналогичная ситуация сейчас и с амперами
Он у обоих фирм настолько же софтварный, насколько драйвер им это позволяет :-D .У обоих GPU шилдеры интерпретируют команды в машинный код и это делается аппаратно, на этом уровне никакого вмешательства быть не может т.к код на 0 и 1 не пишется
так да не так
Spoiler
Image
и невидия заложник ситуации, ибо если состоится полный переход на более эффективный (для низкоуровневых апи) шедулер, придется под новые карты переписывать дрова ВООБЩЕ ПОД ВСЕ ИГРЫ НА ДХ11, иначе проблемы амд в дх11 покажутся цветочками
От проекта всё зависит, им кэш в этом хорошо помогает а не драйвер :-D .Амд не просто так приводила вот этот график где в их IC на низких разрешениях попадение почти 100%
в любом проекте. Исключений я еще не видел. Даже на плохо масштабируемом GCN они были, а тут нету, и всё. Инфинити кеш вообше не совсем про псп. Он про решение проблем с высокой латентностью контроллера памяти на радеонах. В GCN это решалось снижением задержек, тайминги порой просто бешеный прирост из воздуха давали
Зачем заморачиваться с разгоном видеопамяти, если "псп и без того избыточна"? Сейчас убедитесь, что это далеко не так.
Пример игры, которая особенно любит пропускную способность видеопамяти(а таких в последнее время немало) - Strange Brigade.

1680/945 +сток тайминги ~412 Гб/с (по Oclmembench) - 68 фпс
Image

1680/945 +тайминги ~532 Гб/с - 74 фпс
Image

1680/1100 +тайминги ~532 Гб/с - 80 фпс
Image

1680/1108 Infinity Fabric 1107 ---> 1200мгц ~533 Гб/с - 81 фпс
Image

945(сток) ---> 1108(тайминги) = +19.1% производительности только лишь за счет разгона и настройки таймингов видеопамяти!
Spoiler
В тестах 3dmark Vantage Feature Tests есть один из 6 мини-тестов, под названием Color Fill. Он замеряет производительность блоков растеризации(ROP) у видеокарт. И большинство современных игр упираются именно на эти блоки(привет оптимизации под нвидиа). У карт амд архитектуры GCN производительность ROP сильно упирается в псп видеопамяти. Из нвидиа только у Fermi выявили подобную ситуацию, максвеллы 900 серии и кеплеры так к нам и не заглядывали, на максвелле 1 поколения - 750ти, также ботлнека не было. У всех паскалей, даже 1050ти с низкой псп, аналогично.

Выглядит это примерно так: прогоняем все 6 мини-тестов в 4 режимах:

1. сток чип/сток память
2. сток чип/разгон память
3. разгон чип/сток память
4. полный разгон

RX 470 4G

1). 1206|1650 (частоты чипа/видеопамяти)

134.8
24.7 - ROPs
161.4
149
146.7
325.2

2). 1206|2050(+24.2%)

134.9
28.48 (+15.3%)!!!!
159.73
151.8
159.7
325

3). 1350(+11.9%)|1650

153.1
25.6 (+3.6%)
179
164.7
154.9
380.3


4). 1350(+11.9%)|2050(+24.2%)

150.2
29.7 (+20.2%)
177.8
168.8
172.9
385.5
Закрыть

Как можно увидеть, при разгоне ядра на 12% при стоковой памяти производительность ROP почти не выросла(3.6%), то есть кукуруза. При разгоне памяти на 24% и стоковом ядре производительность ROP выросла аж на 15.3%. В полном же разгоне производительность ROP выросла аж на 20.2%, и это при разгоне ядра всего на 12%.
У нвидиа разгон видеопамяти дает приросты на уровне погрешности, стало быть, ботлнека нет, и разгон памяти не является острой необходимостью.

Что из этого вытекает:
1. Если не гнать видеопамять, то в некоторых играх, где упор именно в ROP, при разгоне ядра может случиться "кукуруза".
2. Если память хорошо погналась(особенно касается 470/570/вега56 с изначально заниженными частотами памяти), то можно получить прирост от разгона выше линейного.

Как раз мой случай: +12% ядро и +24% память с быстрыми таймингами дают 15-20% прироста производительности в играх. Гарантировано +15% прироста, ниже нигде не видел, и нередко +20%. Могло быть и больше, но экземпляр хреновый(память более-менее) - разгон 1350/2050. На 1450/2250 было бы еще интереснее.
Такие же замеры, но на RX Vega 64
Мы тут когда-то гоняли уже 3dmark Vantage Feature Tests. Так вот, у веги еще наиболее ярко выраженный ботлнек по псп видеопамяти, чем было на RX 474. Точную частоту не скажу, тот бенч 2-3 секунды идет, но верхний стейт выставлен 1750мгц, значит, выше 1750мгц скакнуть не должно. Ниже 1700мгц тоже врядли. Буду указывать 1700мгц:

Color Fill(производительность ROP) :

1700/945(сток тайминги) - 48.1
1700/1100(сток тайминги) - 54.1
1700/945(+тайминги) - 58
1700/1100(+тайминги) - 64.8 (+34.7%)

вот для этого и нужны разгон памяти и тайминги на картах архитектуры GCN. При разогнанном чипе это особенно бросается в глаза - производительность РОПов увеличилась на треть, то есть в играх, в которых Веге не хватает именно производительности РОПов, вполне может быть такой прирост производительности от одного лишь разгона видеопамяти. И я даже один раз наткнулся на такую игру, где производительность росла в линейной зависимости от увеличения производительности РОПов. Эта игра - Annabelle Curse, "очередная индюшатина на всеми любимом движке"
С каких это пор 6800 топ, если он обрезан от 6900хт на 25%, и еще почти на столько же по частоте?
6900XT и 3090 это уже супер топы и для гейминга такое покупать...ну если у тебя денег лишних много, по Fps per dollar такие карты дно так-то
А 6800 же конкурент 3080? Так Amd её позиционировало
Нет, разделение на Wave32 и 64(да, спутал.Не warp, а wave.Warp это у NV) произошло с RDNA, там оборудование под это было изменено
Spoiler
новые CU имеют два режима исполнения: Wave32 и Wave64, адаптированные для разных типов загрузок, а ширина блока SIMD была увеличена с 16 слотов (SIMD16) до 32 (SIMD32), так что размер вейвфронта теперь соответствует размеру SIMD. Это ключевое архитектурное изменение RDNA позволяет более эффективно загружать работой имеющиеся блоки SIMD. Если в GCN один Wave64 выполняется за четыре такта на SIMD16, то в случае RDNA один Wave32 исполняется за один же такт на одном SIMD32. А исполнение 64 потоков группируется как пара Wave32 и они исполняются на двух SIMD32.
в общем-то все верно. Но стоит ли упоминать, что при таком подходе резко падает способность к вычислениям? Гоняли мы бенчмарк OpenCL, и там вега64 вполне бодалась с 6800хт. Жипег не нашел, но у кого-то по-любому он завалялся, мы всей толпой гоняли
Лично я нигде не заявлял что амд не умеет их молотить, сейчас обсуждается как хорошо она это делает в сравнении(и соответственно как долго их карты проживут т.к РТ всё больше и больше в нашем гейминге и темпы не сбавляются)
подобная риторика была и про физикс, и про геймворкс, мол, за кеплерами будущее, амд быстро сдуется. В итоге R9 290 (8гб) еще и максвеллы пережила (4-гиговые), а на кеплерах уже с 2017 года не все игры даже запускаются (из-за отсутствия аппаратного дх12, как пример), и никакая тесселяция на дно Гаваи ее не утянула, никакой аппаратный физикс (ака хуанговский "RTX on") так и не стал неким стандартом, а лишь очередным маркетинговым ответвлением. Потому не нужно спешить делать такие прогнозы, повернуться все может ой как неожиданно, прецеденты ведь уже случались. Но ясно одно: никогда проприетарные решения не становились стандартом. (не надо HBAO и физикс приводить в пример, и то и другое разработано не нвидией)
Не ну так-то можно и зеркалочку сделать.В упоминаемом тут hairworks же тесселяция дикая применялась? Ну так...
показать, как это дело работало через год на гаваи, которая в тесселяции не блистала?
Spoiler
и это не заслуга дров, а сами поляки патчами дотянули. Как я уже выкладывал цитату из новости в предыдущем посте, разработчик игры имеет код к проприетарным технологиям невидии, но не дает лезть в него амд. Видимо, подобные контракты действуют сроком 1 год, ибо как-то резко амд взбодрилась в патчу 1.31, который как раз и вышел чуть более чем через год после релиза.
И нет, дело вовсе не в "Убогом геометрическом движке", а виновата только нвидия, дрова нвидии и все кто угодно, кроме amd
лол, как ты геометрию с тесселяцией увязал? За них отвечают разные блоки, на секундочку. Даже сейчас RDNA2 быстрее ампера в геометрии (наверное, впервые в истории), но в тесселяции все еще уступает.
А что делать когда без плашки RTX on Nv всё равно теряет меньше при включении RT? :-[
а это уже надо смотреть, как нвидиа вообще нагружена в игре.
С этого места поподробнее.Что за Quake 2 RT? По запросу в гугле выводит только RTX, есть сурс?
это у ultrafx или tsaMolotoff надо спрашивать, все мои ссылки умерли вместе с "диванной аналитикой" на оверах, когда ее снесли
Туринг подрос где? В этой же демке или в RTX где задействуются новые ядра? На твоём скриншоте я не вижу тьюринга в тестах
есть более свежие. Это так, первое что нашел. Туринг подрос от аппаратного ускорения, да. Именно в этой демке, о которой речь
Не совсем, лучи они и в африке лучи тогда, когда реализованы через одинаковый алгоритм(как сейчас с BVH и ускорением прохода через него).Что там в этой кваке было я не знаю ибо никогда не слышал
то есть если реализация не через метод, удобный для хуанга, то лучи уже не лучи, я правильно понял?
Открытие то какое, в рафинированной вычислительной нагрузке вычислительными же шейдерами AMD впереди, никогда такого не было :-D
Spoiler
Image
выходит, допустим к использованию только тот метод, в котором невидия быстрее амуде?
Самое топовое оно потому-что оттуда Legacy полностью выпилили
тем показательнее. Хорошая реализация (не без шероховатостей, но и не такое кривое говно, как киберпанк или даинг лайт)
Вот поэтому как я написал и не "спасает", обычным увеличением кэша заметно повысить производительность никогда было нельзя
минуточку, я хотел бы напомнить, что радеоны умудряются конкурировать на старой GDDR6 с 256-бит шиной против 384-бит и GDDR6X, разогнанной с завода до усрачки (потребление памяти больше 100 ватт это дичь, согласить), и это не показатель того, что может дать увеличение кеша? :pardon:
Будут пруфы хоть какие-то по этому поводу? С чего ты взял что у кэша не может быть своего тактового генератора? Ты это возможно с процессоров взял т.к у них реально так и работает, но видяха это как бы другое :-D
элементарно. Память 2000 vs 2150 мгц
Spoiler
Image
Image
Ну то есть ты не рассматриваешь вариант что денойзер был свой, но его переписали под AMD(НАПРИМЕР добавив туда ту самую векторную математику)?
интересно, почему такие вещи происходят только в играх с зеленым логотипом? С чего бы я должен рассматривать другие варианты? Я хорошо знаю, как ведет дела нвидия с изданиями, чего требует, что запрещает. И это ж насколько нужно быть наивным, чтобы полагать, что с игровыми разработчиками может буть иначе? :lol:
Вот кстати че нашел
Там 1440p если что, недогруз там идёт только если RT off и сжирает при этом 220 ватт
тем более. А с лучней и нагрузило карту, вот жор и вырос.
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Civil
Под амд вот именно надо оптимизировать, кажду игру только тогда тянет,а смысл это делать ради 2% владельцев rx 6000.
не, ты не понял. Под них никто не оптимизирует, и они даже так по губам возят хуангу в 2 из 3 разрешений. А когда не оптимизируют под невидию, случается беда у невидии, а не банальное отставание на 10%, как в случае с амд

Я не считаю ,что длсс везде уступает нативу

я тоже. В статике он неплох в некоторых играх. А в динамике везде отвратителен
Я на 4к телеке играю пока ты смотришь в свою фулл хд форточку на ютубе в 144p пытаясь найти изъяны длсс
у меня тоже 4К телик есть. А изъяно в и искать не приходится, они сами бросаются в глаза, если ты в них не долбишься, конечно
Паскаль это паксвелл , Ничего принципиально нового в архитектуре нет
хех, и почему до вас это доходит только когда становится поздно. Я ведь в 2016 об этом писал, как сейчас про лучи и дылысэсы, и реагировали точно так же. Только вот я всегда (или почти всегда) оказываюсь прав по истечении времени :haha:
Вега благодаря грайм шедулеруру всегда кукурузила в низких разрешениях
щито?
Если бы так было бы с одним алу нужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.Чем больше команд тем,больше шансов простоя некоторых allu.
хм, интеллект пробивается, или загуглил удачно?
Потому- что пересечения BVH-лучей RDNA2 выполняются с использованием универсальных вычислительных блоков , когда Ампер ограничен количеством ядер RT в простых сценах
щито? У ампера и гпу задействован, РТ-ядра лишь для дополнительного ускорения. И как показывает Титан вольть, не то чтобы столь большого ускорения, как многие думают, а что-то порядка +30-40%.

Это всем известно нвидиа мощнее в трассировке лучей

а где не мощнее, там злая амд занесла. Очень удобная тактика
RadeonForce
Posts: 6878
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by RadeonForce »

Maillog
Видимо RadeonForce этого не знает или тупо отрицает этот факт(что конкретно по голой вычислительной мощности RT ядра у NV тупо мощнее что с положительной стороны себя показывает как не крути, есть хоть одна игра или тест где от включения RT AMD теряла меньше чем NV? Обычно либо паритет либо AMD теряет больше даже в тайтлах которые AMD пиарит)
ну давай, покажи абсолютные данные о производительности Рт-ядер амд и невидии. Надеюсь, не прямиком со слайдов невидии?
Maillog
Posts: 85
Joined: 05 Jun 2022, 22:32
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Maillog »

но ведь и дрова под нее выходили, и за год дор этого теста тут тестили демку, и там было то же самое
И что это доказывает? Как там сейчас после патчей?
А вспомни WWZ
Я тут не вижу повального превосходства как в случае с сибирью где все зеленые карты выстроились в рядок будто фпс лок включили
Spoiler
Image
уе4 в той же степени запилен под жифорсы
Чем это подтверждается? Играми которые на нём идут лучше на NV? А как быть с теми, которые лучше идут на AMD с тем же движокм? В чём конкретно заточка движка то заключается?
отставание 6800хт от 3080ти всего 20%
Я тут все последние 15 страниц прошерстил и результатов 3080 или 3080ti не нашёл, видел сообщения но по видимому срок загрузки на ibb вышел и оно удалилось
Результатов нет-выводов делать я не могу
не, у невидии щас много флопсов.
Не одними флопсами едины :-D . То что у тебя больше флопсов не означает автоматически что вычислительные операции будут бустрее
у RX 580 флопсов было практически как у 1070, а разница в производительности сильно отличалась не в пользу амд
Это флопсы разные у разных архитектур, не в курсе что это ни о чём не говорит? :-D
не завозится деноизер для амд, остается лишь гадать
Чё значит не завозится? Не работает типо? У нас вон есть BF 5 и Metro обычное которые с РТ на амд работают, я думаю что там именно NV денойзер
Неужели в тех же самых играх на консолях используется деноизер невидии?
Есть лишь одна игра где можно сменить вручную реализацию денойзера с NV на самописный юбиков, WD legion.DF это тестировали, но мне лень искать ролик.Что в остальных играх не ясно, но судя по коду на гите им как бы ничего не мешает с NV денойзером работать, ничего такого там не применяется, обычные скалярные шейдеры
это старая версия метро, которая "RTX on"
Да я как бы не отрицаю, это сообщение было "пруфом" к тому что денойзер от NV работает на обычных ядрах
В Метро ЕЕ лучи уже самими разработчиками завезены
А в обычном эльфами с средиземья завозилось? :-D
которые дефакто в играх незадействованы в большинстве сценариев
Ты про x2 FP32? Ну как бы не совсем, если бы оно не давало большого буста, не видели бы мы RTX 3060 которая дышит в спину 2070
У второй и пропускная способность памяти выше и SM больше и кэша(только вот ядер меньше)...а всё-равно не спасает как-то, либо она снизу либо 3060 дышит в ухо
Да, конечно ты не всегда получишь ускорение F32, но это таки работает и работает куда лучше чем тупое наращивание GPC и TPC с соответствующим увеличением жора
вейвфронт 64 у GCN был
Нет, не было wave64 завезли на RDNA(сообщение моё под спойлером прочти(.GCN может с таким вейвфронтом работать, но профита не будет.И даже RDNA не всегда нагружается, таков удел всех векторных SIMD с "одна инструкция, большой вывод"
так да не так
CMDlist или DirectX driver command list это фича драйвера как бы, а не GPU.Об этом ещё интел писала в своих исследованиях.Вот кстати его наверное и завезли в том патче в котором RDNA 2 буст получили на DX11
Spoiler
Открывать с VPN, иначе сломается https://www.intel.com/content/www/us/en ... ering.html By checking the GPU driver support for Dire
ctX 11 multithreaded rendering features
Spoiler
Хотя даже с этим тестом, разработчики с Beyond3d форума говорят что это всё туфта и это "конечные результаты которые не охватывают процесса написания драйверов, по факту все драйвера поддерживают отложенный контекст т.к иначе игры с его поддержкой тупо бы не стартовали"https://forum.beyond3d.com/threads/amd- ... st-2188149
Я знаю из какого видео ты этот скрин взял, но даже тут враньё какое-то.У amd тут вон есть Global and warp шилдер типо(то есть глобальный который раздаёт команды на весь Gpu и более локальные которые уже вейвфронтами у AMD и варпами у NV отдаётся на исполнение SM и CU соответственно), а у NV типо просто драйвер :-D. Ну бред же полный от человека который схему GPU ни разу не открывал
У NV точно также есть глобальный шельдер(он на уровне Gigathread находится) и более локальный в виде варп шелдера который оперирует 32 командами за такт в самом SM(его показывают постоянно на схемах устройства SM от самой NV) В чём преймущество то в этом плане?
Это уже не говоря о том что в DX12 даже такого понятия как driver command list нет и проверить его поддержку на DX12 нельзя т.к оно не используется, как драйвер там на что-то влиять может если этого тупо нет?
ВООБЩЕ ПОД ВСЕ ИГРЫ НА ДХ11
Ну или просто отключить в драйвере запуск этого самого листа :-D
привет оптимизации под нвидиа
Каких оптимизаций? На AMD растеризация и работа с сэмплингом выполняется святым духом, а не ропами? :-D
Но стоит ли упоминать, что при таком подходе резко падает способность к вычислениям?
Как я понял ты про урезание управляющей логики да? Ну не удивлен что вега 64 может быть даже быстрее, она как не странно гибче из-за двойного CU в котором два шелдера в отличие от RDNA
Если уж в RDNA это урезали, значит посчитали что это не нужно для игр, по внутренним тестам видимо поняли что той степени параллелизма там нет
А способность к вычислениям...ну тем кому это реально надо пусть берут карты для этого :-D .У AMD это CDNA, у NV недавно вон Хоппер вышел, это обычное разделение рынка и очевидно что если всё разделить-бабла можно получить больше(таков капитализм)
подобная риторика была и про физикс
Сравнение хреновое т.к PhysX запускался через стороннюю библиотеку NV и только, нынешний RT работает через DirectX который пилится майками и Вулкан который пилится вообще всем миром по нитке
Ну и два-ретрейсинг это тупо будущее в отличие от физикса который тупо делал красивее, а не координально менял правила игры как это происходит с РТ
из-за отсутствия аппаратного дх12, как пример
Какие игры в 17 году требовали поддержки именно FL 12.0 и отказывались запускаться если её не было?
У массовых GCN(500,400) уровень поддержки DX12-12.0, а не 12.1
Я конечно не на что не намекаю :-D , но мне кажется нынешние максвеллы и паскали запускать игры будут на куда более дальней дистанции.Если конечно не будет резкого скачка в новых картах в РТ, что от обычного рендера тупо все откажутся ибо не будет актуальным
никакая тесселяция на дно Гаваи ее не утянула
Тесселяция не игру запускать мешает, а fps душит, немного разные вещи
никакой аппаратный физикс (ака хуанговский "RTX on") так и не стал неким стандартом
Чё значит не стал лол? Он ушёл на опенсорс(что автоматом означает что какие-то наработки оттуда могут использоваться сейчас где угодно, в какой угодно игре) и по умолчанию сейчас на CPU вообще работает
А "Хуанговский" RTX ничего кроме денойзера как бы не имеет, при этом этот денойзер и на АМД запускается, просто медленнее
не надо HBAO и физикс приводить в пример, и то и другое разработано не нвидией
Хорошо, кто HBAO и HBAO+ разработал? :-D А физиксом раньше Agea занималась которая хотела продавать свои ускорялки для него, код то был переписан под NV GPU, это типо за разработку не считается?
никогда проприетарные решения не становились стандартом
В жизни или конкретно в игровой индустрии? У нас как бы DirectX проприетарен, а это де факто стандарт.Если в жизни, то в видеокодирование например окунись, h264, h265 это проприетарные стандарты за которые бабло нужно было платить если что, а используется h264 сколько там уже лет? За десяток уже перевалило
показать, как это дело работало через год на гаваи, которая в тесселяции не блистала?
Я как бы не просто так ограничитель в драйвере на AMD упомянул, что тут с ним? Падние я вижу на 20fps от включения, что они там оптимизировали то если по этим например тестам оно также проседает на 20 кадров? Патч 1.31 вышел в 2017 году если что, а видео 15 года
Spoiler
лол, как ты геометрию с тесселяцией увязал?
У AMD её Geometry engine выполняет если что, так и перевел "геометрический движок"
Spoiler
Image
Spoiler
Image
За них отвечают разные блоки, на секундочку
Да кто отрицает то? Я прекрасно понимаю что под "Geometry Engine" у AMD скрывается не один нищий ALU

По поводу Q2RT-нет ссылок, не вижу смысла что-то обсуждать, я сам посмотреть что там было и как оно было реализовано не могу
то есть если реализация не через метод, удобный для хуанга
Что значит удобный для хуанга? Ускорение через BVH это удобный для всех метод включая AMD :-D .Его практикуют ещё с зари применения RT когда ни о каком аппаратном ускорении отдельными ядрами речи не шло
допустим к использованию только тот метод, в котором невидия быстрее амуде?
Трассировка через BVH это не какой-то проприетарный метод :-D .Софтверная же трассировка это мусор по умолчанию ибо столько лучей отрендерить в реальном времени тупо сложно и потребуется наращивание огромного массива ALU
Поэтому и NV и AMD и Intel пошли по пути отдельных блоков
тем показательнее
Теперь ты понял почему сравнивать игры с гибридной реализацией и полной тупо? :-D .Я ведь не просто так это всё выше про пузыри писал
минуточку, я хотел бы напомнить, что радеоны умудряются конкурировать
Конкурировать где? В растре? Я на тему превосходства в растре вообще спорить не хочу т.к потеряется нить диалога и не с этого начали, но даже в нём с чего ты взял что при растре ВСЕГДА упор в скорость Vram и что NV именно на этом должна выезжать в нём?
Вопрос если что риторический, отвечать на выпады по этой теме я больше не буду, разговор не об этом
элементарно
Poclmem судя по тому что на гитхабе скорость Vram считает, а не кэша :-D .Скорость кэша ты никак не можешь узнать(именно в гигабайтах,мегабайтах), никакими средствами профайлинга оно не отслеживается
интересно, почему такие вещи происходят только в играх с зеленым логотипом?
А как же Godfall в котором РТ тупо не работал на NV до определенного момента? :-D
Стрелочка не поворачивается или как?
что с игровыми разработчиками может буть иначе?
Потому-что геймдев по другому функционирует не?
А с лучней и нагрузило карту, вот жор и вырос.
Ну так а где падение то на 20%? Без RT карта жрёт 220 с недогрузом, с RT 250 в среднем(то есть свой потолок как у референса насколько я понял)
20% от 250 это 50, то есть с RT если там так сильно падает жор оно должно есть даже меньше чем без него :-D , а такого не происходит
ну давай, покажи абсолютные данные о производительности Рт-ядер амд и невидии
Абсолютные данные вычисляются в идеальных условиях когда будут работать только RT ядра.Если хочешь узнать какая максимально возможная мощность конкретно RT ядер с минимальным влиянием растра, то варианты я уже предложил
1.3dmark directX Full Path tracing test
2.Выше моё сообщение со скомпелированным DirectX raytracing features sample, подробно расписывать в этом сообщении не буду, проверяй то что выше было
3.Quake RTX.Если так ненавидишь денойзер NV и считаешь что он садит, его вырубить можно.Проприетарной реализации RT там нет с патчем 1.6 кажется, VK_NV_ray_tracing оттуда выпилили и остались VK_KHR_ray_tracing_pipeline и VK_KHR_ray_query упрекнуть которые в том что их NV писала под себя может только идиот, там куча авторов не с NV
Spoiler
Правда в двух последних случаях придётся найти кого-нибудь с 3080 чтобы сравнить :-D
Last edited by Maillog on 07 Jun 2022, 23:39, edited 1 time in total.
User avatar
Zmey
Posts: 1403
Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи

Post by Zmey »

RadeonForce wrote: 07 Jun 2022, 15:29 что тут интел забыл? Уже давно это не так. Тут интересно другое: сколько выходило игр, подстроенных под амд - у зеленых фиаско. Игры, подстроенные под нвидиа - так амд там пободаться еще может. В этом разница - чуть разрабы отойдут от методички, у зеленых сразу же неприятности. Амд же более универсальны (касается растеризации, разумеется)

Всё то же. Иногда забывают оптимизировать под амд.
https://3dnews.ru/990421/destiny-2-ne-r ... pravleniem
Ты носишься с какими то левыми примерами, выдавая это за какое то вымышленное "фиаско" зелёных :-D
В играх, где амд занесла чемоданы, там как раз зелёные могут вполне бодаться с амд. Яркий пример, где я тебя уделал: покрасневшая Вальгалла, так же Фаркрай 6. Не смотря на красноту последних 2х игр, мне удалось вырваться вперёд.
Зато у тебя не единого шанса показать адекватный фпс в Киберпанке или в Стражах Галактики, именно зелёные более универсальные в плане любых игр, а вот у амд периодические провалы.

Post Reply