Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Подобное елышал и про геймворксы, мол, "вом же предоставляется набор инструментов с заранее скомпилированными библиотеками", только вот архитектуры сильно разные, и это работает коряво, если не влезть в код.
В деноизере в том числе и дело. В Ларке завезли новый деноизер, и расклады перевернулись в другую сторону, кстати говоря
не, ну я не запрещаю верить в мощь и потанцевал. Только вот появляются вопросы, когда при включении лучей энергопотребление падает на 20%, в то время как должно настолько же увеличиваться. У жифорса все при этом нормально. И это в каждой игре, где есть "RTX on".А вот например в Control ничего подобного нет, там всё самописное и никакой ссылки на закрытые библиотеки NV там нет.Это взято из книги Raytracing Gems II в котором графический инженер описывал как оно у них устроено и как рендерится(и я почему-то уверен что в 99% нынешних RT тайтлов также .Кроме разве что совсем уж ранних проектов аля Metro E или BF5
Ровно так же вел себя gameworks. И причины тоже поначалу всеми силами отрицали, пока не случился скандал с чем-то типа project cars
так в ларе как раз самый шлачный РТ. Радиус затенения ужасный, и профит околонулевойНет, я про то что они рендерятся в 1/4 от натива и ещё не на всех поверхностях.А RT тени там просто шлак, сравнивать с той же ларой например смысла не вижу
не знаю, когда добавили. Настолько я не слежу. Прошел ее до конца этой веснойКак бы ролик с титрами я взял с ютуба, где там логотип? С патчем добавили?
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Не знаю что ты там слышал про геймворксы, обсуждается не он.Факт в том что всё делается через общедоступные api и о какой "заточке" рт идёт речь я не знаюПодобное елышал и про геймворксы
А можно тесты? Не видел с новым патчем. Ты же про тот где ещё DLSS 2 завезли?В Ларке завезли новый деноизер, и расклады перевернулись в другую сторону
Я может очевидную вещь скажу, но GPU не совершенен и затупы с "пузырями" есть всегда .У тебя энергопотребление могло упасть т.к упор в те самые RT ядра которые просто не успевают за остальными ALU, вот и весь разговор.А сами эти ядра много то не жрут, у них площать на кристалле минимальная т.к это Mimd заточенный на строго одну операцию, да и не много их там даже в таких монстрах как 3090 или 6900 по сравнению с основным массивом aluТолько вот появляются вопросы, когда при включении лучей энергопотребление падает на 20%, в то время как должно настолько же увеличиваться
В Gameworks входит целая кипа эффектов, и на AMD они тупо не работали, игра либо скрывала эти опции либо не давала возможности их включить .Поэтому нет, не так жеРовно так же вел себя gameworks
Если же копнуть глубже, то по маркетинговым соображениям не работал TXAA и PCSS тени, HFTS не работали тупо потому-что amdшные полярисы(до веги) не поддерживают консервативный растр который используется в HFTS
Ещё HBAO есть, его раньше блочили но потом таки дали возможность включать всем(как он там кстати сейчас? Проприетарная разработка Nv вроде как, роняет радеоны на колени или нет? )
Это когда разрабы забили на проблему Physx и то что он нормально с AMD картами не работает?(процессор всё ускоряет вместо GPU).Ну что можно сказать, недальновидность в деле .Им может быть хотелось чтобы в игре были красивые частицы, но самому что-то пилить нет, вот и использовали самое доступное.В любом случае эти времена давно ушлипока не случился скандал с чем-то типа project cars
Это конечно никак не оправдывает то, что PhysX тогда был максимально проприетарен и GPU ускорение только на NV работало
По поводу жора кстати вот превый же тест c "чемоданным RTX on" по твоему утверждениюэнергопотребление падает на 20%
Spoiler
Вот на Nv кстати, тоже жесткого роста потребления не вижу
Spoiler
Играл с последним патчем и никакого ужасного радиуса затенения с околонулевым профитом не видел.С RT в ларе у теней нет никакой блочности и они становятся контактными(что вообще мелочь, но как же часто про неё разрабы забывают).А радиус там хреновый на параметре высоко, на ультре он заметно дальше и я прогрузок не виделРадиус затенения ужасный, и профит околонулевой
Факт просто в том что в ларе и рифтрбрейкере тени заметно лучшего качества чем в FC6 в котором они реально перед носом прорисовываются, не знаю как оно рендерится,Ubi насчёт них не говорили но смутные сомнения одолевают конечно
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Да да, дх11 тоже открытый api, ага. Только геймворксам это не мешало быть закрытыми
Зайди на мой канал (видео выше с него) и ищи последний тест Ларки на 6800хтА можно тесты? Не видел с новым патчем. Ты же про тот где ещё DLSS 2 завезли?
В метро тяжелые лучи, и жор огого при их включении. Не, не аргументЯ может очевидную вещь скажу, но GPU не совершенен и затупы с "пузырями" есть всегда .У тебя энергопотребление могло упасть т.к упор в те самые RT ядра которые просто не успевают за остальными ALU, вот и весь разговор.А сами эти ядра много то не жрут, у них площать на кристалле минимальная т.к это Mimd заточенный на строго одну операцию, да и не много их там даже в таких монстрах как 3090 или 6900 по сравнению с основным массивом alu
[
Ты хоть знаешь, что такое консервативная растеризация?Gameworks это целая кипа эффектов, и на AMD они тупо не работали, игра либо скрывала эти опции либо не давала возможности их включить .
Если же копнуть глубже, то по маркетинговым соображениям не работал TXAA и PCSS тени, HFTS не работали тупо потому-что amdшные полярисы(до веги) не поддерживают консервативный растр который используется в HFTS
Ещё HBAO есть, его раньше блочили но потом таки дали возможность включать всем(как он там кстати сейчас? Проприетарная разработка Nv вроде как, роняет радеоны на колени или нет? )
Это когда хуанг использовал cuda-шейдеры, при этом закрыв исходный код к скомпилированным библиотекам. То есть сделал всю игру проприетарной. Физикс это еще детский садЭто когда разрабы забили на проблему Physx и то что он нормально с AMD картами не работает?(процессор всё ускоряет вместо GPU).Ну что можно сказать, недальновидность в деле .Им может быть хотелось чтобы в игре были красивые частицы, но самому что-то пилить нет, вот и использовали самое доступное.В любом случае эти времена давно ушли
Это конечно никак не оправдывает то, что PhysX тогда был максимально проприетарен и GPU ускорение только на AMD работало
Конечно, ведь видя логотип RTX, амд сразу разучивается писать дрова, и все дело в кривых дровах, ага.По поводу жора кстати вот превый же тест c "чемоданным RTX on" по твоему утверждениюПомоему оно как жрало 215 с гаком ватт так и жрёт, что не так? Назови точно игры в которых у тебя такое было, может реально дело в дровах?Spoiler
А у радеона он проседает. Лихо, да? Везде растет, а в хуангоиграх проседает. Да стопудово кривые дрова, а не проприетарщина (нет)Вот на Nv кстати, тоже жесткого роста потребления не вижуSpoiler
рифт вроде красная игра, а ты похвалил лучи в ней. Ты точно не treexИграл с последним патчем и никакого ужасного радиуса затенения с околонулевым профитом не видел.С RT в ларе у теней нет никакой блочности и они становятся контактными(что вообще мелочь, но как же часто про неё разрабы забывают).А радиус там хреновый на параметре высоко, на ультре он заметно дальше и я прогрузок не видел
Факт просто в том что в ларе и рифтрбрейкере тени заметно лучшего качества чем в FC6 в котором они реально перед носом прорисовываются, не знаю как оно рендерится,Ubi насчёт них не говорили но смутные сомнения одолевают конечно
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
iтоже открытый ap
Ну как бы нет .Общедоступный не значит открытый
Исходников DirectX у нас нет, они только у майков.Использовать этот апи майки предлагают через свой sdk и шейдерный код на высокоуровневом HLSL, как оно устроено под капотом более детально известно только им
Геймворкс тут вообще никаким боком, это сторонняя библиотека к DX не имеющая прямо никакого отношенияТолько геймворксам это не мешало быть закрытыми
Зануда mode onВ метро тяжелые лучи, и жор огого при их включении. Не, не аргумент
Давай начнем с того что 70% рендера кадра в играх сейчас это освещение.
Spoiler
Для примера вот общее время рендера кадра Deus Ex Human revolution.SSAO, теневая карта, лайтмапы занимают значительно времени.В новых играх будет еще больше т.к добавится еще и BRDF, другие gi растеризационные техники.Fxaa так много ест потому-что он вкупе с Msaa применяется, современный TAA жрет копейки
А это меньше нагрузка на обычные alu, а нагрузка на обычные alu это постоянные обращения в кэш и "отбирание" у планировщика тактов для работы которые можно отдать другим блокам включая RT
Поэтому да, аргумент:-D
Control даже со всеми RT эффектами использует кучу legacy, например даже при активации RT теней, теневая карта все равно генерируется, RT лишь борется с "питерпенингом" и блочностью "дополняя" обычные тени.Тоже самое там с GI, пробы освещения и фейковые лампочки(которые как бы тоже жрут время кадра, игра на отложенном рендере построена) никуда не деваются, единственный RT эффект в контроле который на 99% заменяет старый растр-это отражения
И то, даже с ним в игре все равно выполняется трассировка лучей по конусу(это растровый метод) для шероховатых поверхностей
Итого:Control не смотря на Rt эффекты имеет кучу растровых костылей которые Rt не устраняет, то есть нагрузка на обычные alu там тупо выше
Metro EE:самая прожорливая часть рендера в лице освешения на 90% переведена на полный рт рендер с удалением лайтмап, shadow volumes(такая особая gi техника), фейковых источников и много, много всего.Нагрузка на alu там ниже.Трассировка то там прожорлива, но удаление legacy мусора можно сказать компенсирует потерю. Рт ядра тупо больше работы получают т.к нет голоданий по кэшу и тактам
Да,знаю.Это когда все(это важно) пиксели перекрытые примитивом заполняются, то есть закрашивается даже если перекрытие там минимальное.Обычно такое для отладки отбрасывания невидимых триугольников используют, но HFTS оно надо для пущей точности, иначе артефакты получишь, прочитать вот тут можноТы хоть знаешь что такое
Да, нашел.По сравнению с результатами до апдейта найденными в инете производительность рт сильно апнули на амд(только кто сказал что там денойзер заменили? С чего ты взял что он с самого начала там был проприетарным), но мы тут потерю сравниваемпоследний тест Ларки на 6800хт
Ролика с отключением и замерами на новом патче я не нашел, поэтому спрошу так.Сколько она теряет то в цифрах?
О каких куда шейдерах речь? Куда это закрытый api создававшийся не для игр и в играх не использующийся(его даже подключить никак нельзя).Конкретно физикс и сейчас Dlss используют куда вызовы(то есть проприетарные вызовы которые нужны драйверу), но это вызовы для драйвера которые ему нужны чтобы он понимал что гпу сейчас выполняет, при этом вызываются они без всякого cuda sdk.Графические шейдеры же на языке куды вообще писать нельзя, это тебе не Hlsl, там синтаксис другойЭто когда хуанг использовал cuda-шейдеры
Можно тогда конкретный пруф скинуть по этому поводу? Я по запросу project cars scandal находил только посты на реддите с жалобой на физикс и его работу на цпу(писал про это уже)
Так а где проседы то? Она как потребляля 215,так и потребляет.Тоже самое с этой 3060А у радеона он проседает
У тебя на канале я нашел только один тест контрола с rt, но в нем ты его не выключал и проследить как там растет потребление я не могу
Игр с РТ тенями мало, а хочется больше .рифт вроде красная игра, а ты похвалил лучи в ней
Spoiler
Жаль что игра не зашла, я хоть какого-то сюжета ожидал, а получил по факту песочницу в которой заняться нечем кроме отстрела жуков
Last edited by Maillog on 07 Jun 2022, 10:28, edited 1 time in total.
- ghostwraith
- Posts: 836
- Joined: 12 Mar 2021, 21:40
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
ага, проверенные 16 гб хюникс
AMD 5900x 5.050 MHz PBO -21 AllCore,32DDR4-3733 CL14-14-14-28
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
- ghostwraith
- Posts: 836
- Joined: 12 Mar 2021, 21:40
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика. Так что не велика потеря. Зато не менял карту 3 раза А ты каждое поколение меняешь обрубок на обрубок? Потому что начинает не хватать памяти?Dukenukem wrote: ↑06 Jun 2022, 18:20 Дата выхода 7 февраля 2019 игры были как видишь ты пытался взять про запас и так не играл на ней (особого интереса нет играть в игры без трассировки),так и не майнил,да и играть некомфортно зная,что в однопотоке core i3 12100f быстрее твоего недоразумения и по фпс примерно равен
AMD 5900x 5.050 MHz PBO -21 AllCore,32DDR4-3733 CL14-14-14-28
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Не менял карту как видишь твое старье не может запустить новое метро эксодус с улусшенной трассировкой.ghostwraith wrote: ↑07 Jun 2022, 02:51играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика. Так что не велика потеря. Зато не менял карту 3 раза А ты каждое поколение меняешь обрубок на обрубок? Потому что начинает не хватать памяти?Dukenukem wrote: ↑06 Jun 2022, 18:20 Дата выхода 7 февраля 2019 игры были как видишь ты пытался взять про запас и так не играл на ней (особого интереса нет играть в игры без трассировки),так и не майнил,да и играть некомфортно зная,что в однопотоке core i3 12100f быстрее твоего недоразумения и по фпс примерно равен
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика Бедненький не смог купить карту rtx , аж начал с гусем одну и ту же байку про видеопамять рассказывать друг другу.
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
удобно, правда? А теперь замени слово DirectX на Gameworks или RTX. Ну как, складненько выходит?
ну вообще не аргумент. Хотя бы потому, что именно растеризация - сильная часть RDNA2, а тут внезапно ее разгрузили и амд стала быстрее?Давай начнем с того что 70% рендера кадра в играх сейчас это освещение.в Metro EE выпилили весь растровый его рендер(который там был достаточно тяжел) оставив лишь тени, то есть освободили кучу памяти и удалили такую же кучу старого шейдерного кодаSpoiler
Для примера вот общее время рендера кадра Deus Ex Human revolution.SSAO, теневая карта, лайтмапы занимают значительно времени.В новых играх будет еще больше т.к добавится еще и пбр, другие gi растеризационные техники.Fxaa так много ест потому-что он вкупе с Msaa применяется, современный TAA жрет копейки
А это меньше нагрузка на обычные alu, а нагрузка на обычные alu это постоянные обращения в кэш и "отбирание" у планировщика тактов для работы которые можно отдать другим блокам включая RT
Поэтому аргумент был бы не плох, но мимо
в Контроле только отражения что-то и делают. Остальное - незначительноControl даже со всеми RT эффектами использует кучу legacy, например даже при активации RT теней, теневая карта все равно генерируется, RT лишь борется с "питерпенингом" и блочностью "дополняя" обычные тени.Тоже самое там с GI, пробы освещения и фейковые лампочки(которые как бы тоже жрут время кадра, игра на отложенном рендере построена) никуда не деваются, единственный RT эффект в контроле который на 99% заменяет старый растр-это отражения
то есть, SSR?И то, даже с ним в игре все равно выполняется трассировка лучей по конусу(это растровый метод) для шероховатых поверхностей
если выглядит неплохо, то почему бы и нет? Экономия ресурсов всегда важна. Нам же не нужен еще один киберпанк или дайн лайт 2, где даже в 1080р никто не гарантирует 60 фпс.Итого:Control не смотря на Rt эффекты имеет кучу растровых костылей которые Rt не устраняет, то есть нагрузка на обычные alu там тупо выше
то есть, исходя из того, что "РТ-ядра тупо больше работы получают" следует, что амд таки умеет в тяжелую трассировку?Metro EE:самая прожорливая часть рендера в лице освешения на 90% переведена на полный рт рендер с удалением лайтмап, shadow volumes(это такая особая gi техника), фейковых источников и много, много всего.Нагрузка на alu там ниже.Трассировка то там прожорлива, но рт ядра тупо больше работы получают т.к нет голоданий по кэшу и тактам
Кстати о голоданиях по кешу - фигня это все на деле, ибо если был бы жесткий упор в псп, то ее разгон давал бы заметный профит. Но в играх с "RTX on" разгон видеопамяти не дает ничего от слова совсем. Там проблемка в другом, не в видеопамяти
с того, что патч был именно с новым деноизером, это было указано в аннотациях. И фпс тогда вырос на 20%, если память не изменяетДа, нашел.По сравнению с результатами до апдейта найденными в инете производительность рт сильно апнули на амд(только кто сказал что там денойзер заменили?
а какой же он еще мог быть в игре, которая вышла до рклиза RDNA2?С чего ты взял что он с самого начала там был проприетарным), но мы тут потерю сравниваем
Ролика с отключением и замерами на новом патче я не нашел, поэтому спрошу так.Сколько она теряет то в цифрах?
накладно искать с телефона, это обсасывалось на реддитах. Примерно в том же контексте, что и реализация FSR в Даин Лайт 2 (но тут не удивительно, ведь там паршивейшим образом реализован дылысэс, потому и фср зашакалили, а подеры потом по губам полякам навозили, реализовав как надо). Но в карсах физика-то отрубалась, а производительность все равно была R9 290х=gtx760. Если освежить память, то это примерно то же самое, что 6900хт = 3060О каких куда шейдерах речь? Куда это закрытый api создававшийся не для игр и в играх не использующийся(его даже подключить никак нельзя).Конкретно физикс и сейчас Dlss используют куда вызовы(то есть проприетарные вызовы которые нужны драйверу), но это вызовы для драйвера которые ему нужны чтобы он понимал что гпу сейчас выполняет, при этом вызываются они без всякого cuda sdk.Графические шейдеры же на языке куды вообще писать нельзя, это тебе не Hlsl, там синтаксис другой
Можно тогда конкретный пруф скинуть по этому поводу? Я по запросу project cars scandal находил только посты на реддите с жалобой на физикс и его работу на цпу(писал про это уже)
в Контроле дела не так плохо, там не проседает. А вот в спарже галактики прям минус 20%, и результат ниже, чем 3070Так а где проседы то? Она как потребляля 215,так и потребляет.Тоже самое с этой 3060
У тебя на канале я нашел только один тест контрола с rt, но в нем ты его не выключал и проследить как там растет потребление я не могу
как по мне, это самое бесполезное из того, что есть в лучах.Игр с РТ тенями мало, а хочется больше .
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Говорят же тебе ,что планировщик у амд запутался.Сильная сторона растеризация уровень 3080 +-RadeonForce wrote: ну вообще не аргумент. Хотя бы потому, что именно растеризация - сильная часть RDNA2, а тут внезапно ее разгрузили и амд стала быстрее?
Относительно могутRadeonForce wrote: то есть, исходя из того, что "РТ-ядра тупо больше работы получают" следует, что амд таки умеет в тяжелую трассировку?
В старжах галактики серьезная нагрузка,поэтому амд сразу пасуетRadeonForce wrote: в Контроле дела не так плохо, там не проседает. А вот в спарже галактики прям минус 20%, и результат ниже, чем 3070
как по мне, это самое бесполезное из того, что есть в лучах.
Мне тоже нравятся ртх тени.
- ghostwraith
- Posts: 836
- Joined: 12 Mar 2021, 21:40
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
конечно бедненький, не изобрели в тот момент А потом оверпрайс за дешевку и за бетатестера не захотел покупать.Dukenukem wrote: ↑07 Jun 2022, 05:35 Не менял карту как видишь твое старье не может запустить новое метро эксодус с улусшенной трассировкой.
играю без них, и проблем нет никаких, отражения без лучей лучше, как показывает практика Бедненький не смог купить карту rtx , аж начал с гусем одну и ту же байку про видеопамять рассказывать друг другу.
AMD 5900x 5.050 MHz PBO -21 AllCore,32DDR4-3733 CL14-14-14-28
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
Radeon VII 2125Mhz 1221mV Zima, Radeon VII 2099Mhz 1218mV Leto, Bench...
https://sysprofile.ru/p/1/ghostwraith
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
ты что-то путаешь, ведь именно у амд он аппаратный, а у нвидии - софтовые костыли. Последнее служило козырем в дх11, но в дх12/вулкане утягивает вниз
никитос, да из твоих уст это же звучит как "амд победило"Относительно могут
где она там серьезная, 100 фпс в 4К без хуанголучей А лучня там всяко слабее, чем в МетроВ старжах галактики серьезная нагрузка,поэтому амд сразу пасует
тебе нравится само слово rtx. Думаю, даже "какашка rtx" будет самым красивым из того, что ты в своей не так давно начавшейся жизни виделМне тоже нравятся ртх тени.
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Нвидиа постепенно решают проблему плюс стараются ребята с интела с их передовыми альдер лейками.RadeonForce wrote: ты что-то путаешь, ведь именно у амд он аппаратный, а у нвидии - софтовые костыли. Последнее служило козырем в дх11, но в дх12/вулкане утягивает вниз
В чем то в трассировке 2000 серию нвидиаRadeonForce wrote:никитос, да из твоих уст это же звучит как "амд победило"
Я и имел ввиду с трассировкой без длсс в 4к не поиграешь= на амд не поиграешь в 4к с трассировкойRadeonForce wrote:где она там серьезная, 100 фпс в 4К без хуанголучей А лучня там всяко слабее, чем в Метро
Молодой пацан на,всё заработал сам.RadeonForce wrote:тебе нравится само слово rtx. Думаю, даже "какашка rtx" будет самым красивым из того, что ты в своей не так давно начавшейся жизни видел
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Civil wrote: ↑07 Jun 2022, 13:09RadeonForce wrote: Молодой пацан на,всё заработал сам.
Главное не пытаться показать, что ты лучше, чем на самом деле.
Заработал на 3070, выбрал ее по субъективным причинам.
И ложить на мнение кукаретиков.
Спокойно с dlss можно отлично поиграть, + много игр с поддержкой rtx-лучей.
Большинство игроделов подстраиваются именно под сине-зелень, так зачем выборочно страдать и брать то что тебе не надо ...
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Zmey wrote: ↑07 Jun 2022, 13:30Какая 3070 зачем мне этот 8 гиговый огрызок, это гусь не может смирится ,что у меня карта мощнее 3080 ти,могу скрин скинуть,но чуть позже сейчас отдыхаю с элитной эскортницей.Civil wrote: ↑07 Jun 2022, 13:09RadeonForce wrote: Молодой пацан на,всё заработал сам.
Главное не пытаться показать, что ты лучше, чем на самом деле.
Заработал на 3070, выбрал ее по субъективным причинам.
И ложить на мнение кукаретиков.
Спокойно с dlss можно отлично поиграть, + много игр с поддержкой rtx-лучей.
Большинство игроделов подстраиваются именно под сине-зелень, так зачем выборочно страдать и брать то что тебе не надо ...
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Очередная неверная интерпретация, планировщик то тут причём? Он аппаратный во всех GPU и не он виновен в пузырях конвеера которые возникают всегда пока у нас есть вся эта система с кучей кешей, разными ядрами которых ещё и много и кучей типов комманд и чисел.Простоев и не использования не будет только если у тебя в устройстве будет ОДИН ALU, ОДИН планировщик(называйте как угодно, устройство интерпретирующее команды в машинный код) который будет подавать на исполнение только ОДНУ команду твёрдо зная что этот один ALU выполнит её за N времениГоворят же тебе ,что планировщик у амд запутался.
Нет, не выходит.Gameworks либы от DirectX зависят и подключая его к движку можно добавлять шейдерный код этого самого геймворксаНу как, складненько выходит?
Ну может потому-что надо полностью текст читать, а не наискось? Речь шла о пузырях в конвеере GPU которых в Metro EE тупо меньше т.к костылей нет, перечитай ту стену текста ещё раз и вникниа тут внезапно ее разгрузили и амд стала быстрее?
Чистый субъектевизм. Мне вот значительно, дальше что?Остальное - незначительно
Не SSR, SSR с G-буффером работает в основном и страдает от потери информации в кадре, трассировка по вершинам лишена таких недостатковто есть, SSR?
Открыл ещё раз GPU gems и нашёл точное название "Voxel cone scene distant field reflections".То есть да, трассировка по вокселям по сути, конусами называют группу лучей(поэтому и трассировка по конусам, то есть луч бьёт не по одному пикскелю проверяя пересечение, а бьёт целой группой лучей по этому вокселю чтобы найти где было пересечение.Минус очевиден-чем меньше эта группа лучей, там хуже)
Тут сейчас помоему производительность AMD в RT обсуждается, а не то что надо применять или не надоесли выглядит неплохо, то почему бы и нет?
в 1080р никто не гарантирует 60 фпс.
Spoiler
Ну во первых на топах там с RT таки есть 60, ну и про скейлинг не забываем
Опять же, читай то что выше я написал внимательней.Трассировка может и тяжелая сама по себе, но ядра больше "дышат" вот и всё, а по поводу того насколько она тяжелая...ну даже в Metro EE разрабы применили "оптимизации", например при заходе в помещение явно видно как RT обновляется в реальном времени(видимо отсечение работает или хз), то есть даже так, с выпилом всего legacy пришлось немного резатьисходя из того, что "РТ-ядра тупо больше работы получают" следует, что амд таки умеет в тяжелую трассировку?
Причём тут упор в псп если речь идёт о кэше? Упор в пропускную способность конкретно Vram у Gpu будет по видимому всегда ибо кэши значительно быстрее, NV и AMD в разных поколениях попытались хоть как-то устранить этот дисбаланс двумя разными путями со своими подводными камнями.А твой разгон памяти даёт ровно нихера в в данном контексте и сокращает разрыв с кэшем...ну на 1% или может быть 2 поэтому и не повлияетжесткий упор в псп
Кэш в GPU это L2,L1,L0 и т.д, то есть то что находится на самом кристалле и общается напрямую с ядрами
Предвижу сообщение "А в RDNA 2 много кэша, так чё оно работает?".Да, работает но явно не "спасает" при трассеровке.BVH структура весит куда больше чем 128мб(или сколько там в топе у Amd их L3)
Мы не знаем зависит ли скорость работы кэша от разгона Vram или частоты ядер, это всё догадкиразгон
Ну а мне разгон видеопамяти в Control давал пару лишних fps с RTразгон видеопамяти не дает ничего от слова совсем
Патч был именно с новым деноизером
Ок, есть пруфы что там изначально был RTX денойзер или что они не заменили старый RT денойзер на новый?New improved shadow denoiser for use with ray traced shadows.
Денойзер как бы работает на обычном HLSL коде, а не благославленном хуангом.Проприетарный от NV оптимизирован под их x2 FP32 и на AMD поэтому работает похуже, ничего сверхординарного тут нета какой же он еще мог быть в игре, которая вышла до рклиза RDNA2?
В любом случае, ты думаешь о релизе нового GPU геймдеверы не знают за N до релиза?
Ля, раньше было про все RTX on игры, теперь только стражи .Ну ок, вот результатыА вот в спарже галактики прям минус 20%
Spoiler
Если что на 3:02 он опять заходит в комнату где до этого RT был выключен
Last edited by Maillog on 07 Jun 2022, 15:25, edited 13 times in total.
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Кстати кому интересно, скомпилировал сэмпл D3D12 Raytracing Procedural Geometry
Это тот самый, в котором тестили трассировку на RDNA 2 до выхода и там она заметно уступала Если хотите можете потестить как дело сейчас обстоит.Вот ссылка на гугл диск, думаю с чего запускать разберетесь
Желательно закрыть все программы которые GPU юзают и окно держать в фокусе винды.Разрешение лучей там зависит от того как сильно вы окно растянули, поэтому лучше на весь экран разворачивайте
Из требований: Поддержка DXR и последние установленные редисты
Ссылка на гитхаб со всеми сурсами
Это тот самый, в котором тестили трассировку на RDNA 2 до выхода и там она заметно уступала Если хотите можете потестить как дело сейчас обстоит.Вот ссылка на гугл диск, думаю с чего запускать разберетесь
Желательно закрыть все программы которые GPU юзают и окно держать в фокусе винды.Разрешение лучей там зависит от того как сильно вы окно растянули, поэтому лучше на весь экран разворачивайте
Spoiler
Ссылка на гитхаб со всеми сурсами
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
первые с эти столкнулись максвеллы. Потом паскали. Потом туринги. Потом ампер. Плохо, видимо, стараются.
ух ты, это уже путь к выздоровлению. А то раньше было "уровень 2080S"В чем то в трассировке 2000 серию нвидиа
как раз только без длсс и можно поиграть в 4К Остальные варианты - это уже не 4К, а компромисс, серьезно уступающий нативу, особенно в динамике (длсс)Я и имел ввиду с трассировкой без длсс в 4к не поиграешь
так и на невидии тожена амд не поиграешь в 4к с трассировкой
сэкономил на школьных завтраках - это не заработалМолодой пацан на,всё заработал сам.
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
что тут интел забыл? Уже давно это не так. Тут интересно другое: сколько выходило игр, подстроенных под амд - у зеленых фиаско. Игры, подстроенные под нвидиа - так амд там пободаться еще может. В этом разница - чуть разрабы отойдут от методички, у зеленых сразу же неприятности. Амд же более универсальны (касается растеризации, разумеется)Большинство игроделов подстраиваются именно под сине-зелень, так зачем выборочно страдать и брать то что тебе не надо ...
видеопамяти он не нараститСпокойно с dlss можно отлично поиграть, + много игр с поддержкой rtx-лучей.
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
А что делать когда игру рекламит AMD, а у зеленых результаты не хуже или лучше .Тоже самое и наоборот валидносколько выходило игр, подстроенных под амд - у зеленых фиаско
Я уже что-то совсем не понимаю, ты же сам раньше писал что хуанг заносит и 6800 на уровне 3070 и это слив, а теперь оказывается может пободаться .Хорошее бодание чё, топ на уровне предтопаподстроенные под нвидиа - так амд там пободаться
Лять да, настолько универсальны что требуют в шейдерах применение и скалярной и векторных операций(и впринципе больше векторную математику любит) чтобы получить для себя буст, настолько универсальны что кол-во управляющей логики в чипе резала в RDNA 1 и вейфронт увеличивала в два раза чтобы больше за так операций подать на исполнение можно было(видимо просто так резали да? Полярис был видимо таким универсальным что пузырей недогруза у него не было), настолько универсально что добавили в драйвера настройку тесселяции чтобы она так сильно не грузила(давние времена уже), настолько универсальна что любит вычислительные шейдеры, а пиксельные как-то уже не очень(тоже давние времена), если так всё универсально, почему NV денойзер оптимизированный под INT+FP она тянет хуже? Было бы оно универсально-ему бы было фиолетово что запускать, оно бы это делало с максимальной скоростьюАмд же более универсальны
Не бывает ничего универсального и нет на GPU рынке ничего такого, каждая архитектура имеет свои минусы которые нужно сглаживать чтобы не было проблем(и нет, у AMD их не меньше чем у NV )
Last edited by Maillog on 07 Jun 2022, 16:02, edited 1 time in total.
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
не пытайся воспринимать написанное им всерьез, чувак заходит сюда высратьсяMaillog wrote: ↑07 Jun 2022, 14:20 Очередная неверная интерпретация, планировщик то тут причём? Он аппаратный во всех GPU и не он виновен в пузырях конвеера которые возникают всегда пока у нас есть вся эта система с кучей кешей, разными ядрами которых ещё и много и кучей типов комманд и чисел.Простоев и не использования не будет только если у тебя в устройстве будет ОДИН ALU, ОДИН планировщик(называйте как угодно, устройство интерпретирующее команды в машинный код) который будет подавать на исполнение только ОДНУ команду твёрдо зная что этот один ALU выполнит её за N времени
метод разный, суть-то та же - закрытый код + SDK без возможности влезть в код. Высокоуровневый api он такой.Нет, не выходит.Gameworks либы от DirectX зависят и подключая его к движку можно добавлять шейдерный код этого самого геймворкса
я прекрасно понял о том, что ты пишешь. И еще раз повторюсь: получается, если все оптимизировано, амд хорошо молотит лучи? А если RTX on, то там обязательно неприятности начинаются. Потому что именно при появлении "RTX on" индусы из амд резко теряют способность к написанию драйвера, а архитектура становится импотентной к лучам. И нет, дело вовсе не в "RTX on", а виновата только амд, дрова амд и все кто угодно, кроме нвидииНу может потому-что надо полностью текст читать, а не наискось? Речь шла о пузырях в конвеере GPU которых в Metro EE тупо меньше т.к костылей нет, перечитай ту стену текста ещё раз и вникни
да лучи как угодно можно провернуть. Это субъективный показатель. Еще задолго до лучей гоняли Quake 2 RT (не путать со стимовским рекламным тайтлом), где было ну вот примерно что-то такое а позже еще и оказалось, что у веги уровень 2080ти. Когда завезли аппаратную трассировку, туринг подрос, теперь 2080 был на уровне веги 64. А ведь лучи они и в африке лучи, да? Только там деноизер не работал. Но в лучи-то амд тогда нагнула всех (радеон7 был недосягаемый даже для 2080ти)Тут сейчас помоему производительность AMD в RT обсуждается, а не то что надо применять или не надо
ну во первых на топах там с RT таки есть 60, ну и про скейлинг не забываем[/spoiler]
даже до патча с более тяжелыми лучами, 3090 на 2200 мгц не могла в 60+ в 1080р. Сейчас - не сможет тем более. И это, вдумайся: на 3080ти и 3090 играть в 1080р со скейлом? Ну это несерьезно же. 4К без лучей на голову лучше выглядит, чем 1080р с лучамино ведь это по сей день самое топовое RT-освещение, разве нет?Опять же, читай то что выше я написал внимательней.Трассировка может и тяжелая сама по себе, но ядра больше "дышат" вот и всё, а по поводу того насколько она тяжелая...ну даже в Metro EE разрабы применили "оптимизации", например при заходе в помещение явно видно как RT обновляется в реальном времени(видимо отсечение работает или хз), то есть даже так, с выпилом всего legacy пришлось немного резатькак раз наеборот, инфинити кеш - костыль для освещения. И BVH не обязательно в него целиком влезатьПричём тут упор в псп если речь идёт о кэше? Упор в пропускную способность конкретно Vram у Gpu будет по видимому всегда ибо кэши значительно быстрее, NV и AMD в разных поколениях попытались хоть как-то устранить этот дисбаланс двумя разными путями со своими подводными камнями.
Кэш в GPU это L2,L1,L0 и т.д, то есть то что находится на самом кристалле и общается напрямую с ядрами
Предвижу сообщение "А в RDNA 2 много кэша, так чё оно работает?".Да, работает но явно не "спасает" при трассеровке.BVH структура весит куда больше чем 128мб(или сколько там в топе у Amd их L3)разгон должен влиять в любом случае, та как вместе с разгоном памяти разгоняется и кеш. Надеюсь, это не новость, что у любого кеша есть своя тактовая частота?А твой разгон памяти даёт ровно нихера в в данном контексте и сокращает разрыв с кэшем...ну на 1% или может быть 2 поэтому и не повлияетя еще полгода назад на руоверах это демонстрировалМы не знаем зависит ли скорость работы кэша от разгона Vram или частоты ядер, это всё догадкив этом и суть. У амд в хуанголучах затык не в псп.Ну а мне разгон видеопамяти в Control давал пару лишних fps с RTнет, но это очевидно. С новым деноизером на хуанге фпс остался тот же, на радеоне - на 20% подскочил. "Совпадение? Не думаю". (с)Ок, есть пруфы что там изначально был RTX денойзер или что они не заменили старый RT денойзер на новый?знают они многое. Но не проявляют интерес, если им "уже занесли". Вспомни ведьмака, где должна была быть волосня tressfx помимо hairworks, но незадолго до релиза амд были посланы поляками и вышло что вышло.В любом случае, ты думаешь о релизе нового GPU геймдеверы не знают за N до релиза?
Вот кстати че нашел
https://gamebomb.ru/gbnews/12539цитата про закрытый код
«Мы не просим разработчиков делать что-то неэтичное. GameWorks улучшает визуальное качество игр на видеокартах GeForce. Технология способна ухудшить производительность на оборудовании наших конкурентов. Требовать доступ к исходному коду всех наших клеевых технологий — это попытка исправить проблемы с производительностью их оборудования. Отдать кому-то свою серию, исходный код или другие наработки — необычный шаг для любой компании в игровой индустрии. Большую часть времени мы оптимизируем игры на основе бинарных билдов, а не исходного кода», — объяснил Брайан Берк (Brian Burke), представитель Nvidia.и думаешь, что-то поменялось в случае RTX и деноизерами?и самое сочное
«Лицензия GameWorks является стандартной практикой в игровой индустрии. Исходный код GameWorks предоставляется разработчикам, которые приобрели лицензию. Но по условиям лицензии, они не могут передавать исходный код лицам, у которых такой лицензии нет».
про все. Или почти. Исключения всегда можно разыскатьЛя, раньше было про все RTX on игры, теперь только стражиищи в 4К. Ясен пень, что в 1080р карты такого уровня простаиваютSpoiler
Если что на 3:02 он опять заходит в комнату где до этого RT был выключен
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
бывает. Но громких фиаско у радеона на RDNA2 нет. Вернее, есть там, где начинается проприетарщина (RTX on). Чтобы ты понимал, что такое громкое фиаско -
https://gamegpu.com/rpg/%D1%80%D0%BE%D0 ... st-gpu-cpu
С каких это пор 6800 топ, если он обрезан от 6900хт на 25%, и еще почти на столько же по частоте?Я уже что-то совсем не понимаю, ты же сам раньше писал что хуанг заносит и 6800 на уровне 3070 и это слив, а теперь оказывается может пободаться .Хорошее бодание чё, топ на уровне предтопа
полярис причем? Это же GCN c warp64, лолЛять да, настолько универсальны что требуют в шейдерах применение и скалярной и векторных операций(и впринципе больше векторную математику любит) чтобы получить для себя буст, настолько универсальны что кол-во управляющей логики в чипе резала в RDNA 1 и вейфронт увеличивала в два раза чтобы больше за так операций подать на исполнение можно было(видимо просто так резали да? Полярис был видимо таким универсальным что пузырей недогруза у него не было),
настолько универсально что добавили в драйвера настройку тесселяции чтобы она так сильно не грузила(давние времена уже), настолько универсальна что любит вычислительные шейдеры, а пиксельные как-то уже не очень(тоже давние времена),
воу воу, ты щас про GCN. Вычислительные шейдеры сейчас это про амперы
потому что это оптимизация под проприетарные тензорные ядраесли так всё универсально, почему NV денойзер оптимизированный под INT+FP она тянет хуже?
амд может отстать на какой-то процент, но нвидия же падает на донышко, если разработчик осмелился оптимизировать игру под амд.Было бы оно универсально-ему бы было фиолетово что запускать, оно бы это делало с максимальной скоростью
ключевой минус - софтварный шедулер, который в низкоуровневых api уже не помощник, а штука, которая требует жирного драйвера под каждую игру. Кстати, вероятно, заметил, что у радеона лучше масштабируемость архитектуры в низкие разрешения? То есть, раньше-то было наоборот, GCN (вега) могла бодаться в 4К с 1080ти, но при этом в 720р уже будет на уровне 1070, при этом в обоих случаях 99% загрузка гпу по мониторингу. Пример такой игры - Детроит. Так вот щас амперы стали на место GCN, а RDNA - на место максвелла (паскаля). И это говорит о лучшей эффективности архитектуры. Лучшую эффективность архитектуры паскаль вроде никто тогда не оспаривал, ссылаясь именно на это. Ну и на жор конечно жеНе бывает ничего универсального и нет на GPU рынке ничего такого, каждая архитектура имеет свои минусы которые нужно сглаживать чтобы не было проблем(и нет, у AMD их не меньше чем у NV )
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
По нынешним тестам без DLSS 60fps там есть на 1080pдаже до патча с более тяжелыми лучами, 3090 на 2200 мгц не могла в 60+ в 1080р
Ля тогда ладно, я слишком серьёзный дед и подобное плохо распознаючувак заходит сюда высраться
Какие есть у Ампера? Ну кроме той херни с питальником в котором не сама архитектура виновата, а недостаточное кол-во обвязкиНо громких фиаско у радеона на RDNA2 нет
Это одно из, я правильно понял? Похоже больше на софтверную ошибку в самой игре чем аппаратную.С таким успехом и учитывая контекст я могу заявить что EzBench и экстремально низкая производительность amd в нём это фиаско, чё в остальных то играх такой доминации AMD нет?что такое громкое фиаско -
А это уже зависит где.Раньше NV заметно отставала, теперь же всё зависит от API(CUDA или OpenCL если мы говорим про вычисления) и реализации этого самого кодаВычислительные шейдеры сейчас это про амперы
Денойзер от NV работает на обычных ядрах если что .Вот тут гитхаб их, найди хоть одну тензорную операцию И ещё есть косвенный пруф.Вот данные самой же NV о рендеринге кадра в Metro Exodusпод проприетарные тензорные ядра
Spoiler
Ну и вдогонку.Денойзер Nvidia активно использует 32 битную математику с плавающей запятой и скалярные операции аля else или if
Spoiler
Spoiler
AMD так напирает на F16 потому-что их карты(помоему начиная с веги) выполняют разреженную математику с рейтом 2:1(то есть быстрее).
При этом кстати NV урезала в ампере рейт F16 и он выполняется с той же скоростью что и 32(1:1), видимо чтобы опять разграничить потребительские решения и "технические" A100 и подобные.
Это уже так, пища к размышлению и интересный факт который я нашёл и которым хотел поделиться
Он у обоих фирм настолько же софтварный, насколько драйвер им это позволяет .У обоих GPU шилдеры интерпретируют команды в машинный код и это делается аппаратно, на этом уровне никакого вмешательства быть не может т.к код на 0 и 1 не пишетсясофтварный шедулер
От проекта всё зависит, им кэш в этом хорошо помогает а не драйвер .Амд не просто так приводила вот этот график где в их IC на низких разрешениях попадение почти 100%радеона лучше масштабируемость архитектуры в низкие разрешения?
Spoiler
6900XT и 3090 это уже супер топы и для гейминга такое покупать...ну если у тебя денег лишних много, по Fps per dollar такие карты дно так-тоС каких это пор 6800 топ, если он обрезан от 6900хт на 25%, и еще почти на столько же по частоте?
А 6800 же конкурент 3080? Так Amd её позиционировало
Нет, разделение на Wave32 и 64(да, спутал.Не warp, а wave.Warp это у NV) произошло с RDNA, там оборудование под это было измененополярис причем? Это же GCN c warp64, лол
Spoiler
новые CU имеют два режима исполнения: Wave32 и Wave64, адаптированные для разных типов загрузок, а ширина блока SIMD была увеличена с 16 слотов (SIMD16) до 32 (SIMD32), так что размер вейвфронта теперь соответствует размеру SIMD. Это ключевое архитектурное изменение RDNA позволяет более эффективно загружать работой имеющиеся блоки SIMD. Если в GCN один Wave64 выполняется за четыре такта на SIMD16, то в случае RDNA один Wave32 исполняется за один же такт на одном SIMD32. А исполнение 64 потоков группируется как пара Wave32 и они исполняются на двух SIMD32.
Лично я нигде не заявлял что амд не умеет их молотить, ясно дело что если взять например RX5700xt и сравнить её с RX6500xt, то вторая намолотит лучей больше чем первая не смотря на заметно меньшую производительность в растреполучается, если все оптимизировано, амд хорошо молотит лучи?
Но сейчас обсуждается как хорошо она это делает в сравнении(и соответственно как долго их карты проживут т.к РТ всё больше и больше в нашем гейминге и темпы не сбавляются)
Не ну так-то можно и зеркалочку сделать.В упоминаемом тут hairworks же тесселяция дикая применялась? Ну так...а виновата только амд, дрова амд и все кто угодно, кроме нвидии
И нет, дело вовсе не в "Убогом геометрическом движке", а виновата только нвидия, дрова нвидии и все кто угодно, кроме amd
А что делать когда без плашки RTX on Nv всё равно теряет меньше при включении RT?А если RTX on, то там обязательно неприятности начинаются
С этого места поподробнее.Что за Quake 2 RT? По запросу в гугле выводит только RTX, есть сурс?да лучи как угодно можно провернуть. Это субъективный показатель. Еще задолго до лучей гоняли Quake 2 RT (не путать со стимовским рекламным тайтлом), где было ну вот примерно что-то такое
Спойлер
а позже еще и оказалось, что у веги уровень 2080ти. Когда завезли аппаратную трассировку, туринг подрос, теперь 2080 был на уровне веги 64. А ведь лучи они и в африке лучи, да? Только там деноизер не работал. Но в лучи-то амд тогда нагнула всех (радеон7 был недосягаемый даже для 2080ти)
Туринг подрос где? В этой же демке или в RTX где задействуются новые ядра? На твоём скриншоте я не вижу тьюринга в тестах
Не совсем, лучи они и в африке лучи тогда, когда реализованы через одинаковый алгоритм(как сейчас с BVH и ускорением прохода через него).Что там в этой кваке было я не знаю ибо никогда не слышалА ведь лучи они и в африке лучи, да?
Открытие то какое, в рафинированной вычислительной нагрузке вычислительными же шейдерами AMD впереди, никогда такого не былоНо в лучи-то амд тогда нагнула всех
Spoiler
Самое топовое оно потому-что оттуда Legacy полностью выпилилино ведь это по сей день самое топовое RT-освещение, разве нет?
Вот поэтому как я написал и не "спасает", обычным увеличением кэша заметно повысить производительность никогда было нельзяИ BVH не обязательно в него целиком влезать
Будут пруфы хоть какие-то по этому поводу? С чего ты взял что у кэша не может быть своего тактового генератора? Ты это возможно с процессоров взял т.к у них реально так и работает, но видяха это как бы другоета как вместе с разгоном памяти разгоняется и кеш.
На форумах редко пишу, извините.Что ты там демонстрировал я не знаюя еще полгода назад на руоверах это демонстрировал
Ну то есть ты не рассматриваешь вариант что денойзер был свой, но его переписали под AMD(НАПРИМЕР добавив туда ту самую векторную математику)?С новым деноизером на хуанге фпс остался тот же, на радеоне - на 20% подскочил
Gamebomb, классный источник . Я с таким же успехом могу скинуть форбс где другая точка зренияВот кстати че нашел
https://www.forbes.com/sites/jasonevang ... 9289db65e3
Но да ладно, даже так Hairworks же там работал на всех карточках не? Просто на AMD всё просаживалось
Поменялось потому-что в их RTX пакете никакого RT кода нет, только денойзер.Можешь проверить прямо сейчас, на NV developer может зарегаться кто угодно, проверок там нети думаешь, что-то поменялось в случае RTX и деноизерами?
Там 1440p если что, недогруз там идёт только если RT off и сжирает при этом 220 ваттчто в 1080р
Last edited by Maillog on 07 Jun 2022, 20:11, edited 1 time in total.
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Под амд вот именно надо оптимизировать, кажду игру только тогда тянет,а смысл это делать ради 2% владельцев rx 6000.RadeonForce wrote: амд может отстать на какой-то процент, но нвидия же падает на донышко, если разработчик осмелился оптимизировать игру под амд.
Я не считаю ,что длсс везде уступает нативуRadeonForce wrote: как раз только без длсс и можно поиграть в 4К Остальные варианты - это уже не 4К, а компромисс, серьезно уступающий нативу, особенно в динамике (длсс)
Я на 4к телеке играю пока ты смотришь в свою фулл хд форточку на ютубе в 144p пытаясь найти изъяны длссRadeonForce wrote: сэкономил на школьных завтраках - это не заработал
Паскаль это паксвелл , Ничего принципиально нового в архитектуре нетRadeonForce wrote: И это говорит о лучшей эффективности архитектуры. Лучшую эффективность архитектуры паскаль вроде никто тогда не оспаривал, ссылаясь именно на это. Ну и на жор конечно же
Вега благодаря грайм шедулеруру всегда кукурузила в низких разрешенияхRadeonForce wrote: ключевой минус - софтварный шедулер, который в низкоуровневых api уже не помощник, а штука, которая требует жирного драйвера под каждую игру. Кстати, вероятно, заметил, что у радеона лучше масштабируемость архитектуры в низкие разрешения
Если бы так было бы с одним алу нужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.Чем больше команд тем,больше шансов простоя некоторых allu.Maillog wrote: Очередная неверная интерпретация, планировщик то тут причём? Он аппаратный во всех GPU и не он виновен в пузырях конвеера которые возникают всегда пока у нас есть вся эта система с кучей кешей, разными ядрами которых ещё и много и кучей типов комманд и чисел.Простоев и не использования не будет только если у тебя в устройстве будет ОДИН ALU, ОДИН планировщик(называйте как угодно, устройство интерпретирующее команды в машинный код) который будет подавать на исполнение только ОДНУ команду твёрдо зная что этот один ALU выполнит её за N времени
Потому- что пересечения BVH-лучей RDNA2 выполняются с использованием универсальных вычислительных блоков , когда Ампер ограничен количеством ядер RT в простых сценахMaillog wrote: Не совсем, лучи они и в африке лучи тогда, когда реализованы через одинаковый алгоритм(как сейчас с BVH и ускорением прохода через него).Что там в этой кваке было я не знаю ибо никогда не слышал
Это всем известно нвидиа мощнее в трассировке лучейMaillog wrote: А что делать когда без плашки RTX on Nv всё равно теряет меньше при включении RT?
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Не пересечение лучей, а обход BVH с целью узнать в какой пиксель в коробке попал луч.Это начиная с Тьюринга выполняется на RT ядрах, у амд же да, не такПотому- что пересечения BVH-лучей
Зануда mode on
Никакого пересечения луча нет, есть пересечение лучом конкретного треугольника, это луч пересекает треугольник, а не наоборот.Происходит это так
1."Выпуск" лучей(это не такая сложная операция и она как раз выполняется на обычных ядрах)
2.После "выпуска" ядра в дело вступают RT ядра которые "вскрывают" BVH и находят нужную коробку(предположим в гепотетическом примере что у нас объект состоит из 2 больших и в этих двух больших ещё по две малых коробки)
И вот конкретно проверка в самих коробках выполняется на RT ядрах у NV и на обычных у AMD
а.Коробка 1 это та большая коробка? Нет, здесь нет пересечения
б.Коробка 2 это та большая коробка? Да, здесь есть пересечение, открываем и ищем дальше
И вот так потом откроется более малая коробка в которой уже есть треугольники, предположим что мы нашли нужную
а.Это 1 пиксель? Нет, не тот
б.Это 2 пиксель? Да, тот
Вот мы нашли пересечение лучом второго пикселя, теперь нам нужно зафиксировать что именно по этому треугольнику прошёл луч, для этого опять же RT ядро проверяет пересечение(так называемый intersection test), именно это указывает и NV и AMD как Ray/box intersection(Ray/Box рядом через черту не просто так стоят)
3.Пересечение подтверждено? Отлично, результаты возвращаются
Опять же насколько я понял СНАЧАЛА происходит распаковка всех BVH, а уже потом идёт проверка на пересечение в этих BVH ибо так эффективнее
Насколько эта операция по распаковке сложна? Хрен его знает, профайлеры подобные вызовы не показывают, они показывают только Ray hit(это когда происходит повторный тест пересечения, самый ресурсоёмкий этап) и создание BVH силами обычных ядер
Если открыть слайды о архитектурах у AMD и NV, то можно найти ещё упоминание такой метрики как Ray/triangle intersection, а это уже то, что к нынешнему рендеру РТ в играх с использованием BVH не относится
Это пересечение лучом треугольника БЕЗ учёта BVH, то есть это всё тоже самое что я описал выше, но без всего второго пункта.И вот конкретно такого в играх cейчас нет, есть только в прикладных программах
Это всем известно нвидиа мощнее в трассировке лучей
Spoiler
Видимо RadeonForce этого не знает или тупо отрицает этот факт(что конкретно по голой вычислительной мощности RT ядра у NV тупо мощнее что с положительной стороны себя показывает как не крути, есть хоть одна игра или тест где от включения RT AMD теряла меньше чем NV? Обычно либо паритет либо AMD теряет больше даже в тайтлах которые AMD пиарит)
Я не просто так про одинаковые команды написалнужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.
Last edited by Maillog on 07 Jun 2022, 20:19, edited 9 times in total.
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Кстати, новый Хорайзен лютое мыльцо с неотключаемым лютым ДоФ. Но сюжетец норм, залип.
Я в Steam --- https://steamcommunity.com/id/R2DSF/ | Конфигурация ПК --- https://sysprofile.ru/p/1/R2DSF
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
ой ли?
Spoiler
да это аппаратный косяк на платах. К архитектуре. ясен пень, не относится. Да вот элементарно - кривое говно типа хитмана, по процессорной частиКакие есть у Ампера? Ну кроме той херни с питальником в котором не сама архитектура виновата, а недостаточное кол-во обвязки
https://gamegpu.com/%D0%B1%D0%BB%D0%BE% ... eon-v-dx12
да и на слабых процах в целом
но ведь и дрова под нее выходили, и за год дор этого теста тут тестили демку, и там было то же самое. А вспомни WWZ, еще одна игра на движке, пиленном под радеоны (на секундочку, уе4 в той же степени запилен под жифорсы)Это одно из, я правильно понял? Похоже больше на софтверную ошибку в самой игре чем аппаратную.
а кто сказал, что она экстремально низкая? отставание 6800хт от 3080ти всего 20%. То есть 3080 на обычные 5-10% обойдет 6800хт. Но опять же, демку пилил любитель на жифорсе. Через 2 дня после релиза вышел патч, который поднял радеоны на 60% в сравнении с релизом. Зеленых - примерно на 30%. Это говорит лишь о том, что амд была оптимизирована никак, нвидия - кое-как. Теперь плюс-минус в полную силу работают.С таким успехом и учитывая контекст я могу заявить что EzBench и экстремально низкая производительность amd в нём это фиаско, чё в остальных то играх такой доминации AMD нет?
не, у невидии щас много флопсов. Раньше GCN любил вычислительные шейдеры по той же причине - например, у RX 580 флопсов было практически как у 1070, а разница в производительности сильно отличалась не в пользу амд. Вот и щас посмотри:А это уже зависит где.Раньше NV заметно отставала, теперь же всё зависит от API(CUDA или OpenCL если мы говорим про вычисления) и реализации этого самого кода
3070@2050 = 20.5 Тфлопс
2080ти@2050 = 17.84 Тфлопс
Хотя на таких частотах карты как минимум равны, а чаще 2080ти и быстрее будет на полшишечки
пусть будет так. И тем не менее, по какой причине не завозится деноизер для амд, остается лишь гадать. Неужели в тех же самых играх на консолях используется деноизер невидии? Ну это же невозможноДенойзер от NV работает на обычных ядрах если что .Вот тут гитхаб их, найди хоть одну тензорную операцию
это старая версия метро, которая "RTX on". Там-то как раз и была задница у амд, 6900 и до 3070 не дотягивалась. В Метро ЕЕ лучи уже самими разработчиками завезены, а не с чемоданом прилетелиИ ещё есть косвенный пруф.Вот данные самой же NV о рендеринге кадра в Metro ExodusЧто это за огромный столб сразу после прохода RT ядер думаю сам поймешьSpoiler
про амд я знаю.Ну и вдогонку.Денойзер Nvidia активно использует 32 битную математику с плавающей запятой и скалярные операции аля else или ifAMD же в своём FidelityFX денойзере использует FP16 и векторную математику(i,d,x и > это оно и есть)Spoiler
Spoiler
не то чтобы прям урезали, просто у них появилось много флопсов, которые дефакто в играх незадействованы в большинстве сценариев. Ну типа как вейвфронт 64 у GCN был, при котором архитектура никогда не загружалась в полной мере. Даже писали, что в максимально оптимизированных играх типа Doom архитектура трудилась лишь на 60-70%. Полное раскрытие только в проф. приложениях, где напор на паралеллизм. Полагаю, если очень грубо сказать, аналогичная ситуация сейчас и с амперамиNV так напирает на F32 потому-что их амперы такое выполняют быстрее из-за добавления ещё одного массива из 16 FP32 ядер в SM
AMD так напирает на F16 потому-что их карты(помоему начиная с веги) выполняют разреженную математику с рейтом 2:1(то есть быстрее).
При этом кстати NV урезала в ампере рейт F16 и он выполняется с той же скоростью что и 32(1:1), видимо чтобы опять разграничить потребительские решения и "технические" A100 и подобные.
так да не так и невидия заложник ситуации, ибо если состоится полный переход на более эффективный (для низкоуровневых апи) шедулер, придется под новые карты переписывать дрова ВООБЩЕ ПОД ВСЕ ИГРЫ НА ДХ11, иначе проблемы амд в дх11 покажутся цветочкамиОн у обоих фирм настолько же софтварный, насколько драйвер им это позволяет .У обоих GPU шилдеры интерпретируют команды в машинный код и это делается аппаратно, на этом уровне никакого вмешательства быть не может т.к код на 0 и 1 не пишется
в любом проекте. Исключений я еще не видел. Даже на плохо масштабируемом GCN они были, а тут нету, и всё. Инфинити кеш вообше не совсем про псп. Он про решение проблем с высокой латентностью контроллера памяти на радеонах. В GCN это решалось снижением задержек, тайминги порой просто бешеный прирост из воздуха давалиОт проекта всё зависит, им кэш в этом хорошо помогает а не драйвер .Амд не просто так приводила вот этот график где в их IC на низких разрешениях попадение почти 100%
Зачем заморачиваться с разгоном видеопамяти, если "псп и без того избыточна"? Сейчас убедитесь, что это далеко не так.
Пример игры, которая особенно любит пропускную способность видеопамяти(а таких в последнее время немало) - Strange Brigade.
1680/945 +сток тайминги ~412 Гб/с (по Oclmembench) - 68 фпс
1680/945 +тайминги ~532 Гб/с - 74 фпс
1680/1100 +тайминги ~532 Гб/с - 80 фпс
1680/1108 Infinity Fabric 1107 ---> 1200мгц ~533 Гб/с - 81 фпс
945(сток) ---> 1108(тайминги) = +19.1% производительности только лишь за счет разгона и настройки таймингов видеопамяти!
1680/945 +сток тайминги ~412 Гб/с (по Oclmembench) - 68 фпс
1680/945 +тайминги ~532 Гб/с - 74 фпс
1680/1100 +тайминги ~532 Гб/с - 80 фпс
1680/1108 Infinity Fabric 1107 ---> 1200мгц ~533 Гб/с - 81 фпс
945(сток) ---> 1108(тайминги) = +19.1% производительности только лишь за счет разгона и настройки таймингов видеопамяти!
Spoiler
В тестах 3dmark Vantage Feature Tests есть один из 6 мини-тестов, под названием Color Fill. Он замеряет производительность блоков растеризации(ROP) у видеокарт. И большинство современных игр упираются именно на эти блоки(привет оптимизации под нвидиа). У карт амд архитектуры GCN производительность ROP сильно упирается в псп видеопамяти. Из нвидиа только у Fermi выявили подобную ситуацию, максвеллы 900 серии и кеплеры так к нам и не заглядывали, на максвелле 1 поколения - 750ти, также ботлнека не было. У всех паскалей, даже 1050ти с низкой псп, аналогично.
Выглядит это примерно так: прогоняем все 6 мини-тестов в 4 режимах:
1. сток чип/сток память
2. сток чип/разгон память
3. разгон чип/сток память
4. полный разгон
RX 470 4G
1). 1206|1650 (частоты чипа/видеопамяти)
134.8
24.7 - ROPs
161.4
149
146.7
325.2
2). 1206|2050(+24.2%)
134.9
28.48 (+15.3%)!!!!
159.73
151.8
159.7
325
3). 1350(+11.9%)|1650
153.1
25.6 (+3.6%)
179
164.7
154.9
380.3
4). 1350(+11.9%)|2050(+24.2%)
150.2
29.7 (+20.2%)
177.8
168.8
172.9
385.5
Закрыть
Как можно увидеть, при разгоне ядра на 12% при стоковой памяти производительность ROP почти не выросла(3.6%), то есть кукуруза. При разгоне памяти на 24% и стоковом ядре производительность ROP выросла аж на 15.3%. В полном же разгоне производительность ROP выросла аж на 20.2%, и это при разгоне ядра всего на 12%.
У нвидиа разгон видеопамяти дает приросты на уровне погрешности, стало быть, ботлнека нет, и разгон памяти не является острой необходимостью.
Что из этого вытекает:
1. Если не гнать видеопамять, то в некоторых играх, где упор именно в ROP, при разгоне ядра может случиться "кукуруза".
2. Если память хорошо погналась(особенно касается 470/570/вега56 с изначально заниженными частотами памяти), то можно получить прирост от разгона выше линейного.
Как раз мой случай: +12% ядро и +24% память с быстрыми таймингами дают 15-20% прироста производительности в играх. Гарантировано +15% прироста, ниже нигде не видел, и нередко +20%. Могло быть и больше, но экземпляр хреновый(память более-менее) - разгон 1350/2050. На 1450/2250 было бы еще интереснее.
Выглядит это примерно так: прогоняем все 6 мини-тестов в 4 режимах:
1. сток чип/сток память
2. сток чип/разгон память
3. разгон чип/сток память
4. полный разгон
RX 470 4G
1). 1206|1650 (частоты чипа/видеопамяти)
134.8
24.7 - ROPs
161.4
149
146.7
325.2
2). 1206|2050(+24.2%)
134.9
28.48 (+15.3%)!!!!
159.73
151.8
159.7
325
3). 1350(+11.9%)|1650
153.1
25.6 (+3.6%)
179
164.7
154.9
380.3
4). 1350(+11.9%)|2050(+24.2%)
150.2
29.7 (+20.2%)
177.8
168.8
172.9
385.5
Закрыть
Как можно увидеть, при разгоне ядра на 12% при стоковой памяти производительность ROP почти не выросла(3.6%), то есть кукуруза. При разгоне памяти на 24% и стоковом ядре производительность ROP выросла аж на 15.3%. В полном же разгоне производительность ROP выросла аж на 20.2%, и это при разгоне ядра всего на 12%.
У нвидиа разгон видеопамяти дает приросты на уровне погрешности, стало быть, ботлнека нет, и разгон памяти не является острой необходимостью.
Что из этого вытекает:
1. Если не гнать видеопамять, то в некоторых играх, где упор именно в ROP, при разгоне ядра может случиться "кукуруза".
2. Если память хорошо погналась(особенно касается 470/570/вега56 с изначально заниженными частотами памяти), то можно получить прирост от разгона выше линейного.
Как раз мой случай: +12% ядро и +24% память с быстрыми таймингами дают 15-20% прироста производительности в играх. Гарантировано +15% прироста, ниже нигде не видел, и нередко +20%. Могло быть и больше, но экземпляр хреновый(память более-менее) - разгон 1350/2050. На 1450/2250 было бы еще интереснее.
Такие же замеры, но на RX Vega 64
Мы тут когда-то гоняли уже 3dmark Vantage Feature Tests. Так вот, у веги еще наиболее ярко выраженный ботлнек по псп видеопамяти, чем было на RX 474. Точную частоту не скажу, тот бенч 2-3 секунды идет, но верхний стейт выставлен 1750мгц, значит, выше 1750мгц скакнуть не должно. Ниже 1700мгц тоже врядли. Буду указывать 1700мгц:
Color Fill(производительность ROP) :
1700/945(сток тайминги) - 48.1
1700/1100(сток тайминги) - 54.1
1700/945(+тайминги) - 58
1700/1100(+тайминги) - 64.8 (+34.7%)
вот для этого и нужны разгон памяти и тайминги на картах архитектуры GCN. При разогнанном чипе это особенно бросается в глаза - производительность РОПов увеличилась на треть, то есть в играх, в которых Веге не хватает именно производительности РОПов, вполне может быть такой прирост производительности от одного лишь разгона видеопамяти. И я даже один раз наткнулся на такую игру, где производительность росла в линейной зависимости от увеличения производительности РОПов. Эта игра - Annabelle Curse, "очередная индюшатина на всеми любимом движке"
Color Fill(производительность ROP) :
1700/945(сток тайминги) - 48.1
1700/1100(сток тайминги) - 54.1
1700/945(+тайминги) - 58
1700/1100(+тайминги) - 64.8 (+34.7%)
вот для этого и нужны разгон памяти и тайминги на картах архитектуры GCN. При разогнанном чипе это особенно бросается в глаза - производительность РОПов увеличилась на треть, то есть в играх, в которых Веге не хватает именно производительности РОПов, вполне может быть такой прирост производительности от одного лишь разгона видеопамяти. И я даже один раз наткнулся на такую игру, где производительность росла в линейной зависимости от увеличения производительности РОПов. Эта игра - Annabelle Curse, "очередная индюшатина на всеми любимом движке"
6900XT и 3090 это уже супер топы и для гейминга такое покупать...ну если у тебя денег лишних много, по Fps per dollar такие карты дно так-тоС каких это пор 6800 топ, если он обрезан от 6900хт на 25%, и еще почти на столько же по частоте?
А 6800 же конкурент 3080? Так Amd её позиционировало
в общем-то все верно. Но стоит ли упоминать, что при таком подходе резко падает способность к вычислениям? Гоняли мы бенчмарк OpenCL, и там вега64 вполне бодалась с 6800хт. Жипег не нашел, но у кого-то по-любому он завалялся, мы всей толпой гонялиНет, разделение на Wave32 и 64(да, спутал.Не warp, а wave.Warp это у NV) произошло с RDNA, там оборудование под это было измененоSpoiler
новые CU имеют два режима исполнения: Wave32 и Wave64, адаптированные для разных типов загрузок, а ширина блока SIMD была увеличена с 16 слотов (SIMD16) до 32 (SIMD32), так что размер вейвфронта теперь соответствует размеру SIMD. Это ключевое архитектурное изменение RDNA позволяет более эффективно загружать работой имеющиеся блоки SIMD. Если в GCN один Wave64 выполняется за четыре такта на SIMD16, то в случае RDNA один Wave32 исполняется за один же такт на одном SIMD32. А исполнение 64 потоков группируется как пара Wave32 и они исполняются на двух SIMD32.
подобная риторика была и про физикс, и про геймворкс, мол, за кеплерами будущее, амд быстро сдуется. В итоге R9 290 (8гб) еще и максвеллы пережила (4-гиговые), а на кеплерах уже с 2017 года не все игры даже запускаются (из-за отсутствия аппаратного дх12, как пример), и никакая тесселяция на дно Гаваи ее не утянула, никакой аппаратный физикс (ака хуанговский "RTX on") так и не стал неким стандартом, а лишь очередным маркетинговым ответвлением. Потому не нужно спешить делать такие прогнозы, повернуться все может ой как неожиданно, прецеденты ведь уже случались. Но ясно одно: никогда проприетарные решения не становились стандартом. (не надо HBAO и физикс приводить в пример, и то и другое разработано не нвидией)Лично я нигде не заявлял что амд не умеет их молотить, сейчас обсуждается как хорошо она это делает в сравнении(и соответственно как долго их карты проживут т.к РТ всё больше и больше в нашем гейминге и темпы не сбавляются)
показать, как это дело работало через год на гаваи, которая в тесселяции не блистала?Не ну так-то можно и зеркалочку сделать.В упоминаемом тут hairworks же тесселяция дикая применялась? Ну так...
Spoiler
лол, как ты геометрию с тесселяцией увязал? За них отвечают разные блоки, на секундочку. Даже сейчас RDNA2 быстрее ампера в геометрии (наверное, впервые в истории), но в тесселяции все еще уступает.И нет, дело вовсе не в "Убогом геометрическом движке", а виновата только нвидия, дрова нвидии и все кто угодно, кроме amd
а это уже надо смотреть, как нвидиа вообще нагружена в игре.А что делать когда без плашки RTX on Nv всё равно теряет меньше при включении RT?
это у ultrafx или tsaMolotoff надо спрашивать, все мои ссылки умерли вместе с "диванной аналитикой" на оверах, когда ее снеслиС этого места поподробнее.Что за Quake 2 RT? По запросу в гугле выводит только RTX, есть сурс?
есть более свежие. Это так, первое что нашел. Туринг подрос от аппаратного ускорения, да. Именно в этой демке, о которой речьТуринг подрос где? В этой же демке или в RTX где задействуются новые ядра? На твоём скриншоте я не вижу тьюринга в тестах
то есть если реализация не через метод, удобный для хуанга, то лучи уже не лучи, я правильно понял?Не совсем, лучи они и в африке лучи тогда, когда реализованы через одинаковый алгоритм(как сейчас с BVH и ускорением прохода через него).Что там в этой кваке было я не знаю ибо никогда не слышал
выходит, допустим к использованию только тот метод, в котором невидия быстрее амуде?Открытие то какое, в рафинированной вычислительной нагрузке вычислительными же шейдерами AMD впереди, никогда такого не былоSpoiler
тем показательнее. Хорошая реализация (не без шероховатостей, но и не такое кривое говно, как киберпанк или даинг лайт)Самое топовое оно потому-что оттуда Legacy полностью выпилили
минуточку, я хотел бы напомнить, что радеоны умудряются конкурировать на старой GDDR6 с 256-бит шиной против 384-бит и GDDR6X, разогнанной с завода до усрачки (потребление памяти больше 100 ватт это дичь, согласить), и это не показатель того, что может дать увеличение кеша?Вот поэтому как я написал и не "спасает", обычным увеличением кэша заметно повысить производительность никогда было нельзя
элементарно. Память 2000 vs 2150 мгцБудут пруфы хоть какие-то по этому поводу? С чего ты взял что у кэша не может быть своего тактового генератора? Ты это возможно с процессоров взял т.к у них реально так и работает, но видяха это как бы другое
интересно, почему такие вещи происходят только в играх с зеленым логотипом? С чего бы я должен рассматривать другие варианты? Я хорошо знаю, как ведет дела нвидия с изданиями, чего требует, что запрещает. И это ж насколько нужно быть наивным, чтобы полагать, что с игровыми разработчиками может буть иначе?Ну то есть ты не рассматриваешь вариант что денойзер был свой, но его переписали под AMD(НАПРИМЕР добавив туда ту самую векторную математику)?
Вот кстати че нашел
тем более. А с лучней и нагрузило карту, вот жор и вырос.Там 1440p если что, недогруз там идёт только если RT off и сжирает при этом 220 ватт
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Civil
Под амд вот именно надо оптимизировать, кажду игру только тогда тянет,а смысл это делать ради 2% владельцев rx 6000.
не, ты не понял. Под них никто не оптимизирует, и они даже так по губам возят хуангу в 2 из 3 разрешений. А когда не оптимизируют под невидию, случается беда у невидии, а не банальное отставание на 10%, как в случае с амд
Я не считаю ,что длсс везде уступает нативу
я тоже. В статике он неплох в некоторых играх. А в динамике везде отвратителен
Я на 4к телеке играю пока ты смотришь в свою фулл хд форточку на ютубе в 144p пытаясь найти изъяны длсс
у меня тоже 4К телик есть. А изъяно в и искать не приходится, они сами бросаются в глаза, если ты в них не долбишься, конечно
Паскаль это паксвелл , Ничего принципиально нового в архитектуре нет
хех, и почему до вас это доходит только когда становится поздно. Я ведь в 2016 об этом писал, как сейчас про лучи и дылысэсы, и реагировали точно так же. Только вот я всегда (или почти всегда) оказываюсь прав по истечении времени
Вега благодаря грайм шедулеруру всегда кукурузила в низких разрешениях
щито?
Если бы так было бы с одним алу нужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.Чем больше команд тем,больше шансов простоя некоторых allu.
хм, интеллект пробивается, или загуглил удачно?
Потому- что пересечения BVH-лучей RDNA2 выполняются с использованием универсальных вычислительных блоков , когда Ампер ограничен количеством ядер RT в простых сценах
щито? У ампера и гпу задействован, РТ-ядра лишь для дополнительного ускорения. И как показывает Титан вольть, не то чтобы столь большого ускорения, как многие думают, а что-то порядка +30-40%.
Это всем известно нвидиа мощнее в трассировке лучей
а где не мощнее, там злая амд занесла. Очень удобная тактика
Под амд вот именно надо оптимизировать, кажду игру только тогда тянет,а смысл это делать ради 2% владельцев rx 6000.
не, ты не понял. Под них никто не оптимизирует, и они даже так по губам возят хуангу в 2 из 3 разрешений. А когда не оптимизируют под невидию, случается беда у невидии, а не банальное отставание на 10%, как в случае с амд
Я не считаю ,что длсс везде уступает нативу
я тоже. В статике он неплох в некоторых играх. А в динамике везде отвратителен
Я на 4к телеке играю пока ты смотришь в свою фулл хд форточку на ютубе в 144p пытаясь найти изъяны длсс
у меня тоже 4К телик есть. А изъяно в и искать не приходится, они сами бросаются в глаза, если ты в них не долбишься, конечно
Паскаль это паксвелл , Ничего принципиально нового в архитектуре нет
хех, и почему до вас это доходит только когда становится поздно. Я ведь в 2016 об этом писал, как сейчас про лучи и дылысэсы, и реагировали точно так же. Только вот я всегда (или почти всегда) оказываюсь прав по истечении времени
Вега благодаря грайм шедулеруру всегда кукурузила в низких разрешениях
щито?
Если бы так было бы с одним алу нужно бы вычислить скалярное произведение данной позиции с каждой из остальных позиций в данном списке.Чем больше команд тем,больше шансов простоя некоторых allu.
хм, интеллект пробивается, или загуглил удачно?
Потому- что пересечения BVH-лучей RDNA2 выполняются с использованием универсальных вычислительных блоков , когда Ампер ограничен количеством ядер RT в простых сценах
щито? У ампера и гпу задействован, РТ-ядра лишь для дополнительного ускорения. И как показывает Титан вольть, не то чтобы столь большого ускорения, как многие думают, а что-то порядка +30-40%.
Это всем известно нвидиа мощнее в трассировке лучей
а где не мощнее, там злая амд занесла. Очень удобная тактика
-
- Posts: 6878
- Joined: 27 Nov 2020, 19:01
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
Maillog
ну давай, покажи абсолютные данные о производительности Рт-ядер амд и невидии. Надеюсь, не прямиком со слайдов невидии?Видимо RadeonForce этого не знает или тупо отрицает этот факт(что конкретно по голой вычислительной мощности RT ядра у NV тупо мощнее что с положительной стороны себя показывает как не крути, есть хоть одна игра или тест где от включения RT AMD теряла меньше чем NV? Обычно либо паритет либо AMD теряет больше даже в тайтлах которые AMD пиарит)
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
И что это доказывает? Как там сейчас после патчей?но ведь и дрова под нее выходили, и за год дор этого теста тут тестили демку, и там было то же самое
Я тут не вижу повального превосходства как в случае с сибирью где все зеленые карты выстроились в рядок будто фпс лок включилиА вспомни WWZ
Spoiler
Чем это подтверждается? Играми которые на нём идут лучше на NV? А как быть с теми, которые лучше идут на AMD с тем же движокм? В чём конкретно заточка движка то заключается?уе4 в той же степени запилен под жифорсы
Я тут все последние 15 страниц прошерстил и результатов 3080 или 3080ti не нашёл, видел сообщения но по видимому срок загрузки на ibb вышел и оно удалилосьотставание 6800хт от 3080ти всего 20%
Результатов нет-выводов делать я не могу
Не одними флопсами едины . То что у тебя больше флопсов не означает автоматически что вычислительные операции будут бустреене, у невидии щас много флопсов.
Это флопсы разные у разных архитектур, не в курсе что это ни о чём не говорит?у RX 580 флопсов было практически как у 1070, а разница в производительности сильно отличалась не в пользу амд
Чё значит не завозится? Не работает типо? У нас вон есть BF 5 и Metro обычное которые с РТ на амд работают, я думаю что там именно NV денойзерне завозится деноизер для амд, остается лишь гадать
Есть лишь одна игра где можно сменить вручную реализацию денойзера с NV на самописный юбиков, WD legion.DF это тестировали, но мне лень искать ролик.Что в остальных играх не ясно, но судя по коду на гите им как бы ничего не мешает с NV денойзером работать, ничего такого там не применяется, обычные скалярные шейдерыНеужели в тех же самых играх на консолях используется деноизер невидии?
Да я как бы не отрицаю, это сообщение было "пруфом" к тому что денойзер от NV работает на обычных ядрахэто старая версия метро, которая "RTX on"
А в обычном эльфами с средиземья завозилось?В Метро ЕЕ лучи уже самими разработчиками завезены
Ты про x2 FP32? Ну как бы не совсем, если бы оно не давало большого буста, не видели бы мы RTX 3060 которая дышит в спину 2070которые дефакто в играх незадействованы в большинстве сценариев
У второй и пропускная способность памяти выше и SM больше и кэша(только вот ядер меньше)...а всё-равно не спасает как-то, либо она снизу либо 3060 дышит в ухо
Да, конечно ты не всегда получишь ускорение F32, но это таки работает и работает куда лучше чем тупое наращивание GPC и TPC с соответствующим увеличением жора
Нет, не было wave64 завезли на RDNA(сообщение моё под спойлером прочти(.GCN может с таким вейвфронтом работать, но профита не будет.И даже RDNA не всегда нагружается, таков удел всех векторных SIMD с "одна инструкция, большой вывод"вейвфронт 64 у GCN был
CMDlist или DirectX driver command list это фича драйвера как бы, а не GPU.Об этом ещё интел писала в своих исследованиях.Вот кстати его наверное и завезли в том патче в котором RDNA 2 буст получили на DX11так да не так
Spoiler
Открывать с VPN, иначе сломается https://www.intel.com/content/www/us/en ... ering.html By checking the GPU driver support for Dire
ctX 11 multithreaded rendering features
ctX 11 multithreaded rendering features
Spoiler
Хотя даже с этим тестом, разработчики с Beyond3d форума говорят что это всё туфта и это "конечные результаты которые не охватывают процесса написания драйверов, по факту все драйвера поддерживают отложенный контекст т.к иначе игры с его поддержкой тупо бы не стартовали"https://forum.beyond3d.com/threads/amd- ... st-2188149
У NV точно также есть глобальный шельдер(он на уровне Gigathread находится) и более локальный в виде варп шелдера который оперирует 32 командами за такт в самом SM(его показывают постоянно на схемах устройства SM от самой NV) В чём преймущество то в этом плане?
Это уже не говоря о том что в DX12 даже такого понятия как driver command list нет и проверить его поддержку на DX12 нельзя т.к оно не используется, как драйвер там на что-то влиять может если этого тупо нет?
Ну или просто отключить в драйвере запуск этого самого листаВООБЩЕ ПОД ВСЕ ИГРЫ НА ДХ11
Каких оптимизаций? На AMD растеризация и работа с сэмплингом выполняется святым духом, а не ропами?привет оптимизации под нвидиа
Как я понял ты про урезание управляющей логики да? Ну не удивлен что вега 64 может быть даже быстрее, она как не странно гибче из-за двойного CU в котором два шелдера в отличие от RDNAНо стоит ли упоминать, что при таком подходе резко падает способность к вычислениям?
Если уж в RDNA это урезали, значит посчитали что это не нужно для игр, по внутренним тестам видимо поняли что той степени параллелизма там нет
А способность к вычислениям...ну тем кому это реально надо пусть берут карты для этого .У AMD это CDNA, у NV недавно вон Хоппер вышел, это обычное разделение рынка и очевидно что если всё разделить-бабла можно получить больше(таков капитализм)
Сравнение хреновое т.к PhysX запускался через стороннюю библиотеку NV и только, нынешний RT работает через DirectX который пилится майками и Вулкан который пилится вообще всем миром по ниткеподобная риторика была и про физикс
Ну и два-ретрейсинг это тупо будущее в отличие от физикса который тупо делал красивее, а не координально менял правила игры как это происходит с РТ
Какие игры в 17 году требовали поддержки именно FL 12.0 и отказывались запускаться если её не было?из-за отсутствия аппаратного дх12, как пример
У массовых GCN(500,400) уровень поддержки DX12-12.0, а не 12.1
Я конечно не на что не намекаю , но мне кажется нынешние максвеллы и паскали запускать игры будут на куда более дальней дистанции.Если конечно не будет резкого скачка в новых картах в РТ, что от обычного рендера тупо все откажутся ибо не будет актуальным
Тесселяция не игру запускать мешает, а fps душит, немного разные вещиникакая тесселяция на дно Гаваи ее не утянула
Чё значит не стал лол? Он ушёл на опенсорс(что автоматом означает что какие-то наработки оттуда могут использоваться сейчас где угодно, в какой угодно игре) и по умолчанию сейчас на CPU вообще работаетникакой аппаратный физикс (ака хуанговский "RTX on") так и не стал неким стандартом
А "Хуанговский" RTX ничего кроме денойзера как бы не имеет, при этом этот денойзер и на АМД запускается, просто медленнее
Хорошо, кто HBAO и HBAO+ разработал? А физиксом раньше Agea занималась которая хотела продавать свои ускорялки для него, код то был переписан под NV GPU, это типо за разработку не считается?не надо HBAO и физикс приводить в пример, и то и другое разработано не нвидией
В жизни или конкретно в игровой индустрии? У нас как бы DirectX проприетарен, а это де факто стандарт.Если в жизни, то в видеокодирование например окунись, h264, h265 это проприетарные стандарты за которые бабло нужно было платить если что, а используется h264 сколько там уже лет? За десяток уже перевалилоникогда проприетарные решения не становились стандартом
Я как бы не просто так ограничитель в драйвере на AMD упомянул, что тут с ним? Падние я вижу на 20fps от включения, что они там оптимизировали то если по этим например тестам оно также проседает на 20 кадров? Патч 1.31 вышел в 2017 году если что, а видео 15 годапоказать, как это дело работало через год на гаваи, которая в тесселяции не блистала?
Spoiler
У AMD её Geometry engine выполняет если что, так и перевел "геометрический движок"лол, как ты геометрию с тесселяцией увязал?
Spoiler
Spoiler
Да кто отрицает то? Я прекрасно понимаю что под "Geometry Engine" у AMD скрывается не один нищий ALUЗа них отвечают разные блоки, на секундочку
По поводу Q2RT-нет ссылок, не вижу смысла что-то обсуждать, я сам посмотреть что там было и как оно было реализовано не могу
Что значит удобный для хуанга? Ускорение через BVH это удобный для всех метод включая AMD .Его практикуют ещё с зари применения RT когда ни о каком аппаратном ускорении отдельными ядрами речи не шлото есть если реализация не через метод, удобный для хуанга
Трассировка через BVH это не какой-то проприетарный метод .Софтверная же трассировка это мусор по умолчанию ибо столько лучей отрендерить в реальном времени тупо сложно и потребуется наращивание огромного массива ALUдопустим к использованию только тот метод, в котором невидия быстрее амуде?
Поэтому и NV и AMD и Intel пошли по пути отдельных блоков
Теперь ты понял почему сравнивать игры с гибридной реализацией и полной тупо? .Я ведь не просто так это всё выше про пузыри писалтем показательнее
Конкурировать где? В растре? Я на тему превосходства в растре вообще спорить не хочу т.к потеряется нить диалога и не с этого начали, но даже в нём с чего ты взял что при растре ВСЕГДА упор в скорость Vram и что NV именно на этом должна выезжать в нём?минуточку, я хотел бы напомнить, что радеоны умудряются конкурировать
Вопрос если что риторический, отвечать на выпады по этой теме я больше не буду, разговор не об этом
Poclmem судя по тому что на гитхабе скорость Vram считает, а не кэша .Скорость кэша ты никак не можешь узнать(именно в гигабайтах,мегабайтах), никакими средствами профайлинга оно не отслеживаетсяэлементарно
А как же Godfall в котором РТ тупо не работал на NV до определенного момента?интересно, почему такие вещи происходят только в играх с зеленым логотипом?
Стрелочка не поворачивается или как?
Потому-что геймдев по другому функционирует не?что с игровыми разработчиками может буть иначе?
Ну так а где падение то на 20%? Без RT карта жрёт 220 с недогрузом, с RT 250 в среднем(то есть свой потолок как у референса насколько я понял)А с лучней и нагрузило карту, вот жор и вырос.
20% от 250 это 50, то есть с RT если там так сильно падает жор оно должно есть даже меньше чем без него , а такого не происходит
Абсолютные данные вычисляются в идеальных условиях когда будут работать только RT ядра.Если хочешь узнать какая максимально возможная мощность конкретно RT ядер с минимальным влиянием растра, то варианты я уже предложилну давай, покажи абсолютные данные о производительности Рт-ядер амд и невидии
1.3dmark directX Full Path tracing test
2.Выше моё сообщение со скомпелированным DirectX raytracing features sample, подробно расписывать в этом сообщении не буду, проверяй то что выше было
3.Quake RTX.Если так ненавидишь денойзер NV и считаешь что он садит, его вырубить можно.Проприетарной реализации RT там нет с патчем 1.6 кажется, VK_NV_ray_tracing оттуда выпилили и остались VK_KHR_ray_tracing_pipeline и VK_KHR_ray_query упрекнуть которые в том что их NV писала под себя может только идиот, там куча авторов не с NV Правда в двух последних случаях придётся найти кого-нибудь с 3080 чтобы сравнить
Last edited by Maillog on 07 Jun 2022, 23:39, edited 1 time in total.
Re: Radeon vs GeForce, AMD vs Intel и так далее - тесты и бенчи
RadeonForce wrote: ↑07 Jun 2022, 15:29 что тут интел забыл? Уже давно это не так. Тут интересно другое: сколько выходило игр, подстроенных под амд - у зеленых фиаско. Игры, подстроенные под нвидиа - так амд там пободаться еще может. В этом разница - чуть разрабы отойдут от методички, у зеленых сразу же неприятности. Амд же более универсальны (касается растеризации, разумеется)
Всё то же. Иногда забывают оптимизировать под амд.
https://3dnews.ru/990421/destiny-2-ne-r ... pravleniem
Ты носишься с какими то левыми примерами, выдавая это за какое то вымышленное "фиаско" зелёных
В играх, где амд занесла чемоданы, там как раз зелёные могут вполне бодаться с амд. Яркий пример, где я тебя уделал: покрасневшая Вальгалла, так же Фаркрай 6. Не смотря на красноту последних 2х игр, мне удалось вырваться вперёд.
Зато у тебя не единого шанса показать адекватный фпс в Киберпанке или в Стражах Галактики, именно зелёные более универсальные в плане любых игр, а вот у амд периодические провалы.