Флагманська відеокарта GeForce RTX 5090 протестована в Geekbench

Обсуждение статей и новостей сайта
Автор
Повідомлення
Earanak
Member
Аватар користувача
Звідки: Украина

Повідомлення

feniks_tm: 18.01.2025 13:29який сенс з 200фпс з відгуком як у 60.
Я недавно уже отписывался в таком же ключе по этому моменту на форуме.
Если вдруг это было вам же адресовано - сорян. Я прост склерозный и не помню кому и где отвечал :lol:
Ну например...
в Elden Ring в этом есть смысл. Потому что если разлочить FPS модом то Античит тебя выпрет из онлайна. А если разогнать FPS через Lossless Scaling у тебя хоть и останется задержка от 60FPS... Но по крайней мере пока ты носишься 50% времени в игре по пустым локациям и вечно осматриваешься по сторонам картинка плавной будет. Прошел DLC все с таким разгоном FPS, все кайф. Ну если еще взять пиратку Тарковка (SPT-AKI) она оч фигово оптимизирована, и ФПС там гуляет от 60 до 160, а генерацию кадров можно залочить на х2 режим, таким макаром при просадках ты не получаешь рванную картинку а как бы инпут лаг повышается в моменты просадок. Это сложно объяснить на пальцах, но лично мне прям значительно легче с этой штукой. В Dragons Dogma 2, за городом 140FPS, в крупном городе до 45FPS просадки. Но в городе не важен тот Инпут лаг а генерация кадров спасает восприятие. В каком нить Dark Souls 1-2/Skyrim-Fallout вообще FPS привязан к физической модели сцены, если его разлочивать то начинают ломаться игровые механики привязанные к ФПС-у, а с разгоном фпс-а через тот же Lossless Scaling - норм становится. Играть в эти игры на 60FPS лично мне больно :dontknow:

Ну еще из редких специфических штук, когда лочат фпс и разгоняют его под экономию питалова. Ну вот когда у нас свет отключали после обстрелов я сидел играл с зарядной станции, трилогию Хитманов прошел разгоняя 45FPS до 165, удерживая потребление видяхи в районе 165вт и проца до 70вт. Не сказать что игра требовательная инпутлагу. Ходишь бродишь себе придушивая всех )) Прост врубил х3 режим в Lossless Scaling и норм.

В общем можно найти примеры где генерация - ОК и пофиг на тот инпут лаг. Но я понимаю что это специфические расклады. Конечно же большинство игр непригодны под эту штуку. Есть игры где как бы на грани комфорта с кучей нюансов типа Киберпанка. Есть игры типа Колды где это в принципе неприемлемо (на мой взгляд). В каком нить Сталкере 2 это тоже спорным моментом может быть. Мне например - норм было с фреймгеном. А кто-то видите ли по собакам не может с фреймгеном попадать ))

Прикольно что это доп.опция, и каждый может это по своему юзать.
Неприкольно что под эту срань могут игры начать оптимизировать.
Востаннє редагувалось 18.01.2025 13:58 користувачем Earanak, всього редагувалось 4 разів.
Volodya811
Member

Повідомлення

Melofon: 18.01.2025 13:39 В Vulkan-тесте Geekbench видеокарта GeForce RTX 5090 набирает на 26-37% больше баллов, чем глава семейства Nvidia Ada Lovelace.

Не знаю как там автор статьи считал, но по таблице видно максимум 27% разницы, если 5090 считать за 100% то у 4090 73%, какие тут могут быть 37% ? :think:

В случае OpenCL-бенчмарка прирост не настолько большой. Здесь новинка оказалась примерно на 7-15% быстрее модели GeForce RTX 4090.

Тут тоже судя по таблице максимум 14% максимум т.к. у 4090 86%.
Різниця буде 5-20%. А якщо 4090 трохи розігнати, то ще й менша. Сенсу у 5090 для ігор з таким "зростанням" продуктивності немає. Для роботи, за рахунок 32 ГБ пам'яті - сенс є.
Earanak
Member
Аватар користувача
Звідки: Украина

Повідомлення

Хотел бы я сказать - а вдруг 5090 тоже разгоняется !
Но потом вспомнил что там и так 600вт TGP...
Интересно на 3000Mhz GPU будет там 1000вт ? :gigi:
Scoffer
Member
Аватар користувача

Повідомлення

Volodya811: 18.01.2025 13:51П.С. gtx700 підтримувала dx12, хоча і не повністю усі функції. Повна підтримка з'явилася лише у 2018 році з Тюрінгом.
gtx700 вийшла в 13му, дх12 вийшла в 15му
Feature Level 11_0 це не "не повністю всі функції", це майже ніяких :D
kairo
Member
Аватар користувача
Звідки: Україна

Повідомлення

Моя 4090 збільшує продуктивність на 4-5% при додаткових 100 Вт жору, в розгоні)) По дефолту навпаки стоїть андервольт, десь на 1-2% менше продуктивність, але споживання ближче до 300-350 Вт.
Melofon
Member
Аватар користувача
Звідки: Николаев

Повідомлення

Nutbar: 18.01.2025 01:35
oversteve: 17.01.2025 19:28 не найслабший, з врахуванням ціни взагалі не самий поганий показник
2080ті вс 1080ті - продуктивність приріст 30%, ціна більше на 43%
3090ті вс 2080ті - продуктивність приріст 40%, ціна більше на 100%
5090 вс 4090 - продуктивність приріст 30%+-, ціна більше на 25%
Дивне поріняння. 3090 позиціонувалась як заміна Titan RTX, тож корректіше порівнювати 3080 з 2080 Ti. Так, саме звичайну 3080 без Ti, бо Ti була релізнута через рік.
В 2080Ti проти 1080Ti теж дещо забули: фпс з променями.

Отже, виходить скоріше так:
2080Ti vs 1080Ti - Приріст без променів 30%, з променями 1000%, ціна +43%.
3080 vs 2080Ti - Продуктивність приріст 30%, ціна МЕНША на 30%.

Але в категорії 5090 грають такі карти:
Titan X Pascal - $1200, 250Вт
Titan RTX - $2500, 280Вт (+60% продуктивність + RTX, +50% ефектівніть, +100% пам'яті, +100% ціни)
3090 Ti - $2000, 450Вт (+50% продуктивність, 0% ефективність, +0 пам'яті, -20% ціни)
4090 - $1600, 450Вт (+40% продуктивність, +30% ефективність, +0 пам'яті, - 20% ціни)
5090 - $2000, 575Вт (+30 продуктівність, +0 ефективність, + 33% пам'яті, +25% ціни)

Абсолютно жахлива карта, ніякого прогресу ефективності не відбулося, найгірший приріст фпс. Хіба тільки радіатор справді крутий зробили. Ціна треш, в очі насцяли генерацією.
Реально не понимаю каким боком тут Титаны к игровым картам? Ведь они больше для работы были созданы как более дешевая альтернатива профессиональным ускорителям, тем более что тишки тех времён даже уделывали титаны своего поколения если чуть подразогнать и стоили значительно дешевле, и кто вообще говорил что хх90 это замена титанам?
Востаннє редагувалось 18.01.2025 14:10 користувачем Melofon, всього редагувалось 2 разів.
feniks_tm
Member
Аватар користувача
Звідки: Луцьк

Повідомлення

Earanak: 18.01.2025 13:52
feniks_tm: 18.01.2025 13:29який сенс з 200фпс з відгуком як у 60.
Я недавно уже отписывался в таком же ключе по этому моменту на форуме.
Если вдруг это было вам же адресовано - сорян. Я прост склерозный и не помню кому и где отвечал :lol:
Ну например...
в Elden Ring в этом есть смысл. Потому что если разлочить FPS модом то Античит тебя выпрет из онлайна. А если разогнать FPS через Lossless Scaling у тебя хоть и останется задержка от 60FPS... Но по крайней мере пока ты носишься 50% времени в игре по пустым локациям и вечно осматриваешься по сторонам картинка плавной будет. Прошел DLC все с таким разгоном FPS, все кайф. Ну если еще взять пиратку Тарковка (SPT-AKI) она оч фигово оптимизирована, и ФПС там гуляет от 60 до 160, а генерацию кадров можно залочить на х2 режим, таким макаром при просадках ты не получаешь рванную картинку а как бы инпут лаг повышается в моменты просадок. Это сложно объяснить на пальцах, но лично мне прям значительно легче с этой штукой. В Dragons Dogma 2, за городом 140FPS, в крупном городе до 45FPS просадки. Но в городе не важен тот Инпут лаг а генерация кадров спасает восприятие. В каком нить Dark Souls 1-2/Skyrim-Fallout вообще FPS привязан к физической модели сцены, если его разлочивать то начинают ломаться игровые механики привязанные к ФПС-у, а с разгоном фпс-а через тот же Lossless Scaling - норм становится. Играть в эти игры на 60FPS лично мне больно :dontknow:

Ну еще из редких специфических штук, когда лочат фпс и разгоняют его под экономию питалова. Ну вот когда у нас свет отключали после обстрелов я сидел играл с зарядной станции, трилогию Хитманов прошел разгоняя 45FPS до 165, удерживая потребление видяхи в районе 165вт и проца до 70вт. Не сказать что игра требовательная инпутлагу. Ходишь бродишь себе придушивая всех )) Прост врубил х3 режим в Lossless Scaling и норм.

В общем можно найти примеры где генерация - ОК и пофиг на тот инпут лаг. Но я понимаю что это специфические расклады. Конечно же большинство игр непригодны под эту штуку. Есть игры где как бы на грани комфорта с кучей нюансов типа Киберпанка. Есть игры типа Колды где это в принципе неприемлемо (на мой взгляд). В каком нить Сталкере 2 это тоже спорным моментом может быть. Мне например - норм было с фреймгеном. А кто-то видите ли по собакам не может с фреймгеном попадать ))

Прикольно что это доп.опция, и каждый может это по своему юзать.
Неприкольно что под эту срань могут игры начать оптимизировать.
Та звісно, що є юзкейси, де воно ок і може навіть добре працює. Я тут скоріше від оберненого думаю, що з появою того MFG на оптимізон ще більше заб'ють і скажуть, щоб самі собі домальовували FPS :lol:
fantomrulezz
Member
Аватар користувача
Звідки: Дніпро

Повідомлення

Kashtan: 18.01.2025 12:57Ультратауер це профільний космос 2?
160 літрів так, багато.
Але він надзвичайно погано обдувається.
Це іміджевий продукт, а не для охолодження компонентів у ньому.
Там просто повинно все перегріватись.
В космосі 2 як раз чудові можливості для охолодження, але поганенькі комплектні вентилятори.
З коробки він не ідеал по охолодженню, а от якщо замінити вентилі на щось пристойне - близький до ідеалу.
Я замінив все на ноктюа.
Як вивести 700 Вт тепла з корпуса - це питання я вирішив.
А от сидіти поруч з 700 Вт-ним обігрівачем влітку не дуже комфортно.
Nutbar
Member
Звідки: Київ

Повідомлення

Melofon: 18.01.2025 14:05 Титаны к игровым картам? Ведь они больше для работы были созданы как более дешевая альтернатива профессиональным ускорителям, тем более что тишки тех времён даже уделывали титаны своего поколения если чуть подразогнать и стоили значительно дешевле
То яка більш дешева альтернатива професіональним картам в 3000 і 4000 серії? Чим саме титани відрізнялись від "ігрових" карт? Відповідь: більшим об'ємом пам'яті, так само, як 3090 і 4090. І 3080 так само можна було розігнати до рівня 3090, яка коштувала значно більше. В 4000 вперше з'явилась прірва.
Melofon
Member
Аватар користувача
Звідки: Николаев

Повідомлення

Nutbar

А вы заметили как хуанг убрал тишки (хх80ти)? уже у второго поколения их тупо нет а ведь раньше они топами считались, теперь же это хх90 и они не замена титанам а просто топовая карта у которой и должно быть памяти с запасом на несколько лет, и вот цитата с сайта инвидия - NVIDIA® TITAN RTX™ is designed for researchers, developers and creators. вот для кого они создавали титаны, она не считалась игровой, а сейчас хх90 это игровая карта на которой можно и поработать.
Tetronga
Member

Повідомлення

Scoffer: 18.01.2025 13:59
Volodya811: 18.01.2025 13:51П.С. gtx700 підтримувала dx12, хоча і не повністю усі функції. Повна підтримка з'явилася лише у 2018 році з Тюрінгом.
gtx700 вийшла в 13му, дх12 вийшла в 15му
Feature Level 11_0 це не "не повністю всі функції", це майже ніяких :D
По факту, на таких відяхах з дх12 програм тільки емулятор пс2 працює
Kullerok
Member
Звідки: Київ

Повідомлення

Я подумал и что в итоге понял. 99% мамкиных нытиков которым мало досыпали в 5 серии. Сидят и рассказывают что они будут сидеть до старости на своих 4070-90. И не будут в обозримом будущем их скидывать, хочу заметить плюс минус за адекватную цену. И брать 5 серию. Но если подумать ваш хлам когда выйдет 6 а то и 7 серия будет стоять копейки. А цена на карты 100% вырастет ещё больше. Всё-таки если есть возможность продать и докинуть на новую карту нужно это делать. И пофиг что там всего 30% досыпали.
Earanak
Member
Аватар користувача
Звідки: Украина

Повідомлення

Kullerok, жесть... Чувак. Попей чаю с ромашкой там или мятой. Все ок. Выдохни.
То что кто-то может себе позволить купить видяху или не может позволить это НЕ должно на твое эмоциональное состояние влиять. Остынь.
Telcontar
Member
Аватар користувача
Звідки: Чернiгiв

Повідомлення

Earanak: 18.01.2025 16:38 Kullerok, жесть... Чувак. Попей чаю с ромашкой там или мятой. Все ок. Выдохни.
То что кто-то может себе позволить купить видяху или не может позволить это НЕ должно на твое эмоциональное состояние влиять. Остынь.
Може людина в продажах залізяк працює і від цього залежить його добробут :shuffle:
pushpop
Junior

Повідомлення

Очікував набагато більше.
Запіхнули більше CUDA щоб легше було продати DLSS 4 з фейковими кадрами.
Сподіваюсь Intel та AMD зможуть розворушити монополію від Nvidia...
Відповісти