Флагманська відеокарта GeForce RTX 5090 протестована в Geekbench

Обсуждение статей и новостей сайта
Автор
Сообщение
fantomrulezz
Member
Аватара пользователя
Откуда: Дніпро

Сообщение

Scoffer: 18.01.2025 03:04
fantomrulezz: 17.01.2025 15:24600 Вт жору (sic!).
Я не знаю, це капець просто якийсь. А головне ще й знаходяться персонажі, котрі цей жор захищають :-/
Мені вже зараз некомфортно з 450 Вт, це прям робить неможливою гру влітку без кондиціонера.
І це в мене величезний ультратауер, як люди в мідітауери 4090 вставляли і ті 450 Вт з корпусу виводили я взагалі не уявляю.
600 Вт - це реально вже просто неадекватний рівень для ігрової карти.
Причому з тих 600 Вт під сотню жере пам'ять, якої для ігрової карти нафіг не потрібно 32 гіга.
Аби ж була як раніше окремо 5090 32 для роботи як бомж квадро і 5080 ti 16 на тому ж чипі для ігор - було б ок.
Але ніт, хочеш грати в 4К на ультра, переплати окремо за нафіг непотрібну тобі пам'ять і офігівай від додаткового жору.

Реально 5xxx якесь всрате покоління.
В 5090 фактично +30% продуктивності за +30% жору, оптимізація, енергоефективність - забудьте.
5080 і нижче ще гірше, мізерний приріст, величезний розрив з флагманом.
Прогрес помер, скоро буде як з інтелом в часи відсутності конкуруючих проців +5% в рік.
Earanak
Member
Аватара пользователя
Откуда: Украина

Сообщение

У меня несколько рендер нод рендрили летом с 3090+4090, в комнате ~7x3.5м я не испытывал никаких проблем, ну конечно если закрыть окна и двери в комнате летом то - да, наверное это стало бы проблемой )) Правда корпусов у меня не было, компы на открытых стендах. Вообще в Ютубах видал как пачками майнеры ставили 100500 видях у себя в мелкой комнате рядом с рабочим местом и вроде как даже выжили после этого )) Ну мне и самому не в кайф что видяхи жрут много, но мне вот не видится это большой проблемой. Это вот кто собрался запихнуть 5090 в mini-ITX корпус - это вот им переживать стоит :D

Отправлено спустя 8 минут 50 секунд:
fantomrulezz: 18.01.2025 11:48В 5090 фактично +30% продуктивності за +30% жору, оптимізація, енергоефективність - забудьте.
5080 і нижче ще гірше, мізерний приріст, величезний розрив з флагманом.
Я бы назвал ее RTX 25%
Ведь +25% объема памяти +25% чистой производительности +25% жора +25% MSRP - все сходится :gigi:
oversteve
Member
Аватара пользователя
Откуда: Ukraine

Сообщение

Earanak: 18.01.2025 12:02 Это вот кто собрался запихнуть 5090 в mini-ITX корпус - это вот им переживать стоит :D
дуже часто в нормальних ітх корпусах з охолодженням все краще, ніж у великих гробах, бо стінки-решето майже в притул до радіаторів і не треба сильно заморочуватись із організацією циркуляції повітря, там скорше проблема чисто по габаритах попхати те чи інше залізо
5090 фе з наскрізним продувом в якійсь консолі типу фрактал рідж буде взагалі зашибісь
Plush_Dragon
Member

Сообщение

Hotspur: 17.01.2025 19:10 питання ціни :rotate: . у АМД немає карт за 2000 доларів не корпоративного сегменту
В тебе хіба питали за ціни? Чи ти знаєш товщину гаманця кожного кому тут відповідаєш?
Тебе запитали що твоя ідолка Ліза СУчка, сестра Хуанга, може запропонувати рівня 5080?
oversteve
Member
Аватара пользователя
Откуда: Ukraine

Сообщение

Nutbar: 18.01.2025 01:35 Але в категорії 5090 грають такі карти:
Titan X Pascal - $1200, 250Вт
Titan RTX - $2500, 280Вт (+60% продуктивність + RTX, +50% ефектівніть, +100% пам'яті, +100% ціни)
3090 Ti - $2000, 450Вт (+50% продуктивність, 0% ефективність, +0 пам'яті, -20% ціни)
4090 - $1600, 450Вт (+40% продуктивність, +30% ефективність, +0 пам'яті, - 20% ціни)
5090 - $2000, 575Вт (+30 продуктівність, +0 ефективність, + 33% пам'яті, +25% ціни)

Абсолютно жахлива карта, ніякого прогресу ефективності не відбулося, найгірший приріст фпс. Хіба тільки радіатор справді крутий зробили. Ціна треш, в очі насцяли генерацією.
навіть якщо так, порівняно з Titan RTX і ростом ціни на 110% і продуктивності лише на 60%, то у 5090 все не так погано :dontknow:
і де там +50% ефективність, якщо РТХ жер більше за Х
Kashtan
Member
Аватара пользователя
Откуда: Яготин

Сообщение

Earanak: 18.01.2025 11:26
Timedemo: 18.01.2025 11:00Где тебе 24 не хватало?
Да почти в каждом проекте в UE5 с которым я дело имел...
Это архивиз (не реалтайм), экстерьеры - жилых комплексов, набережных, парков и тд... Вечно траты времени а самое важное сил и мотивации на распил по Level-ам/World Partition-ам, выгрузка слоев в MRQ с сбросом памяти, пакетный рендринг. Вечный ужим текстурок, то часть бюджета текстур в RVT/SVT выгружается, часть под миппмаппинг душиться, полигонаж у ассетов растений вечно заоблачный (а Наниты все еще не панацея), те же дурацкие EXR-Параллаксы тяжелые. Да мне собственно и 64гб видеопамяти не хватало бы на все про все. Но чем памяти больше тем меньше этой духоты. Ну еще PathTracer душит прилично, так как не работает с МешФоллбеками от Нанитов адекватно, что само по себе повышает нагрузку на видеопамять значительно. Да и снова таки Куллинг под PT настраивать надо аккуратно.

Тут важно понимать специфику архивиза, тут нету времени да и сил все оптимизировать, пока будешь оптимизировать одно, в правках на это место может прилететь уже что-то другое :gigi: Да к тому же у нас контора упарывается по озеленению сцен, 100500 уникальных растений наш дендролог выписывает и схалявить никак нельзя воткнув какой то ассет с маркетплейса рандомный но легкий. Приходиться идти на какой нить 3D-Sky/Evermotion/MaxPlant и фигачить прям в Анриал растения по 10-20кк трисов. В итоге в сцене 150 видов растений с рассадкой многолетников и тд... Никакие Наниты и PCG не спасают. Постоянно скованный видеопамятью. Движок умеет выгружать VRAM в GPU Shared Memory, но чем больше туда выгружает тем сильнее замедляется рендер, тем чаще он вылетать начинает и самое неприятное тем чаще начинают артефакты лезть. Т.е выгрузить допустим 10гб в ОЗУ - еще терпимо, 15гб - уже проблемно, больше 20гб уже фиг порендришь нормально. Помню как меня на первом проекте просили срендрить панорамы в Анриале, там вообще СМЭРТЬ - https://i.imgur.com/GOuW7iB.jpg :lol: Потому что Куллинг системы перестают работать.

Думаю стоит отметить, что использование Анриала для этих задач все еще спорный/обсуждаемый момент. Много писать не хочу по этому поводу, есть много плюсов и минусов у UE5... Но все еще большая часть видео у нас делается в Corona Render, а временные затраты на рендер компенсируем с помощью рендер-фермы. Но UE5 так быстро развивается, конкретно под наши нужды, что уже приходится эту тему прощупывать. Я вот в студии один из прощупывателей :D
NVLink має здатність об’єднувати відеопамять. У ампер був нвлінк. Чи не доцільніше з погляду збільшення об’єму відеопамяті - 2 штуки 3090ті під нвлінк в системі? 48 Гб. Це суто погляд теоретика.
Earanak
Member
Аватара пользователя
Откуда: Украина

Сообщение

Kashtan, не. Это так не работает. Память инклюзивная, общий пулл поддерживают только GPU рендеры и то далеко не все, и то не полноценно. Например RedShift может делать общий пулл и с каждой видяхи выделять на него порядка 85% места, но эффективность рендера падает плюс некоторые эффекты не поддерживаются. В последний раз я видел как пытались там рендрить волюметрики и там всплывал вагон нюансов. В UE5 с mGPU все еще сложнее. Легче сказать что его нету там чем он есть. То есть в Люмене его вообще в принципе нету что с nVlink что с SLI, да без разницы. А в PT он есть с большими ограничениями и без общего пулла. То есть ускорить PT рендер можно, но толку от этого немного. С другой стороны в UE5 есть вагон механизмов куллинга (100500 настроек), куча видов компрессии, потоковых подгрузок настраеваемых, удобные инструменты по оптимизации. И так далее и тому подобное, но это все душит и ближе к концу проекта сил и времени на красоту не остается.

Есть еще такая штука когда рендрят тайлами, т.е каждая видяха свой кусок изображения рендрит, это конечно немного снижает потребление памяти, но в то же время гробит многие эффекты которые требуют аккумуляции кадров, или эффекты которые не умеют синхронизироваться, например Niagara, FluidFlux, UltraDymanicSky полную фигню рендрят при этом... Да в общем то этим делом занимаются многие сейчас, если были бы простые решения все бы уже об них знали :-/ Сейчас самое простое решение это A6000 48GB (которая не Ада а старая которая уровня 3090) ее Б/У за 2к баксов можно нарыть ))
Последний раз редактировалось Earanak 18.01.2025 13:09, всего редактировалось 4 раза.
Kashtan
Member
Аватара пользователя
Откуда: Яготин

Сообщение

fantomrulezz: 18.01.2025 11:48
Scoffer: 18.01.2025 03:04
Я не знаю, це капець просто якийсь. А головне ще й знаходяться персонажі, котрі цей жор захищають :-/
Мені вже зараз некомфортно з 450 Вт, це прям робить неможливою гру влітку без кондиціонера.
І це в мене величезний ультратауер, як люди в мідітауери 4090 вставляли і ті 450 Вт з корпусу виводили я взагалі не уявляю.
600 Вт - це реально вже просто неадекватний рівень для ігрової карти.
Причому з тих 600 Вт під сотню жере пам'ять, якої для ігрової карти нафіг не потрібно 32 гіга.
Аби ж була як раніше окремо 5090 32 для роботи як бомж квадро і 5080 ti 16 на тому ж чипі для ігор - було б ок.
Але ніт, хочеш грати в 4К на ультра, переплати окремо за нафіг непотрібну тобі пам'ять і офігівай від додаткового жору.

Реально 5xxx якесь всрате покоління.
В 5090 фактично +30% продуктивності за +30% жору, оптимізація, енергоефективність - забудьте.
5080 і нижче ще гірше, мізерний приріст, величезний розрив з флагманом.
Прогрес помер, скоро буде як з інтелом в часи відсутності конкуруючих проців +5% в рік.
Ультратауер це профільний космос 2?
160 літрів так, багато.
Але він надзвичайно погано обдувається.
Це іміджевий продукт, а не для охолодження компонентів у ньому.
Там просто повинно все перегріватись.
Хоча у Блеквелл досконала повітряна СО.
Він точно повинен менше грітись ніж Ада ловелас не зважаючи на більше споживання.
І кому мало - сво із зовнішнім радіатором це відповідь на всі питання. І менші температури і шум. І байдуже який корпус, аби влізла відеокарта.
Volodya811
Member

Сообщение

Scoffer: 18.01.2025 03:04
Volodya811: 18.01.2025 00:30Архітектура майже без змін
Відяха це програмно-апаратний комплекс. Програмна частина, а саме dx12 i cuda не змінюються доволі давно. Яких ти змін очікуєш від апаратної частини?
Як винайдуть якийсь новий графічний конвеєр в dx13, тоді і будуть зміни.
Ви погано стежите за розвитком архітектур відеокарт. Порівняйте архітектури NVIDIA GeForce GTX 770 і NVIDIA GeForce GTX 960, які виконані на одному і тому ж техпроцесі ТМСЦ 28 нм і приблизно однакові за продуктивністю. 2015 рік - це був величезний прорив від Нвідіа з архітектурою Максвел, і важкий удар по АМД, від якого вона до цього дня не може відійти.
А що далі? А далі Паскаль - це Максвел на новому техпроцесі (без суттєвих змін архітектури). Потім ще один стрибок в архітектурі з Тюрінгом у 2018 році, коли у базовій архітектурі Максвел були "прибрані" слабкі місця і "подвоєна" кількість куда-ядер. Далі, змін в архітектурі майже не було. Єдине, що Нвідіа удосконалює - це RT. Глобально архітектура така сама, як і була в 2018 році. Більше того, навіть медіакодер не можуть покращити з 2018 року. Якість кодування однакова. Правда, у 5000-й серії її обіцяють покращити на 5%.
kairo
Member
Аватара пользователя
Откуда: Україна

Сообщение

Геральт: 18.01.2025 10:07 Рахунки зростуть десь на 100грн/міс при поточному тарифі.
Щоб рахунки зросли на 100 грн на міс, треба грати по 36 годин на тиждень в ігри, яку зможуть максимально навантажити 5090. Тобто по 5 годин на день, кожен день.

В цілому, ігровий ПК із 5090 буде споживати ~0,8 кВт при максимальному навантаженні(0,6 ГПУ, 0,1 ЦП, 0,05 інше, 0,05 монітор). Тобто одна ігрова година буде виходити - 3,5 грн. І це при ціні однієї чашки капучино в 40-55 грн.
Последний раз редактировалось kairo 18.01.2025 13:19, всего редактировалось 1 раз.
Earanak
Member
Аватара пользователя
Откуда: Украина

Сообщение

5 часов в день играть, это не серьезно как то https://i.imgur.com/3rEIFjV.png :lol:
...
Я бы мог сказать что я гигачад фармер РМТ-ешер, заработал миллионы за эти 200 часов, но на самом деле я просто строил заводы в Factorio Space Age DLC :gigi:
Последний раз редактировалось Earanak 18.01.2025 13:26, всего редактировалось 1 раз.
kairo
Member
Аватара пользователя
Откуда: Україна

Сообщение

Earanak: 18.01.2025 13:19 5 часов в день играть, это не серьезно как то https://i.imgur.com/3rEIFjV.png
По 15 годин на день :lol:
oversteve
Member
Аватара пользователя
Откуда: Ukraine

Сообщение

Earanak: 18.01.2025 13:19 5 часов в день играть, это не серьезно как то https://i.imgur.com/3rEIFjV.png :lol:
це прям як робота студіків на галері, тільки граєш в ігри :D
Scoffer
Member
Аватара пользователя

Сообщение

Volodya811
Якщо ти подивишся блок-схеми всіх сучасних відях, то зненацька виявиш шо вони клони. На високоблочному рівні амд від нвідії важко відрізнити і інтел прямує туди ж. А все тому що для поточного програмного стеку поточний апаратний стек є оптимальним. А ти хочеш принципову різницю між нвідіями. GTX700 це перша імплементація дх12, тоді ще не знали точно як робити.
Наступні зміни в апаратці будуть синхроно зі змінами програмної сторони.

Відправлено через 56 секунд:
fantomrulezz: 18.01.2025 11:48Мені вже зараз некомфортно з 450 Вт, це прям робить неможливою гру влітку без кондиціонера.
Влітку я грав на 4070ті і це прямо межа, та і то хотілось би поменше. Комп з 4090 навіть не врубав.

Відправлено через 2 хвилини 23 секунди:
Volodya811
А хоча стоп, gtx700 це ще dx11. Тим паче.
feniks_tm
Member
Аватара пользователя
Откуда: Луцьк

Сообщение

erkins007: 18.01.2025 05:18
feniks_tm: 18.01.2025 02:17 безліч фейкових кадрів за допомогою LFSG
Это все равно что отвечать зачем вам 9800х3д, есть же селерон.
Даже очень ранние обзоры говорят что длсс4 при генерации почти не увеличивает задержку и даёт гораздо меньше артефактов чем третья версия.
Ну так і не зменшує ж, який сенс з 200фпс з відгуком як у 60. Вам же грати, а не дивитись з-за чиєїсь спини. Порівняння з 9800х3д взагалі ні про що. І так, сам DLSS4 буде доступний і для 40 серії, не буде доступний саме цей непотріб під назвою MFG.
спойлер
Изображение
Последний раз редактировалось feniks_tm 18.01.2025 13:34, всего редактировалось 2 раза.
kairo
Member
Аватара пользователя
Откуда: Україна

Сообщение

До речі зрозумів, чому мені взагалі байдуже на вихлоп із ПК. Я ж із геймпадом більшість ігор граю на ТВ, який в мене дублює монітор. А коли граю в якісь стратегії за ПК, там карта споживає ~100 Вт. Ще в багатьох якесь неправильне уявлення про споживання. Пишуть так, ніби ти включив ПК і вже карта 600 Вт жере. В браузингу в мене наприклад +-20 Вт. В геймінгу, все залежить від конкретної гри, десь 100 Вт, десь 250, інколи всі 450, але це досить рідко. В вимогливих іграх 4090 споживає в середньому 300-350 Вт. І це без андервольта.
Timedemo
Member
Откуда: Ненька Украина

Сообщение

Earanak: 18.01.2025 11:26
Timedemo: 18.01.2025 11:00Где тебе 24 не хватало?
Да почти в каждом проекте в UE5 с которым я дело имел...
Это архивиз (не реалтайм), экстерьеры - жилых комплексов, набережных, парков и тд... Вечно траты времени а самое важное сил и мотивации на распил по Level-ам/World Partition-ам, выгрузка слоев в MRQ с сбросом памяти, пакетный рендринг. Вечный ужим текстурок, то часть бюджета текстур в RVT/SVT выгружается, часть под миппмаппинг душиться, полигонаж у ассетов растений вечно заоблачный (а Наниты все еще не панацея), те же дурацкие EXR-Параллаксы тяжелые. Да мне собственно и 64гб видеопамяти не хватало бы на все про все. Но чем памяти больше тем меньше этой духоты. Ну еще PathTracer душит прилично, так как не работает с МешФоллбеками от Нанитов адекватно, что само по себе повышает нагрузку на видеопамять значительно. Да и снова таки Куллинг под PT настраивать надо аккуратно.

Тут важно понимать специфику архивиза, тут нету времени да и сил все оптимизировать, пока будешь оптимизировать одно, в правках на это место может прилететь уже что-то другое :gigi: Да к тому же у нас контора упарывается по озеленению сцен, 100500 уникальных растений наш дендролог выписывает и схалявить никак нельзя воткнув какой то ассет с маркетплейса рандомный но легкий. Приходиться идти на какой нить 3D-Sky/Evermotion/MaxPlant и фигачить прям в Анриал растения по 10-20кк трисов. В итоге в сцене 150 видов растений с рассадкой многолетников и тд... Никакие Наниты и PCG не спасают. Постоянно скованный видеопамятью. Движок умеет выгружать VRAM в GPU Shared Memory, но чем больше туда выгружает тем сильнее замедляется рендер, тем чаще он вылетать начинает и самое неприятное тем чаще начинают артефакты лезть. Т.е выгрузить допустим 10гб в ОЗУ - еще терпимо, 15гб - уже проблемно, больше 20гб уже фиг порендришь нормально. Помню как меня на первом проекте просили срендрить панорамы в Анриале, там вообще СМЭРТЬ - https://i.imgur.com/GOuW7iB.jpg :lol: Потому что Куллинг системы перестают работать.

Думаю стоит отметить, что использование Анриала для этих задач все еще спорный/обсуждаемый момент. Много писать не хочу по этому поводу, есть много плюсов и минусов у UE5... Но все еще большая часть видео у нас делается в Corona Render, а временные затраты на рендер компенсируем с помощью рендер-фермы. Но UE5 так быстро развивается, конкретно под наши нужды, что уже приходится эту тему прощупывать. Я вот в студии один из прощупывателей :D
понял. :up:
Melofon
Member
Аватара пользователя
Откуда: Николаев

Сообщение

В Vulkan-тесте Geekbench видеокарта GeForce RTX 5090 набирает на 26-37% больше баллов, чем глава семейства Nvidia Ada Lovelace.

Не знаю как там автор статьи считал, но по таблице видно максимум 27% разницы, если 5090 считать за 100% то у 4090 73%, какие тут могут быть 37% ? :think:

В случае OpenCL-бенчмарка прирост не настолько большой. Здесь новинка оказалась примерно на 7-15% быстрее модели GeForce RTX 4090.

Тут тоже судя по таблице максимум 14% максимум т.к. у 4090 86%.
kairo
Member
Аватара пользователя
Откуда: Україна

Сообщение

Melofon: 18.01.2025 13:39 Не знаю как там автор статьи считал, но по таблице видно максимум 27% разницы, если 5090 считать за 100% то у 4090 73%, какие тут могут быть 37% ? :think:
4090 на 27% слабша за 5090. (359 607 - 27% = 262 487)
5090 на 37% сильніша за 4090. (262 487 + 37% = 359 607)
Volodya811
Member

Сообщение

Scoffer: 18.01.2025 13:29 Volodya811
Якщо ти подивишся блок-схеми всіх сучасних відях, то зненацька виявиш шо вони клони. На високоблочному рівні амд від нвідії важко відрізнити і інтел прямує туди ж. А все тому що для поточного програмного стеку поточний апаратний стек є оптимальним. А ти хочеш принципову різницю між нвідіями. GTX700 це перша імплементація дх12, тоді ще не знали точно як робити.
Наступні зміни в апаратці будуть синхроно зі змінами програмної сторони.

Відправлено через 2 хвилини 23 секунди:
Volodya811
А хоча стоп, gtx700 це ще dx11. Тим паче.
Блоки - це добре. Питання в тому, а що всередині блоків. У Інтела нова архітектура схожа за блоками на 4000-ну серію, але ж не дотягує. Будьмо чесними. Можливо, Хе3 наздожене за ефективністю та продуктивністю, а можливо, уже і Хе4. АМД також не дотягує. І, нагадаю, що базова архітектура сучасних карт Нвідіа - це 2018 рік (архітектура Тюрінг). Це для розуміння того, наскільки великий прорив зробила Нвідіа у 2015 році з Масквелом.
П.С. gtx700 підтримувала dx12, хоча і не повністю усі функції. Повна підтримка з'явилася лише у 2018 році з Тюрінгом.
Ответить