Огляд та тестування відеокарти ASUS TUF Gaming GeForce RTX 4090 OC Edition 24GB GDDR6X. Перша із Ada Lovelace

Обсуждение статей и новостей сайта
Автор
Повідомлення
Sofeno
Junior
Аватар користувача
Звідки: Кременчуг

Повідомлення

На другій сторінці в табличкі написано шо памяті 12 гб. Там же 24 вроді?
Aragoser
Junior

Повідомлення

Volodya811: 29.10.2022 10:39 А хто Вам сказав, що ядра в серії 4000 (Ада) значно кращі за ядра в серії 3000 (Ампер)? Це просто рефреш на турбо частотах із значно збільшеним кешем L2. Трохи пофорсили "промені" та й усе. Тому і прийшлось робити монструозні карти зі споживанням до 600 Вт. Бо, якби залишили частоту на рівні 2 ГГц, то отримали би +20-30% швидкості порівняно з Амперами. І це при тому, що кількість ядер значно збільшили.
В даному контексті йшла мова не про ядра CUDA, а про тензорні й RT-ядра. Саме про них в даній статті говориться:
Kassatka: 29.10.2022 00:33 "В нових GPU використовуються RT-ядра третього покоління та тензорні ядра четвертого покоління, швидкодія яких збільшилася у декілька разів відносно серії GeForce RTX 30."
"Швидкодія збільшилася у декілька разів" це все-таки не аби що. Ну а сама кількість тензорних ядер, судячи з порівняльної таблиці в статті, збільшилася десь на 30%, якщо кількість тензорних ядер 4090 порівнювати з 3090, а 4080 - з 3080.
Тому сумарна продуктивність тензорних ядер в 4000 поколінні має значно зрости, що в теорії повинно дати великий приріст в програмах, що використовують нейромережі.
От і дивно, що
Volodya811: 29.10.2022 10:39 2. Люди пишуть на форумах, що в Topaz Video Enhance AI 4090 дає лише 10% приросту порівняно з 3080 Ті.
Можливо дійсно потрібен патч на програму, щоб вона навчилася ефективно використовувати потужності Lovelace.
Volodya811
Member

Повідомлення

Aragoser: 29.10.2022 14:20
"Швидкодія збільшилася у декілька разів" це все-таки не аби що. Ну а сама кількість тензорних ядер, судячи з порівняльної таблиці в статті, збільшилася десь на 30%, якщо кількість тензорних ядер 4090 порівнювати з 3090, а 4080 - з 3080.
Тому сумарна продуктивність тензорних ядер в 4000 поколінні має значно зрости, що в теорії повинно дати великий приріст в програмах, що використовують нейромережі.
От і дивно, що

Можливо дійсно потрібен патч на програму, щоб вона навчилася ефективно використовувати потужності Lovelace.
Topaz Video Enhance AI не використовує тензорні ядра. Йому потрібні ядра Cuda. Потрібно розуміти, що програми з ШІ уже мають "натреновану систему", а ефективність тензорних ядер саме в "тренуванні". Для програм потрібно як можна більше звичайних ядер та пам'яті.
Звичайні ядра можуть вирішити будь яку задачу ШІ. Тензорні ядра - це спеціалізовані ядра.
KROOM
Member
Аватар користувача
Звідки: Днепр

Повідомлення

Однак, енергоспоживання залишилося на рівні попередника, тоді як швидкодія у 1,5-2 рази більша
поправочка - швидкодія у 4К :shuffle:
У 1080р та 1440р тестування, очевидно, не проводилося саме з цих міркувань, бо 13-15% приросту швидкодії при зростанні транзисторного бюджету х2,8 та такому приросту частоти виглядає, як мінімум, сумнівно....

Отправлено спустя 11 минут 13 секунд:
Звісно, мені зараз пояснять, що геймплей без променів "края крайние" та "дно полное", але швидко глянувши хотлайн... 6900ХТ - 30к, 3080 -30к, 4090-90к. Навіть не знаю :gigi:
Sunrise007
Member
Аватар користувача

Повідомлення

Kassatka: 29.10.2022 00:33порівнянні хоча б з Ampere, а бажано аж до Pascal
FastBullet
Member

Повідомлення

Пока не подешевеет RTX4090 до 5000 грн даже рассматривать не буду)))
Timedemo
Member
Звідки: Ненька Украина

Повідомлення

и всеравно 4к недоступен с лучами в панке без длсс.
ronemun
Advanced Member

Повідомлення

вони замість перехідника краще б окремий блок живлення дали, з автозапуском від основного через якийсь пін, +12в наприклад, як в майнінгу робили.
Враховуючи розміри зарашніх ноутбучних БЖ на 250W, і то безвентиляторних, на 600-700w поміщався б в долоню, і важив півкіло відсили. Можна було б на дно корпусу покласти та й усе. І 12v лінія була б короткою. А якщо б зробити як в смартфонах, коли зарядка розпізнає QC і автоматично переходить на 24/36/48 V, то систему живлення відяхи моглиб спростити в декілька разів, як в серверах Facebook/Cisco/Quanta і т.п.
Необхідно, щоб кожен потужний пристрій міг іти зі своїм БЖ. А то дійсно, невідомо скільки і коли якась відяха чи дві або проц будуть споживати і який запас БЖ брати.
Kassatka
Member
Аватар користувача
Звідки: Курник під Києвом

Повідомлення

Volodya811: 29.10.2022 10:39 2. Люди пишуть на форумах, що в Topaz Video Enhance AI 4090 дає лише 10% приросту порівняно з 3080 Ті. Можливо потрібен патч програми, можливо це пов'язано з ядром ПЗ. Треба чекати.
Дуже-дуже дякую за дану інформацію. Може дійсно з часом патч допоможе, але скоріш за все особливих чудес у цій сфері від 4000 серії можна не чекати.
Sunrise007: 29.10.2022 22:46
Kassatka: 29.10.2022 00:33порівнянні хоча б з Ampere, а бажано аж до Pascal
А за дане відео просто величезна подяка. Тепер маю змогу оцінити майбутню швидкодію саме RTX 3060, яку збираюся купувати. Згідно з цим тестом 90 хв відео буде апскейлитися з 480p до 1080p десь 4 години 11 хвилин при використанні моделі Artemis Medium Quality. Я використовую модель Gaia High Quality, яка десь вдвічі повільніша. Отже 90 хв відео буде апскейлитися на RTX 3060 десь в районі 8-9 годин. Це куди ліпше, ніж 20 хвилин відео апскейлиться цілу добу на GTX 960. Чудовий результат! :super: А то я раніше міг тільки гадати чи в рази, чи на порядок зросте швидкодія у RTX 3060 в порівнянні з GTX 960. Можна залишити апскейлитися відео на ніч, вранці буде результат, і не треба буде цілий день терпіти лаги. Бо коли Topaz займає всю потужність GPU, то такі лаги, що ні відео переглянути, ні найпростішу 3D-гру пограти, навіть текстовий курсор трохи лагає. Будь-який графічний інтерфейс раз у раз підвисає на частки секунди при завантаженому на 100% GPU. І якщо для проги, яка вантажить проц, можна задати у Windows низький пріоритет, то для проги, що вантажить GPU, це не спрацьовує. А то довелося б купувати відеокарту всліпу, не маючи ніякого уявлення про її швидкодію в Topaz. Так само як я купував всліпу процесор не знаючи, яка буде в нього швидкодія при збереженні зображень високої розподільної здатності в Photoshop в формат PNG з максимальним ступенем стиснення. І які процесори в цьому кращі - Intel, чи AMD. А це в мене зараз єдина задача, яка реально впирається в швидкодію мого Core i7-11700 процесора. Зараз хоча б знав, що купувати треба обов'язково тільки nVidia, бо з відеокартами Radeon на жаль Topaz Video Enhance AI взагалі не працює.

Отже RTX 3060 12 Гб буде напевно для мене найкращим вибором і не варто очікувати в моря погоди з RTX 4000 серії. Сподіваюся, за найближчі кілька місяців RTX 3060 12 Гб запаси не вичерпаються й ціни не зростуть. Ну і буде кілька переваг перед гіпотетичним аналогом 4000 серії:
  • - Енергоспоживання RTX 3060 не надто високе, а звідси повинно вистачити мого нинішнього Corsair RM650x 650 Вт і не треба споживати багато електроенергії в України.
    - Можна купити двокулерну, а не трикулерну модель, і цього цілком вистачить для достатнього охолодження. А отже не треба ставити в корпус дуже довгу відеокарту, через що довелося б вийняти з корпусу нижню корзину для 3,5" вінчестерів.
    - Пам'ять холодна GDDR6, а не гаряча GDDR6X. Гаряча GDDR6X створює ризик, що дорога відеокарта довго не прослужить і сконає десь якраз після закінчення гарантійного терміну.
І взагалі в мене майже не лишається надії, що в 4000 серії буде відеокарта з 12-16 Гб відеопам'яті, щоб не преміального класу за штуку баксів, а в прийнятну ціну в межах 20-30 тис. грн. А якщо і буде, то з дуже вузькою шиною, раз Хуанг мало не випустив 4080 з 192 біт, ну і звісно з гарячою GDDR6X. Ну і чекати довго, поки до її випуску черга дійде.
Якщо брати мої улюблені ігри, моддингом яких я можу тривалий час займатись, і до яких вийшли ремастери /ремейки, то RTX 3060 згідно тестів має забезпечити в 4K:
Rome: Total War Remastered: 38 FPS
Warcraft 3: Reforged: 77-80 FPS
Просто чудовий результат при тому, що для більш-менш нормального геймінгу в стратегії достатньо й 15 FPS. Інші сучасні графонисті стратегії дадуть десь такий самий результат. Отже з RTX 3060 в 4K буде приблизно двократний запас по FPS плюс запас по відеопам'яті. Для майбутніх ігор стратегій. І це на ультрах, а можна ж налаштування графіки й трохи понизити. Зараз моя нинішня GTX 960 4 Гб в найбільш вибагливих стратегіях дозволяє використовувати 4K при середніх налаштуваннях графіки, а деякі старі ігри на ультрах в 4K йдуть й ще 30 FPS видають! Переходити в 1080p чи в 1440p немає навіть потреби. Хоча добра частина ігор, які мене цікавлять, разраховані під стародавні 4:3 монітори й навіть Full HD не підтримують, не кажучи вже про 4K. На початку 2000-их цікавих стратегій, особливо RTS, в багато разів більше виходило, ніж зараз. Ну і багато навіть найсучасніших стратегій мають таку примітивну графіку, яка в 4K буде літати навіть на інтегрованому в проц відео, наприклад стратегії від Paradox, які впираються виключно в проц.
DLSS v3.0 для мене по факту непотрібна річ, якщо стратегії і так в 4K на ультрах видають вдвічі більше за мінімально прийнятні 15 FPS. І зараз немає жодної гри моїх жанрів, які б використовували трасування променів або DLSS. В майбутньому такою грою має стати Viking Citi Builder, а більше я по анонсам і не знаю поки що.
То навіщо мені гнатися за гіпотетичною RTX 4060/4060 Ti/4070? RTX 3060 12 Гб буде моїм наступним апгрейдом.
Volodya811: 29.10.2022 19:47 Topaz Video Enhance AI не використовує тензорні ядра. Йому потрібні ядра Cuda. Потрібно розуміти, що програми з ШІ уже мають "натреновану систему", а ефективність тензорних ядер саме в "тренуванні". Для програм потрібно як можна більше звичайних ядер та пам'яті.
Звичайні ядра можуть вирішити будь яку задачу ШІ. Тензорні ядра - це спеціалізовані ядра.
Що, справді? :eek: :eek: :eek: Я був упевнений, що хоч нетреновані, хоч натреновані нейромережі в першу чергу працюють на тензорних ядрах і тільки якщо їх немає, то тоді на звичайних ядрах типу Cuda. Тензорні ядра на ігрових відеокартах призначені Хуангом не для роботи софта, а для роботи на них DLSS. Наскільки я знаю, DLSS працює на тензорних ядрах, а на відеокартах без тензорних ядер DLSS не підтримується. DLSS - це якраз і є "натренова система", нейромережа, попередньо натренована на серверах nVidia для конкретних ігор, а використовується вже в натренованому вигляді за рахунок потужності тензорних ядер. І займається вона апскейлом зображень - кадрів гри. Topaz Video Enhance AI так само вже готова натренована нейромережа, яка займається апскейлом зображень - кадрів відеофайлу. І там, і там зображення в динаміці, DLSS v3.0 навчилася використовувати дані з сусідніх кадрів, не знаю, чи вміє це Topaz, чи просто апскейлить все тупо незалежними один від одного кадрами. То в чому взагалі принципова різниця між DLSS та Topaz Video Enhance AI, чому DLSS працює на тензорних ядрах, а Topaz на звичайних? Я бачу різницю тільки в тому, що нейромережа DLSS точно заточується під конкретну гру, а нейромережа Topaz розрахована на широкий спектр вхідних зображень. І DLSS налаштована на високу швидкодію в реалтаймі, а Topaz може апскейлити фільм у багато разів довше часу за тривалість фільму.
ronemun
Advanced Member

Повідомлення

Kassatka
dlss має всю геометичну інформацію вхідну: важливі/неважливі елементи в ігрі, всі грані, напрямки руху, швидкість і т.д., це як векторна графіка, також текстури не тре збільшувати - вони вже високої якості, йому легше, а у відеопотоці спочатку тре розпізнати грані, щоб їх не розмазати, швидкість і напрямки руху, в т.ч. з сусідніх кадрів, інтерполювати в часі і просторі, ніби розробити нову 3д сітку, і розбити кадр на текстури по краям сітки, а тоді вже збільшувати все решту. Саме тому так довго в другому випадку. І ясно що і там і там використовується нейромережа, але вона не єдина - обчислень простих теж дуже багато, адже необхідно підготувати параметри для нейромережі, а вона лише ваги для параметрів підбирає і порівнює кінцевий результат, і коли найде найкращий це значення і залишає, згідно нього і розрахується коефіцієнти і координати для граней і текстур, і так по колу.

Щоб всліпу не гадати з запчастинами тре дивитись таблиці:
АМД відео
Nvidia відео
Intel відео

Тре дивитись на стовпці Processing power (TFLOPS): single precision - це т.зв одинична, 32 біт, точність - основний параметр для розрахунків у графіці, але зараз вже часто графіку розраховують і на половинній точності - half. half добре йде для нейромереж, в АМД і Nvidia 2000 серії (Turing), його у 2 рази більше ніж single, саме тому АМД непогано рахує нейромережі при відсутніх нейромодулях. Але найкраще для нейромереж саме AI модулі, їх швидкість теж вказана в стовпці Tensor. Але тре розуміти що тензори є дууже різні - і по точності, 8/16/32, і по типу int, fp, tf і bf (це спецформати оптимізовані для AI), і старіші відяхи можуть не підтримувати оптимізовані сучасні, які на нових відяхах в десятки раз швидші

Nvidia A100 відносно V100 в 20 раз швидша в TF32 і Int8, а H100 ще в 9-30 раз швидше, залежно від моделі, саме тому китайці розхватують їх по 35тис. дол. за штуку
Wonderboy
Member
Аватар користувача

Повідомлення

На іншому форумі чувак поміняв 3090 на 4090 не з-за понтів, а тому що у VR літає. Дуже задоволений, каже якраз невеликої різниці у швидкодії і не вистачало. Ну і 16 гб відеопам'яті спокійно віджирає.
DarkLight
Member
Аватар користувача

Повідомлення

Для роботи 4090 дуже хороша. В рендерах та симуляціях в 2 раза швидша за 3090, при меншому енергоспоживанні і температурах. Шкода що Нвідія накосячили з новим 12VHPWR розємом, так була б ідеальна карта.
YumaX
Member
Аватар користувача
Звідки: Вараш

Повідомлення

Volodya811: 29.10.2022 19:47Topaz Video Enhance AI не використовує тензорні ядра. Йому потрібні ядра Cuda
Там використовується звичайний апаратний декодер NVDEC/NVENC, у AMD це UVD, для одного сімейства GPU він однаковий!
Kassatka для вас оптимальною була б 3050 або умовна 4050!
KROOM
Member
Аватар користувача
Звідки: Днепр

Повідомлення

Трішки оффтопу :shuffle: зважаючи на запити Хуанга при ціноутворенні, дивно, що він не здогадався ввести щомісячну абонплату, як розробники HaptX Gloves G1 (такі собі 🖐️для VR за 5,5к$, із обовязковим щомісячним платежем у 500$ "за обслуговування девайсу та ... розробку ПЗ") скільки ж можна драйвери для ВК за просто так розробляти :lol:
Kassatka
Member
Аватар користувача
Звідки: Курник під Києвом

Повідомлення

YumaX: 30.10.2022 13:03 Kassatka для вас оптимальною була б 3050 або умовна 4050!
Та ну. 128 біт 8 Гб під 4K зовсім погано виглядає. Відеокарта, якої б на межі вистачило зараз без перспектив на майбутнє. А я не з тих, хто часто старе залізо на нове міняє. Ну і 30-40 FPS у 4K на RTX 3060 це хоч і не обов'язкова умова для комфортного геймінгу в стратегії, але все ж таки куди ліпше, ніж умовних 20 FPS. Я був готовий збирати гроші на RTX 3060 навіть по майнінговим цінам, тож з нинішніми цінами купити RTX 3060 не буде складно. Все ж таки не хочеться для 4K відеокарту зовсім початкового класу, хочеться щось більш престижне.

Ну а чим чекати 4050 буде краще? Вона вийде явно дуже-дуже нескоро, не менше ніж через рік, я стільки чекати не хочу. По продуктивності буде щось типу RTX 3060, по ціні і енергоспоживанню можливо також, а от 192 біт 12 Гб в 4050-4060 чекати точно не варто. Буде або 128 біт 8 Гб, або якщо з бажаними 12 Гб, то з 96 біт шиною :puke: , або взагалі 64 біт 8 Гб, не здивуюся після того як Хуанг ледь-ледь в 4080 192 біт не запхав за $900. Буде 4050 кращою тільки за рахунок підтримки DLSS 3.0, що мені практично і не треба.
Wonderboy
Member
Аватар користувача

Повідомлення

Kassatka: 30.10.2022 18:20128 біт 8 Гб під 4K зовсім погано виглядає.
Це 4к під середню відяху погано виглядає. У мене 3080ti і то не спішу переходити на 4к
Kassatka
Member
Аватар користувача
Звідки: Курник під Києвом

Повідомлення

Коли флагман Radeon 6900 XT виходить лише 256 біт за рахунок кешу, то вузька шина в бюджетних відеокартах виглядає нормально. Але коли RTX 4090 має повноцінних 384 біт, а 80-ту карту мало не випустили з 192 біт, при тому що в попередньому поколінні 192 біт у 60-ій карті. Для мене це плювок в душу від Хуанга, після якого чекати карт 4000 зовсім втратив бажання. Розраховував, що випустять RTX 4070/4070 Ti 256 біт 16 Гб та RTX 4060 192 біт 12 Гб, зараз бачу що такого очікувати точно не варто. Так само як Intel торік зробили плювок в душу, тим що офіційно вимкнули навіть опціональну можливість повернути AVX512 інструкції за рахунок вимкнення малих ядер. Тоді чекав 12 покоління Intel, а купив 11-те. Зараз чекав 4000 серію nVidia, а куплю 3000-ну серію. Благо RTX 3060 єдина відеокарта за розумну ціну з прийнятним об'ємом пам'яті, більш менш прийнятною шиною, достатньою продуктивністю в іграх та софті Topaz, і з підтримкою практично усіх нових технологій за виключенням DLSS 3.0. Скоріш за все в найближчі пару років так само єдиною й залишиться.
Wonderboy: 30.10.2022 18:38
Kassatka: 30.10.2022 18:20128 біт 8 Гб під 4K зовсім погано виглядає.
Це 4к під середню відяху погано виглядає. У мене 3080ti і то не спішу переходити на 4к
Тому що для Вас напевно нормою є Ваш 32-дюмовий екран, а по моїм міркам це досить маленький екран після того, як я дуже звик до 47 дюймового, просидівши за ним 5 років. Враження занурення куди краще і дає справжній вау-ефект після малих екранів. Ну і Full HD на такому 47" екрані погано виглядає, замінив на 50" 4K, підозрюючи що 43" 4K після 47" Full HD здасться трохи мілкуватим. 4K дозволяє з одного боку ефективно використати таку велику площу 50", помістивши на робочий стіл Windows багато корисної інформації без необхідності масштабування, з іншого боку дає достатню чіткість в іграх для такого розміру екрана. Якби я обирав 32" діагональ, то теж би сидів у 1440p і не гнався за 4K. А так 1440p надасть не настільки вже більше робочих пікселів на робочому столі в порівнянні з Full HD при тому, що 4K збільшує робочий простір учетверо. Це було власне основною причиною для переходу на 4K, а чіткість в іграх це вже на другому плані. Тому я зараз і в 4K на GTX 960, бо ігри - то не головне. Але раз вже екран 4K, то бажано щоб ігри також відеокарта нормально тягнула в 4K якщо не на самих ультрах, то хоча б без необхідності знижувати якість текстур.
4K під середню відеокарту погано виглядає в екшенах і шутерах, де знижують графічні налаштування заради високого FPS. Стратегії цілком нормально можна ганяти на ультрах на таких відеокартах, отже візуально виглядати стратегії будуть анітрохи не гірше, ніж на найбільш топових відеокартах, та й відчуття ривкоподівності теж не буде при низькій динамічності гри і малих рухливих об'єктах.
А якби в мене гіпотетично була RTX 3090/3090 Ti/4090 то я ганяв би на ній стратегії вже в 8K, і впевнений що швидкодії цілком би вистачало. Я розумію відеокарти RTX 3090/3090 Ti/4090 з 24 Гб та з захмарною швидкодію як відеокарти виключно для 8K-геймінгу, для 4K їх об'єм відеопам'яті та швидкодія надлишкові з огляду на мої жанри ігор.
Wonderboy
Member
Аватар користувача

Повідомлення

Kassatka: 30.10.2022 19:34А якби в мене гіпотетично була RTX 3090/3090 Ti/4090 то я ганяв би на ній стратегії вже в 8K, і впевнений що швидкодії цілком би вистачало
Більш ніж впевнений, що на 3060 ви захочете поганяти щось відмінне від стратегій, які ви грали просто з-за того, що ваша 960 їх лише і витягувала. Можу зразу сказати, що 3060 дозволить "познайомитися" з новими іграми в 4к, але про комфортну гру мови не ітиме.
Kassatka: 30.10.2022 19:34а по моїм міркам це досить маленький екран
Я давно міг поміняти його на більший, але не бачу смислу. У різних шутанах чи гонках вже на такій діагоналі починає "випадати" периферія з поля зору. Сидів за більшими діагоналями, не сподобалося крутити шиєю.
YumaX
Member
Аватар користувача
Звідки: Вараш

Повідомлення

Kassatka: 30.10.2022 18:20 Ну і 30-40 FPS у 4K на RTX 3060 це хоч і не обов'язкова умова для комфортного геймінгу
Якщо ще для геймінгу то 3060 безумовно.
enkosxs
Member
Аватар користувача

Повідомлення

SoVaR: 28.10.2022 20:47 Цікаво, EVGA чи super flower теж зроблять аналогічні сісоніка кабелі для своїх БЖ?
Міняти їх топові БЖ, через відсутність 12VHPWR, для багатьох буде не по приколу...
Сподобалась пикча :D
Зображення
EVGA послала Хуанга куда подальше с его картами.
Відповісти