Предлагаю обсудить Вивчаємо друковану плату відеокарти ASUS ROG Matrix GeForce RTX 4090
Вся линейка 4090 у всех вендоров +/- одинаковая, главное чтобы переходник питалова не подвёл, гонятся карты все до 2950 +/- без проблем, разница между частотами 2700 и 3000 даже до 10 кадров в самых нагруженных играх, поэтому заморачиваться с безумными водянками беспантовое занятие, тем более что в принципе все карты довольно сами по себе холодные
Останні статті і огляди
Новини
Вивчаємо друковану плату відеокарти ASUS ROG Matrix GeForce RTX 4090
-
MessiaH
Member
-
osmose
Member
Що за мода не ставити запобіжники ![:-/ :-/](./images/smilies/smirk.gif)
![:-/ :-/](./images/smilies/smirk.gif)
-
VovaII
Member
— А що, так можна було?нові котушки індуктивності, які видають менше шуму.
-
Stray
Member
катушки мейк "бззззззз"VovaII: ↑ 05.06.2023 13:41— А що, так можна було?нові котушки індуктивності, які видають менше шуму.
![gigi :gigi:](./images/smilies/gigi.gif)
-
MORTAL
Member
- Звідки: Черкассы
-
AssayMAS
Member
- Звідки: ][аркiв
так там на плате могут быть сопротивления по ноль Ом или специально обученные диоды (которые горят если +20% по Амперам), или сопротивления по 10-100 Ом, или хитрые дроселя... или тонкий дорожка на плате змейкой...osmose: ↑ 05.06.2023 13:08не ставити запобіжники
и уже давно по данным ремонтников - предохранители штатно "срабатывают" в менее чем 5-10% случаев.
В основном горят мосфеты или микрухи их заменяющие и\или чипы... а там рабочие Амперы от КЗ Амперов для большинства БП неразличимы... это через минуту в частичном КЗ в видюхе до БП дойдёт что что то не так и он отрубится. А видюха уже будет убита из за того что БП "на много Ватт" и перекрывает потребности ПК вдвое-втрое.
-
ronemun
Advanced Member
Цікаво, чому у відяхи не ставлять контролери LPDDR5? Адже тоді дешево обєм памяті можна підняти у 2-4 рази. Вона по ціні 2-3 USD/ГБайт у чіпах 3-12 Гбайт проти 3-4 USD за дешевий чіп 1 Гбайт GDDR6, а 2ГБ GDDR6 мінімум 10+. DDR5 вже йде <2 USD за Гбайт
Хоч LPDDR5 у 2-3 рази повільніша за GDDR6, площа кристалу під цей інтерфейс вийде рівна тій що йде під gddr6 з аналогічною сумарною швидкістю
(Якщо вивчити фото кристалів то замітите закономірність, що на тому ж техпроцесі різні інтерфейси з абсолютно різною частотою мають однакову площу на туж швидкість, тобто кількість ліній*частоту*кількість біт за такт. Але саме інтерфейси, а не контролери. І відстань дії сигналу має бути співмірна). Наприклад 160 біт LPDDR5/DDR5 в Інтел займає 6.5 мм2 інтерфейс і 6.3 контролер, але вони мають сильний сигнал для десктопних dimm, для мікросхем впритул тре буде меньше.
Звичайно, виводів тре буде більше, але, як видно по суперпроцу від Нвідії з 1024 бітним інтерфейсом і 1 Тбайт памяті впритул до проца - нема нічого складного. Теж саме в Apple M-серії де 128-160 ГБайт і 512 біт шина. А відеокарті тре всього 16-32 ГБ і хоча б 256 біт для середньої карти. Вже давно 512 біт непроблема, загадайте дешеві Radeon 290-390. Хоча частоти меньші, напруги і втрати сигналу/шуми теж, тож значно спрощується розведення плати. DDR5 чіпи в десктопах аж за 10 см на 9ГГц працюють
Хоч LPDDR5 у 2-3 рази повільніша за GDDR6, площа кристалу під цей інтерфейс вийде рівна тій що йде під gddr6 з аналогічною сумарною швидкістю
(Якщо вивчити фото кристалів то замітите закономірність, що на тому ж техпроцесі різні інтерфейси з абсолютно різною частотою мають однакову площу на туж швидкість, тобто кількість ліній*частоту*кількість біт за такт. Але саме інтерфейси, а не контролери. І відстань дії сигналу має бути співмірна). Наприклад 160 біт LPDDR5/DDR5 в Інтел займає 6.5 мм2 інтерфейс і 6.3 контролер, але вони мають сильний сигнал для десктопних dimm, для мікросхем впритул тре буде меньше.
Звичайно, виводів тре буде більше, але, як видно по суперпроцу від Нвідії з 1024 бітним інтерфейсом і 1 Тбайт памяті впритул до проца - нема нічого складного. Теж саме в Apple M-серії де 128-160 ГБайт і 512 біт шина. А відеокарті тре всього 16-32 ГБ і хоча б 256 біт для середньої карти. Вже давно 512 біт непроблема, загадайте дешеві Radeon 290-390. Хоча частоти меньші, напруги і втрати сигналу/шуми теж, тож значно спрощується розведення плати. DDR5 чіпи в десктопах аж за 10 см на 9ГГц працюють
-
VovaII
Member
ronemunНа скульки пам'ятаю, GDDR оптимізована під операції із великими блоками даних(текстури), тому різниця із DDR може бути ще більша. А ставити таку повільну пам'ть на відокарту вже не має сенсу.
-
ronemun
Advanced Member
VovaII
Apple якраз поставила на свої відяхи. Звичайно, в них спільний контролер з ядрами проца, але загальна швидкість LPDDR5 в них 500+ Гбайт/с на 1 чіп проца, і 1 Тбайт/с на здвоєний
Зарашня LPDDR5 3 Гбайт чіп має швидкість 8,3 ГГц, ща при 32 біт дає 34 Гбайт/с, що лише у 2-2,5 рази меньше ніж у gddr6 чіпа
Але при великому обємі памяті у gddr6 прийдетья використовути менш вигідні 2 Гбайт чіпи, або половину швидкості чіпа 1 Гбайт - 16 біт з 32х, вони так можуть, щоб більше чіпів запхати у тіж 32 біт на канал . Це майже зрівнює їх по швидкості на чіп з LPDDR5, а головне і значно збільшує необхідну площу на платі навколо відеочіпа, адже тре вмістити у 2 рази більше мікросхем GDDR6. Тоді як у LPDDR5 чіп може мати 3, 4, 6, 8, або і 12 Гбайт з шиною 32 або 64 біт - там площа таж, лише кристалів в упаковці більше.
Ну і як далі збільшувати обєм у відях, якщо шина постійно звужується? Зараз 128 біт вже норма.
Щодо оптимізацій під текстури. Так, графічні чіпи передають багато даних, тому в них швидкість шини даних у 2-4 рази більша ніж швидкість шини адресації і команд, тоді як у звичайних вони рівні. Але теж саме можна передати просто збільшивши ширину шини даних, або кількість контролерів - бо все одно головне передвибірка x16, чи x32, кількість стрічок які накопичуються в буфері перед передачею по шині, а конденсатори комірок памяті в будь-якій памяті працюють на однаковій швидкості, при тому ж техпроцесі
Apple якраз поставила на свої відяхи. Звичайно, в них спільний контролер з ядрами проца, але загальна швидкість LPDDR5 в них 500+ Гбайт/с на 1 чіп проца, і 1 Тбайт/с на здвоєний
Зарашня LPDDR5 3 Гбайт чіп має швидкість 8,3 ГГц, ща при 32 біт дає 34 Гбайт/с, що лише у 2-2,5 рази меньше ніж у gddr6 чіпа
Але при великому обємі памяті у gddr6 прийдетья використовути менш вигідні 2 Гбайт чіпи, або половину швидкості чіпа 1 Гбайт - 16 біт з 32х, вони так можуть, щоб більше чіпів запхати у тіж 32 біт на канал . Це майже зрівнює їх по швидкості на чіп з LPDDR5, а головне і значно збільшує необхідну площу на платі навколо відеочіпа, адже тре вмістити у 2 рази більше мікросхем GDDR6. Тоді як у LPDDR5 чіп може мати 3, 4, 6, 8, або і 12 Гбайт з шиною 32 або 64 біт - там площа таж, лише кристалів в упаковці більше.
Ну і як далі збільшувати обєм у відях, якщо шина постійно звужується? Зараз 128 біт вже норма.
Щодо оптимізацій під текстури. Так, графічні чіпи передають багато даних, тому в них швидкість шини даних у 2-4 рази більша ніж швидкість шини адресації і команд, тоді як у звичайних вони рівні. Але теж саме можна передати просто збільшивши ширину шини даних, або кількість контролерів - бо все одно головне передвибірка x16, чи x32, кількість стрічок які накопичуються в буфері перед передачею по шині, а конденсатори комірок памяті в будь-якій памяті працюють на однаковій швидкості, при тому ж техпроцесі
-
VovaII
Member
Так їх відяхи в іграх майже не використовуються. Тому і падіння відносно GDDR не так помітне. У числових прискорювачах, Нвідія також використовує не GDDR.ronemun: ↑ 06.06.2023 10:14Apple якраз поставила на свої відяхи.
Здається АМД казало про чиплетні відеокарти. Подивимось, що воно дасть. Можливо в подальшому перейдуть на якусь GHBM?
-
AssayMAS
Member
- Звідки: ][аркiв
VovaII
там максимальное количество "ГБ в сек" от видео проца зависит. И скорость у одного и того же по архитектуре кристала может отличаться в 2-3 раза.
То есть - есть блин кремния на нем сотни готовых кристаллов - их пилят и сортируют и получается несколько сортов. Так вот худший видео проц от лучшего в "ГБ в сек" в тесте может до 8-12 раз отличаться по скорости. Многое бракуют\сортируют и на выходе уже в виде готовых устройств (типо ускорителей вычислений, видеокарт, ...) отличия в тестах типо Аиды разнятся уже в 3-6 раз, а кристаллы "братья" с одного блина.
Вообщем сча чиплеты это 3-5 лет потом всякое случается... а вот монолитные чипы и 5-7 лет живут. Технология не проверенная временем... может че-то придумают и её надёжность вырастет. Вот рязани чиплетными стали делать - так "брак" у продаванов вырос с 0.1-1% до 5-7% и это 1 - 3 года гарантии. Сколько народа забило на гарантию? Или чиплеты физически в размерах вырастут=подоражают или нормой станет гарантия в 1 год.
там максимальное количество "ГБ в сек" от видео проца зависит. И скорость у одного и того же по архитектуре кристала может отличаться в 2-3 раза.
То есть - есть блин кремния на нем сотни готовых кристаллов - их пилят и сортируют и получается несколько сортов. Так вот худший видео проц от лучшего в "ГБ в сек" в тесте может до 8-12 раз отличаться по скорости. Многое бракуют\сортируют и на выходе уже в виде готовых устройств (типо ускорителей вычислений, видеокарт, ...) отличия в тестах типо Аиды разнятся уже в 3-6 раз, а кристаллы "братья" с одного блина.
это нее про скоростя , это про удешевление изготовления конечного устройства - но "цена" для конечного потребителя: медление чем "однородные" кристаллы=чипы, малая надёжность конечного устройства в тыщ часов, повышение брака из за того что разный тех контроль на разных заводах, экономия на всём например на химии, текстолите (что "здоровье" тоже не добавляет плате)... блин я реально видел как на чипе за многа денег металическая окантовка - ободок поржавел за пару лет при обычной термопасте(не жидкий металл)...VovaII: ↑ 06.06.2023 13:50чиплетні відеокарти
Вообщем сча чиплеты это 3-5 лет потом всякое случается... а вот монолитные чипы и 5-7 лет живут. Технология не проверенная временем... может че-то придумают и её надёжность вырастет. Вот рязани чиплетными стали делать - так "брак" у продаванов вырос с 0.1-1% до 5-7% и это 1 - 3 года гарантии. Сколько народа забило на гарантию? Или чиплеты физически в размерах вырастут=подоражают или нормой станет гарантия в 1 год.