EvhenS: ↑
13.07.2022 18:45
vmsolver а чому ти впевнений що при розгоні до 26
ГГц споживання виросте некритично, а не в 3-5 раз?
Сразу на ты? Мы вроде бы на брудершафт не пили.
Уверен, потому что нечему там жрать в 3-5 раз, всё что много ест уже запитано и при ускорении сама память будет кушать пропорционально больше внутренним частотам, это же не оверклокеры память разгонять будут, а инженеры на заводе с соответствующими знаниями и оборудованием. Также, у 6Х более энергоэффективная передача бит по шине, потому что передаётся не бит, а двухбитное слово, то есть GDDR6 при 26 ГГц жрала бы очень много питания на интерфейс, у 6Х он более экономный.
У 6Х ускорен интерфейс, но при этом он работает на физически более низкой частоте, поэтому он экономнее, это если на пальцах объяснять, сами же ячейки памяти мало отличается от другой динамической памяти и выбираются более широкими словами чтобы поспевать за ускоревшимся интерфейсом.
Відправлено через 2 хвилини 1 секунду:
minesweeper: ↑
13.07.2022 19:00Зараз одна банка GDDR6 їсть 3~3,3вата, скільки їсть GDDR6X на 21Гтактів - не знаю, але якщо буде їсти в 3-5 разів більше, то треба ставити каскадне охолодження, або на азоті, бо навіть зараз вона гріється до 90-98°С
![laugh :laugh:](./images/smilies/laugh.gif)
Без паники, если фабрика сможет делать чипы памяти с нормальными характеристиками - мы увидим их на видеокартах, иначе нет, никто этой дуристикой разгонят ради разгона заниматься не будет, давайте серьёзнее что ли
Відправлено через 6 хвилин 31 секунду:
the lamer: ↑
13.07.2022 19:05
Но 12.8к АЛУ против 16к у Nvidia
А если сказать "12,8К АЛУ против (8К с HT) у Nvidia"? Так будет ближе к правде по реальной производительности, ибо Нвидиа в Ампере стала считать ядра так, как когда-то АМД в Бульдозере (FX).
Нельзя, подход который Nvidia взяла на вооружение абсолютно никак не похож и не может быть назван HT (одновременной многозадачностью), там физически добавили вычислительные FP-юниты и подключили их к регистровому файлу (опять же, это упрощенно на пальцах) к которому подключены и имевшиеся FP-юниты, и тензор-ядра и всё остальное что надо, причем организовали это так, что два эти набора работают одновременно. Я не буду писать про ширину варпов и прочую внутрянку, если есть желание документация на основные принципы свободно доступна. Я выше про этот подход пишу, на мой взгляд, максимально честно, обзывая их не CUDA-ядрами, а FP-вычислителями.
Если вы фанат АМД, можете радоваться, что с точки зрения целочисленных вычислений решение АМД мощнее. Правда игры такие вычисления использует не так интенсивно как с плавучкой
Відправлено через 2 хвилини 15 секунд:
EvhenS: ↑
13.07.2022 19:50
vmsolver
Но 12.8к АЛУ против 16к у Nvidia выглядят совсем не победно, даже если учесть 16к это не АЛУ, а FP-вычислители, тем не менее, пиковая производительность будет выше у зелёного топа и именно в том типе вычислений, которые критично нужны для игр.
На даний момент RX 6950 маючи 5120 обчислювальних блоків відстає від 3090ti з 10752 обчислювальними блоками на 5-10%, якщо така тенденція збережеться 7000 буде найпереможніша для Аті/АМД серія з часів Радеона 9800.
У 6950 уже есть кеш, это он сильно ускоряет часть графического конвейера (кадра), но теперь и у Nvidia будет большой кеш, то есть ваше сравнение не отражает реальное положение дел. Его, конечно, лучше всего отражают тесты, но чем богаты тем и рады, пока мы можем лишь давать оценки "куда всё движется".
Відправлено через 10 хвилин 26 секунд:
VovaII: ↑
13.07.2022 20:13
vmsolver: ↑
13.07.2022 18:18Далее, кеш это прекрасно, но в этот раз он не будет так роллять из-за того, что большой кеш будет и у Nvidia, он, правда, несколько по-меньше чем у AMD, что в каких-то играх скажется (кто сказал лучи? ), особенно в 4К, что уже важно, но это уже не будет носить такой "вау" характер, как это было годом ранее.
Часть кеша уйдет на "компенсацию" чиплетности. — Согласование данных между чиплетами, или как то так?
...skip
Не известно как они организованы, но вряд ли там что-то ужасное в плане организации, логичнее думать, что в главном чипе есть большая и широкая шина с несколькими портами и которая звездой (или типа) идёт к кешу L2 на этом кристалле. Каждая часть кеша L3 кеширует только ту часть памяти которая к нему присоединена (что логично и просто), а это два чипа памяти. Так как в GPU адресное пространство размазано по всем чипам по кругу небольшими кусками, то считается, что в среднем, нагрузка будет примерно одинаковой на все чипы, кусочки кешей и т.д.
Там много вопросов может быть, но все они о том, как то или иное решение реализовано, какие шины между главным чипом и чипом контроллером памяти (КП) с кешем, на каких частотах работают, насколько эта шина быстрее полосы от КП к чипам памяти и так далее, это всё только после релиза узнаем (а кому это нафик не надо, просто посмотрит тесты).