Финальная спецификация PCI Express 6.0 будет готова в 2021 году

Обсуждение статей и новостей сайта
Автор
Сообщение
Scoffer
Member
Аватара пользователя

Сообщение

ronemun:nvlink вже зараз 50 Гбіт/с на 1 виту пару.
nvlink юзає не слоти як pci-e, а сокети, схожі на LGA:
відяха
Изображение
материнка
Изображение
задля зменшення ємності контактів. І самі лінії дуже короткі. Сокети відяхи з сокетами процесорів знаходяться впритул з поправкою на розмір радіаторів:
з радіаторами
Изображение
На pci-e в нинішньому вигляді так не вийде.

По-гарному pci-e давно проситься щоб його переробили в сокет замість слоту. І охолоджувати легше буде. Правда це ніяк не допоможе натикати в них SSD. Рівно як і nvlink не допомагає. А простий розгін по частотам принесе лише нестабільність в роботу шини. Так що я б не очікував чудес від pci-e 5/6.
mira1zu
Member

Сообщение

sav_:Коли вже RAM можна буде вставляти в PCI-e слоти? Сил нема чекати.
:spy:
Зачем?
Nuclear World
Member
Аватара пользователя

Сообщение

То чувство когда не так давно стал полноценно пользоваться PCI-E 3.0, а уже 6й не за горами. :laugh:
jt38
Member

Сообщение

gedie: Ну как бы, они уж слишком забегают вперед. С тем же успехом они могут выдумывать спецификации на века веред:
не выдумывают, а реализуют
Alexsandr
Member

Сообщение

Jumper007:Например, что бы впихнуть в него ссдшник на 5Тб и что бы он любые операции по чтению\\записи любого объема данных выполнял за 0,2 секунды.
Не отказался бы от такого ?
Не получится. Линейная скорость редко используется, а скорость случайной работы ниже SATA3.
Zendar:Может, чтобы, к тому моменту, когда это потребуется внедрить в производство, было что внедрять?
Тяжело представить зачем если на сейчас еще этого не придумали.

Как вариант сата заменят, разделят 1 линию PCI-e на несколько для накопителей т.к. SATA себя изжил, а остальные варианты требуют много линий PCI-e. Но будет ли так и когда?

Отправлено спустя 3 минуты 46 секунд:
bycicle:да почему забегают вперёд и почему это никому не надо?
повышение пропускной способности - это сохранение пропускной способности при уменьшении количества линий пси. в первую очередь, конечно, это актуально в серверах, но потом "огрызки" серверов попадают и в десктоп.

по сути видеокарту можно будет садить не на 16 линий (знаю что на текущий момент 16 линий псиХ3.0 по сравнению с 8 линиями дают прирост в пределах погрешности), а на 2 линии в случае замены пси3 на пси6. это всего лишь пример.
Маловероятно. Маркетологи не пойдут на вариант рекламы, у нас теперь 4 линии PCI-e вместо 16.
pcHelp
Member
Аватара пользователя
Откуда: К западу от мавзолея

Сообщение

Alexsandr:Как вариант сата заменят, разделят 1 линию PCI-e на несколько для накопителей т.к. SATA себя изжил, а остальные варианты требуют много линий PCI-e. Но будет ли так и когда?
А главное - зачем? В винтостроении застой, скоростные твердотельники вообще на другом интерфейсе выпускают.

Скорее единственной пользой "в быту" будет исчезновение тяжелого выбора: 16х+0 или 8х+8х, на смену которому придет 4х+4х+4х+4х и этого будет с запасом хватать даже для топовых видях (ну тех, которые к тому моменту будут стоить по 5 килобаксов) :D
Alexsandr
Member

Сообщение

pcHelp: А главное - зачем? В винтостроении застой, скоростные твердотельники вообще на другом интерфейсе выпускают.

Скорее единственной пользой "в быту" будет исчезновение тяжелого выбора: 16х+0 или 8х+8х, на смену которому придет 4х+4х+4х+4х и этого будет с запасом хватать даже для топовых видях (ну тех, которые к тому моменту будут стоить по 5 килобаксов) :D
Твердотельники на САТА выпускают тоже, остальные варианты лимитированы, поцепить 6-ть других девайсов будет проблемно. Уже нужна замена САТА как стандарту.
Scoffer
Member
Аватара пользователя

Сообщение

Alexsandr
Вона давно є. Для SSD прекрасно підходить PCI-E. Десктопи і ноути в m.2, серваки і воркстейшни в u.2.
Вигадувати нового нічого не треба.

Відправлено через 2 хвилини 53 секунди:
Навіть на десктопних платформах чіпсетних PCI-E по 20+ штук. З головою для такого класу компів.
Там де треба прямі процесорні лінії в кількості, юзають не десктопне залізо, і, відповідно, достатньо PCI-E там теж є.
Alexsandr
Member

Сообщение

Scoffer: Навіть на десктопних платформах чіпсетних PCI-E по 20+ штук. З головою для такого класу компів.
Там де треба прямі процесорні лінії в кількості, юзають не десктопне залізо, і, відповідно, достатньо PCI-E там теж є.
16 линий на видеокарту, 4 на один накопитель. На нужно еще хотя бы 3 накопителя, а лучше потолок в районе 6 это 5*4=20 линий еще (и крепить это все напрямую на материнку не годится) + линии на сетевую внешнюю, звуковую, обслуживание SATA... В итоге нужно 16 линий на видео карту + 6 накопителей по 4 линии 24 линии + хотя бы 4 линии на другие нужно иметь более 40 линий, а не 20+.
Scoffer
Member
Аватара пользователя

Сообщение

Alexsandr
На z490 16+24=40 ліній pci-e 3.0
На x570 20+8/12/16 (замість 4 або 8 pcie можуть бути sata) = до 36 ліній pci-e 4.0
достатньо
Alexsandr
Member

Сообщение

Только это топовые продукты и не решаю вопрос подключения твердотельников в массовом кол-ве. Не смотрел архитектуру, но скорее всего там еще будут накладные расходы.
KirillSidor
Junior
Откуда: Київ

Сообщение

А хто їм заважає продумувати зараз PCI-e 20? Ну якщо з кожним поколінням пропускна здатність вдвічі росте, то наче й нескладно розрахувати що буде в наступних стандартах)
ronemun
Advanced Member

Сообщение

Scoffer:
ronemun:nvlink вже зараз 50 Гбіт/с на 1 виту пару.
nvlink юзає не слоти як pci-e, а сокети, схожі на LGA:
відяха
Изображение
материнка
Изображение
задля зменшення ємності контактів. І самі лінії дуже короткі. Сокети відяхи з сокетами процесорів знаходяться впритул з поправкою на розмір радіаторів:
з радіаторами
Изображение
На pci-e в нинішньому вигляді так не вийде.

По-гарному pci-e давно проситься щоб його переробили в сокет замість слоту. І охолоджувати легше буде. Правда це ніяк не допоможе натикати в них SSD. Рівно як і nvlink не допомагає. А простий розгін по частотам принесе лише нестабільність в роботу шини. Так що я б не очікував чудес від pci-e 5/6.
Ти правий. Але зараз в основному для AI обчислень модно сандартний форм-фактор - так до 20 карт в сервер вміщається. тут сама Nvidia пише - 200 Гбайт/с через мостики, аналогічні Тесли в серверах IBM приєднуються через шлейфи довжиною 35 см, це крім самого PCIe. В Ампере пока тільки SXM-сокет, який ти вказав, але частота Nvlink ще в 2 рази більша, хоча швидкість одного конекта не збільшували - 25 ГБайт/с, тільки тепер замість 8пар йде всього 4. Тому і загальна на карту 300 Гбайт в кожну сторону
Scoffer
Member
Аватара пользователя

Сообщение

ronemun
Містки короткі, тому і поєднують. Найбільші проблеми починаються сигнал передається по довгим лініям (довга лінія = довжина лінії більше довжини електромагнітної хвилі в ній, а ширина між провідниками сильно менше).
Швидкість світла в провідниках порядку 2*10^8 м/с, що дає нам граничні частоти шини ~200 мегагерць на метровій лінії. ~400 на півметровій і так далі. В цифрі можна змиритись з деякими рівнями перешкод і ще на скількісь підвищити частоту, не на довго забивши на різного сорту падаючі і відбиті хвилі.
Чи можна передавати значно більш високочастотний сиграл по провідникам? Ну там в десятки раз наприклад, як он всякі PCI-E 6 малюють. Можна. В супутникових передатчиках так і роблять. Але подивись на ті плати, вони самі по собі вже набір об'ємних пасивних елементів, без напаяних кондерів і індуктивностей, все прям на платі травиться. Щілинні переходи, резонатори і ще всякого різного. У мене якраз магістрська дипломна робота була моделювання одного з таких елементів. Одного елементу на увесь диплом. В материнці таких елементів буде сотні-тисячі, котрі ще й паразитно взаємодіють між собою. Як ти думаєш, скільки коштуватиме RnD таких материнок, і за скільки такі материнки відпускатимуться на продаж? :rotate:
І чи варто взагалі цю п'янку починати. Я вважаю, що 3.0 - адекватний максимум, після котрого краще рости в ширину, тупо збільшуючи кількість ліній.
Або малювати тривимірні бутерброди з чіпів.

Відправлено через 8 хвилини 30 секунди:
Ще можна переглянути чи дійсно всі ті багато терабайтів даних з ссд реально потрібні в оперативній доступності на таких швидкостях. Я от чомусь прямо впевнений що ні від слова зовсім, а значить можна успішно наліпити каскад кешів.
ronemun
Advanced Member

Сообщение

чим більше ліній, тим важче їх синхронізувати. Тому у 2 рази вищу частоту легше досягнути ніж заставити паралельно працювати у 2 рази більше ліній. Ріст частоти йде не тільки фізичної, а й віртуальної - через спеціальні схеми модуляції можна і по міді передавати декілька потоків одночасно. Це всім відомий ddr, qdr сигнал, інверсія сигналу для зменшення наведення, корекція помилок, перерахунок біт на льоту, зтискання даних і .т.п. - за один такт передається вже 50+ біт по одній парі. Фактично ж 100 Гбіт ethernet теж працює як 25 Гбіт/с на одну пару - спочатку оптика, потім мідь. Зараз 200 Гбіт - недаремно ж Nvidia mellanox купила
p.s. звичайні телефонні кабелі теж можуть Гігабіти передавати, 10 Гбіт на 30 метрів, і вже давно, з 14 року
Scoffer
Member
Аватара пользователя

Сообщение

ronemun
DDR це не подвоєння швидкості передачі даних, а уполовинення частоти синхроімпульсів з ціллю мати їх тої ж частоти, що і передача даних, а не вдвічі більшої. Корисна штука.
QDR - фігня повна. Інтелу було влом проектувати стабільний генератор синхроімпульсів з частотами овер 200 МГц, і вони вирішили множити частоти.
Нічого з цього не розширює полосу передачі, власне, даних.
Повторюсь, можна, можна спроектувати НВЧ лінії передачі даних і в рамках материнської плати. Аж до десятків гігагерць. Проблема в тому, що ціна рішення зависока.

Тим не менш також можна за один такт передавати більше одного біта даних різними сортами цифрових модуляцій. Типу PSK або PAM як на вафлі з езернетами. Ну це вже зовсім погана ідея, як на мене. По багатьом причинам.
ronemun
Advanced Member

Сообщение

НВЧ лінії не потрібні
ще в 17 році OpenCAPI 100 Гбіт на шнурках типу SATA передавала, а IBM через цей інтерфейс навіть оперативу підєднує - затримка всього в 4 нс - в Power9 48 ліній 25 Гбіт в кожну сторону.
https://servernews.ru/tags/opencapi
А зараз він ще в 2 рази швидше. Мелланокс на цьому ж інтерфейсі 8х50=400 Гбіт карти робить. Довжина 3 метри, 50 Гбайт/с в кожну сторону
спойлер
Изображение

На фотографиях выше:

A. Карта ускорителя хранения Molex FPGA
B. Порты OpenCAPI, подключенные к объединительной плате Storage Accelerator
C. Карта объединительной платы ускорителя хранения
D. Задняя часть шасси полной ширины, показывающая стопку из четырех карт Storage Accelerator
E. Разъем OpenCAPI (SlimSAS) крупным планом
в зарашніх лініях передачі використовують принцип односторонності - дані йдуть тільки в одну сторону. Тому, хоч швидкість наростання фронту сигналу обмежена, це не має значення - сигнал все одно дійде, просто з затримкою, і то дуже малою ~5 нс/м. А самі приймачі вже самі розберуться що це за дані - для цього існують протоколи. А, оскільки передача переважно йде блоками, то затримка незамітна.
SergiusTheBest
Member
Откуда: Київ

Сообщение

Scoffer:що дає нам граничні частоти шини ~200 мегагерць на метровій лінії. ~400 на півметровій і так далі
Це ви сплутали загальну довжину шини з довжиною нерівномірності між окремими лініями шини. Наприклад, 5Gb Ethernet працює через 4 лінії по 200 МГц на довжині 100 м: https://en.wikipedia.org/wiki/2.5GBASE-T_and_5GBASE-T
Scoffer
Member
Аватара пользователя

Сообщение

Ох як же з вами важко. Фізичний рівень езернету працює не в цифрі, а в аналоговому вигляді. І ввалює при цьому одиниці-десятки ват в лінію в залежності від режиму роботи.
Ви реально думаєте, що це гарна ідея навішувати на pci-e цап-ацп з підсилювачами по обом кінцям лінії лише для того щоб можна було ссдшечки трішки далі від материнки винести?

Відправлено через 2 хвилини 19 секунди:
До речі саме так і працює NVMe over Fabrics, на оптикі, тільки для сховищ даних це оправдано. А в середині одного компа/сервака - ні. Тупо більше ліній pci-e принесе в рази менше проблем.
SergiusTheBest
Member
Откуда: Київ

Сообщение

Scoffer:Ох як же з вами важко. Фізичний рівень езернету працює не в цифрі, а в аналоговому вигляді. І ввалює при цьому одиниці-десятки ват в лінію в залежності від режиму роботи.
Ви реально думаєте, що це гарна ідея навішувати на pci-e цап-ацп з підсилювачами по обом кінцям лінії лише для того щоб можна було ссдшечки трішки далі від материнки винести?
В ethernet не зовсім аналоговий вигляд, а радше цифра з кількістю рівнів більше ніж 2 (як сучасна flash пам'ять). 1000BASE-T використовує PAM-5 кодування (5 рівнів), а PCI Express 6.0 використовує PAM-4 (4 рівні).
Ответить