Только он ничем не отличается от более лаконичного и не менее правильного: вычислительная техника всё потребление выделяет в виде тепла. Простое, народное и понятное абсолютно всем
И напрямую вытекающее из принципа действия CMOS схем, где всё что происходит это заряд или разряд входной (затворной) ёмкости транзистора, при этом транзистор открывается и ток проходя через его канал и сопутствующие проводники (металлизацию) нагревает их; и закрывается, при этом накопленный заряд затвора транзистора просто переходит в тепло, т.к. процесс разряда этой ёмкости является по сути замыканием его накоротко другим транзистором, чтобы он быстрее закрылся. Всё, это всё что там происходит, тратим энергию на открытие транзистора, а та часть энергии что при этом накопилась тратится на нагрев при его закрытии, при этом используется другой транзистор, на который так же тратится энергия.
Ну передаст условный GPU немножко энергии по вводу-
выводу, и что? Эта энергия всё равно выделится в виде тепла, просто в другой микросхеме и совсем мизер в дорожках платы. Также по
вводу немножко энергии прилетит и выделится в виде тепла, и что? Что совой об пень, что пнём об сову. В конце концов всё равно всё в тепло перейдёт, просто условные 0.001% выделятся рядом, а не в месте рассмотрения. Собственно, про эти условные 0.001% можно вообще не упоминать, ибо чаще всего про эти мелочи говорят только умники желающие напомнить всем, что они помнят про инфракрасное излучение и ввод-вывод, наука ведь только им, по секрету, на ушко про это прошептала, а остальные ведать не ведают.. (нет)
Но при этом, эти мелочи ни на что, ни количественно, ни качественно не влияют.
Відправлено через 14 хвилин :
Ранее, я бы на 250 Вт согласился бы, линейка Ампер немного сдвинула окно Овертона (каюсь
) до 300 Вт, но выше выглядит уже дико, но с другой стороны, отвечая уже на другой вопрос, почему они так пошли в увеличение потребления, так вот причин сразу несколько, конкуренция за топовую производительность заставляет вендоров проектировать продукты с высоким потреблением; рост частот памяти приводит к увеличению потребления и пока нет возможности снизить эту составляющую, так как шина в 256 или 384 бита на частоте под 20 ГГц явно будет потреблять больше чем такая же, но на 14 ГГц или на 8, очевидно что без существенных и принципиальных изменений эту составляющую не изменить и пока предпосылок ожидать этого нет, просто растём по частоте пока можем; в какой-то мере более тонкий техпроцесс мог бы снизить накал ситуации по части GPU, но или его (техпроцесса) такого готового нет, или он дорог, или занят другими вендорами типа Apple и прочими. Как то так.