Последние статьи и обзоры
Новости
Змагаймось в нашій команді Folding@Home!
-
Шаженла
Member
- Откуда: Харьков
Самое забавное, но организм человека сам 100% способен бороться при правильном питании и образе жизни.
Фактически новый способ выманивания денег изобретают
Фактически новый способ выманивания денег изобретают
-
ronemun
Advanced Member
1. в моєї знайомої чоловік як раз все так робив (правильно харчувався і жив, причина - релігія), але в 26 років знайшли рак і зар рік пішов - все таки багато речей в нас генетично пошкоджені. Зараз деякі методики лікування раку беруть за основу методику знищення онкоклітин вірусами - вони ховаються в онкоклітинах, які невидимі для імунної системи, і самі знищують їх, а далі лишається лише знищити вірус. Один з більш менш безпечних - тваринна віспа. Очевидно переграмувавши вірус можна сильно зменшити його шкоду. Виходить що віруси теж потрібні, але ними тре вміти управляти.
2. для життя ніяких грошей не шкода - вони для того і є щоб їх тратити на краще життя
2. для життя ніяких грошей не шкода - вони для того і є щоб їх тратити на краще життя
-
ShaggY
Member
- Откуда: Киев
Коли ж людина проходить вакцинацію від грипу чи ще чогось, то вколюють то якраз ослабленний вірус, яки модифікованнийю
-
Alexsandr
Member
К сожалению нет. Сам он не способен на 100% себя вылечить/не допустить болезнь.Шаженла:Самое забавное, но организм человека сам 100% способен бороться при правильном питании и образе жизни.
Фактически новый способ выманивания денег изобретают
-
ronemun
Advanced Member
Ну от, приїхали
Минимальные требования для bigadv будут 24 и 32 ядра
У нас есть правило периодически переоценивать программу bigadv, включая минимальные требования для получения bigadv заданий.
Задача bigadv - обеспечить самые большие и ресурсоемкие задания наиболее мощными машинами участников. Линейка этих машин, естественно, растет вместе с вычислительной мощностью. Сейчас программа bigadv ориентирована на cpu-вычисления, и в связи с ростом количества процессорных ядер и их производительности мы решили огласить наши планы по изменению минимальных требований на следующие несколько месяцев:
17 февраля 2014 (через 2 месяца) - 24 ядра
17 апреля 2014 (через 4 месяца) - 32 ядра
Мы понимаем, что эти изменения не всегда приятные и комфортные, и хотим заранее сообщить о них. Подчеркиваем, что научную ценность имеют все проекты Folding@home, и часть изменений в программе bigadv направлена на приток средней мощности машин в сегмент не-bigadv SMP проектов, где мы делаем большую часть научной работы.
Мы осознаем, что количество ядер - не самая лучшая характеристика производительности машины, но для нашей текущей инфраструктуры это наиболее простой и удобный показатель.
Еще раз благодарим за ваше щедрое участие в проекте Folding@Home!
Минимальные требования для bigadv будут 24 и 32 ядра
У нас есть правило периодически переоценивать программу bigadv, включая минимальные требования для получения bigadv заданий.
Задача bigadv - обеспечить самые большие и ресурсоемкие задания наиболее мощными машинами участников. Линейка этих машин, естественно, растет вместе с вычислительной мощностью. Сейчас программа bigadv ориентирована на cpu-вычисления, и в связи с ростом количества процессорных ядер и их производительности мы решили огласить наши планы по изменению минимальных требований на следующие несколько месяцев:
17 февраля 2014 (через 2 месяца) - 24 ядра
17 апреля 2014 (через 4 месяца) - 32 ядра
Мы понимаем, что эти изменения не всегда приятные и комфортные, и хотим заранее сообщить о них. Подчеркиваем, что научную ценность имеют все проекты Folding@home, и часть изменений в программе bigadv направлена на приток средней мощности машин в сегмент не-bigadv SMP проектов, где мы делаем большую часть научной работы.
Мы осознаем, что количество ядер - не самая лучшая характеристика производительности машины, но для нашей текущей инфраструктуры это наиболее простой и удобный показатель.
Еще раз благодарим за ваше щедрое участие в проекте Folding@Home!
-
ronemun
Advanced Member
ShaggY 40.000.000
denis 15.000.000
denis 15.000.000
-
ShaggY
Member
- Откуда: Киев
ой клас, не помітив)))
-
Alexsandr
Member
Лучше бы не требования, а распределенные вычисления по сети организовали.
-
ronemun
Advanced Member
в мене теж така мрія була - можна було б за неробочий час (14 год) 2-3 БЖ здати
Але пізніше я здогадався: для обчислення матриць необхідний шалений інтерконект, звичайної гігабітної мережі недостатньо - латентність занадто велика для зєднання відносно слабих компів - хватить на чотири 2-ядерних архітетури типу Athlon або Core2@2ГГц. Проблеми з мережею (складне балансування, втрати пакетів, нагрузка на проц). Для надійної роботи необхідні дорогі мережеві карти з латентністю 30 мікросек і нижче для зєднання простих компів, для серйозніших - InfiniBand 10-20Гбіт з <10 мкс - вони зараз дешеві, але їх складно обслуговувати - кабелі короткі і дорогі.
Мета проекту трохи інша - необхідно багато маленьких (по їх міркам) задач. Якщо їм потрібна швидкість вони створюють це - ще в 2010 році 17000нс/добу* (для порівняння Geforce 780 дає 200нс/50нс**)
* 17000нс/добу для 23558 атомів, 5500нс/добу для 100тис атомів в 2008 році.
**200/50нс для 23558 (?) атомів
Але пізніше я здогадався: для обчислення матриць необхідний шалений інтерконект, звичайної гігабітної мережі недостатньо - латентність занадто велика для зєднання відносно слабих компів - хватить на чотири 2-ядерних архітетури типу Athlon або Core2@2ГГц. Проблеми з мережею (складне балансування, втрати пакетів, нагрузка на проц). Для надійної роботи необхідні дорогі мережеві карти з латентністю 30 мікросек і нижче для зєднання простих компів, для серйозніших - InfiniBand 10-20Гбіт з <10 мкс - вони зараз дешеві, але їх складно обслуговувати - кабелі короткі і дорогі.
Мета проекту трохи інша - необхідно багато маленьких (по їх міркам) задач. Якщо їм потрібна швидкість вони створюють це - ще в 2010 році 17000нс/добу* (для порівняння Geforce 780 дає 200нс/50нс**)
* 17000нс/добу для 23558 атомів, 5500нс/добу для 100тис атомів в 2008 році.
**200/50нс для 23558 (?) атомів
Последний раз редактировалось ronemun 26.12.2013 12:13, всего редактировалось 1 раз.
-
Alexsandr
Member
вопрос наверняка упирается еще и в алгоритмы расчета. если их бы подправить, то можно и по сети обычной делать вычисления. Наверняка при начальном этапе расчетов можно считать сразу много "отрезков" потом уже их них выбирать с наименьшей энергией. да бы уменьшит зависимости,расчеты делать наперед. КПД я процессора падет, но скорость в среднем заметно растет. Знать бы алгоритм работы.
-
ShaggY
Member
- Откуда: Киев
Ну вот сейчас у меня считает тачка на 16 потоков, біл бі там еще один проц 8 ядерній, біло бі 32 потока
а на 24 тоже встречаются часто)) но не всегда есть время и возможность их включать
а на 24 тоже встречаются часто)) но не всегда есть время и возможность их включать
-
ronemun
Advanced Member
думаю вчені бояться використовувати не перевірені алгоритми. Gromacs тільки не давно вийшла стабільна версія 4.6, а до того декілька років 4.5 була. (тут в звязці 6-ядерний Інтел-проц і Geforce 680 - швидкість була на рівні кластера з 4х 8 ядерних Інтелів, у 3-4 рази вища ніж звичайно. Виходить, якщо хочуть, можуть розпаралелювати одну задачу на гібридну систему з декількох проців/відеокарт.)
А FAH взагалі не за швидкістю ганяється, а за теоретичнмим даними - аналіз вимагає попереднього планування і під нього завдання підбираються.
ShaggY я маю на увазі паралельный обрахунок через мережу
А FAH взагалі не за швидкістю ганяється, а за теоретичнмим даними - аналіз вимагає попереднього планування і під нього завдання підбираються.
ShaggY я маю на увазі паралельный обрахунок через мережу
Последний раз редактировалось ronemun 26.12.2013 12:55, всего редактировалось 2 раза.
-
ShaggY
Member
- Откуда: Киев
Я зрозумів, але якщо б з пару штук таких обєднати, карти там мережеві гарні стоять, і можна ще дозамовити третю яка чимось щє краща.. Головне щоб ядро працювало на такій кількості ядер.
-
ronemun
Advanced Member
є тести на 512 ядрах, але обмін даними дуже інтенсивний - між всіма ядрами у всі сторони. Тому використовуються Інфінібенд 2х40Гбіт по перехресній схемі. Але і того замало - при інтенсивних обрахунках мережа все тормозить. При тому там все дуже вивірено - спеціально підібрані розміри пакетів обміну даними, дуже інтенсивне кешування в оперативці, оптимізовані потоки даних і пріорітети, алгоритм обрахунку і обміну даними синхронізовані так щоб мережа встигала передавати дані, а головне новий метод паралельного обрахунку у 10 раз зменшує кількість даних для передачі - задача розділяється на блоки так щоб самі інтенсивні розрахунки відбувались всередині кожного сервера, а міжсерверний обмін зводиться до мінімума. Я взагалі мовчу, що Інфінібенд дозволяє процесору звертатись до памяті іншого проца напряму (RDMA), без необхідності перекопіювання даних у свою память.
-
Alexsandr
Member
О чем и речь. Нужны другие алгоритмы расчета, менее зависимые от сети. грубо это выгляди как центр- делает вычисления точные, может подпрячь маленько сетевых клиентов, сетевые клиенты выполняют черновую кучу вычислений. Без знания алгоритма расчета тяжело что-то сказать можно ли вообще сетевые вычисления делать нормально
-
ShaggY
Member
- Откуда: Киев
Ну если перейти на оптику, то частично єто можно решить
-
ronemun
Advanced Member
Alexsandr
алгоритми і софт вже придумані і готові, тільки вони складні, вимагають високої кваліфікації для кожного окремого випадку - це під силу лише професіоналам, що не рентабельно - відекарти дешево, просто, доступно для всіх
недоліки наших бажань очевидні:
1. обрахунки виключно на процесорах вже не актуальні - навіть сучасні ігрові відеокарти можуть виконувати 90% роботи, навіть у відносно складних обчисленнях як фолдинг. А до того часу поки відпрацюють нові алгоритми вийдуть ще досконаліші в алгоритмічному плані відюхи. Особливо допоможе цьому механізм прямого обміну даними між процами і відео, який буде в нових картах - можна обєднувати карти в кластери і проци будуть напряму дані у карту записувати і навпаки - карти системну память як свою будуть використовувати. Проци нікуди не дінуться, але вони будуть виконувати лише керюючу функцію і спеціальні, дуже складні алгоритми. Їх дуже накладно обєднати велику кількість на одній платі разом з іншими системами.
2. обробка через мережу стає не актуальною - можна напхати кучу відеокарт в один комп/блок. Тоді як нормальна мережева карта коштує як потужна відеокарта, а мережевих тре багато для передачі даних у всі сторони (для зменшення латентності). А головне при заповненому відюхами блоці обмін між нодами стає нереально інтенсивним - сотні гігабіт/с. Тому зараз думають відійти від ідеї універсальної мережі - відокремлення відносно слабкого процесорного блоку з інтенсивним обміном короткими перехресними повідомленнями від потужного обчислювального з потоками даних, щось подібно як зараз виокремлена сказі від мережі.
3. На підході (4-8 років) нові принципи обчислень - хмари, масований паралелізм (відхід від послідовної архітектури фон Неймана, коли окремої памяті як такої вже не буде - дозволяє в простий чіп запхати тисячі ядер, зі своєю памяттю, у вузлах суперматриці, як у мозку, і легко маштабувати до міліонів), ASIC і т.п.
алгоритми і софт вже придумані і готові, тільки вони складні, вимагають високої кваліфікації для кожного окремого випадку - це під силу лише професіоналам, що не рентабельно - відекарти дешево, просто, доступно для всіх
недоліки наших бажань очевидні:
1. обрахунки виключно на процесорах вже не актуальні - навіть сучасні ігрові відеокарти можуть виконувати 90% роботи, навіть у відносно складних обчисленнях як фолдинг. А до того часу поки відпрацюють нові алгоритми вийдуть ще досконаліші в алгоритмічному плані відюхи. Особливо допоможе цьому механізм прямого обміну даними між процами і відео, який буде в нових картах - можна обєднувати карти в кластери і проци будуть напряму дані у карту записувати і навпаки - карти системну память як свою будуть використовувати. Проци нікуди не дінуться, але вони будуть виконувати лише керюючу функцію і спеціальні, дуже складні алгоритми. Їх дуже накладно обєднати велику кількість на одній платі разом з іншими системами.
2. обробка через мережу стає не актуальною - можна напхати кучу відеокарт в один комп/блок. Тоді як нормальна мережева карта коштує як потужна відеокарта, а мережевих тре багато для передачі даних у всі сторони (для зменшення латентності). А головне при заповненому відюхами блоці обмін між нодами стає нереально інтенсивним - сотні гігабіт/с. Тому зараз думають відійти від ідеї універсальної мережі - відокремлення відносно слабкого процесорного блоку з інтенсивним обміном короткими перехресними повідомленнями від потужного обчислювального з потоками даних, щось подібно як зараз виокремлена сказі від мережі.
3. На підході (4-8 років) нові принципи обчислень - хмари, масований паралелізм (відхід від послідовної архітектури фон Неймана, коли окремої памяті як такої вже не буде - дозволяє в простий чіп запхати тисячі ядер, зі своєю памяттю, у вузлах суперматриці, як у мозку, і легко маштабувати до міліонів), ASIC і т.п.
-
Alexsandr
Member
. На підході (4-8 років) нові принципи обчислень - хмари, масований паралелізм (відхід від послідовної архітектури фон Неймана, коли окремої памяті як такої вже не буде - дозволяє в простий чіп запхати тисячі ядер, зі своєю памяттю, у вузлах суперматриці, і легко маштабувати до міліонів), ASIC і т.п.
Облака это сказки венского леса. ибо все там работают обычные процессора, тоьлко по сети дольше пересылка идет информации и никогда не знашеь приоритета своим вычислениям. параллелизм тоже сказки, ибо есть алгоритмы у которых нельзя сделать параллельные вычисления, тупо пока не вычислится переменная к примеру все блоки стоят ибо зависят от неё. Чем больше ядер, тем меньше толк, таковы реалии. А гонять данные просто так, может какому чипу и пригодится слишком накладно,да и остальным мешает.
Проци нікуди не дінуться, але вони будуть виконувати лише керюючу функцію і спеціальні, дуже складні алгоритми. Їх дуже накладно обєднати велику кількість на одній платі разом з іншими системами.
интел их сколько там 128 объединила простых ядер на чип? Не помнюточно.
но вот результаты 50 ядер http://www.overclockers.ru/hardnews/445 ... M2090.html" target="_blank
процессора то ведь тоже на месте не стоят. Скоро не понятно будет это видеокарта/центральныйпроцессор или универсальный вычислитель с кучкой разных инициализируемых блоков. но скорее это будет второе.
Облака это сказки венского леса. ибо все там работают обычные процессора, тоьлко по сети дольше пересылка идет информации и никогда не знашеь приоритета своим вычислениям. параллелизм тоже сказки, ибо есть алгоритмы у которых нельзя сделать параллельные вычисления, тупо пока не вычислится переменная к примеру все блоки стоят ибо зависят от неё. Чем больше ядер, тем меньше толк, таковы реалии. А гонять данные просто так, может какому чипу и пригодится слишком накладно,да и остальным мешает.
Проци нікуди не дінуться, але вони будуть виконувати лише керюючу функцію і спеціальні, дуже складні алгоритми. Їх дуже накладно обєднати велику кількість на одній платі разом з іншими системами.
интел их сколько там 128 объединила простых ядер на чип? Не помнюточно.
но вот результаты 50 ядер http://www.overclockers.ru/hardnews/445 ... M2090.html" target="_blank
процессора то ведь тоже на месте не стоят. Скоро не понятно будет это видеокарта/центральныйпроцессор или универсальный вычислитель с кучкой разных инициализируемых блоков. но скорее это будет второе.
-
ronemun
Advanced Member
щодо хмар - не розумію твій сарказм - описані тобою проблеми давно забули. Сам Амазон хвалиться що великі фармацевптичні компанії орендують кластери на 100-200 тисяч ядер для розвязку великих одиночних задач біохімії і т.п.
я хмари мав на увазі що скоро (4-8 років) для багатьох відпаде необхідність мати потужне залізо, особливо для середнього бізнесу.
А щодо паралельності, так я ж і говорю, що пишуть про прогрес у паралельних обчисленнях - там, вгорі, давно дійшли висновку, що проблема в корені сучасної архітектури
- коли память і мережа відокремлена від проца, неможлива ідеальна паралелізація - вони мають бути одним цілим
- при маштабувані обчислень кількість даних при передачі зростає лавиноподібно - необхідно передавати надто багато даних, які все одно викинуться. Саме тому і придумали Knight Corner - він є прообразом майбутніх (4-8років) систем. Саме тому вже нема сенсу зараз переводити клієнт на розподілений через мережу обрахунок - поки придумають і протестують або заліза не буде в людей, або мережі загнуться
я хмари мав на увазі що скоро (4-8 років) для багатьох відпаде необхідність мати потужне залізо, особливо для середнього бізнесу.
А щодо паралельності, так я ж і говорю, що пишуть про прогрес у паралельних обчисленнях - там, вгорі, давно дійшли висновку, що проблема в корені сучасної архітектури
- коли память і мережа відокремлена від проца, неможлива ідеальна паралелізація - вони мають бути одним цілим
- при маштабувані обчислень кількість даних при передачі зростає лавиноподібно - необхідно передавати надто багато даних, які все одно викинуться. Саме тому і придумали Knight Corner - він є прообразом майбутніх (4-8років) систем. Саме тому вже нема сенсу зараз переводити клієнт на розподілений через мережу обрахунок - поки придумають і протестують або заліза не буде в людей, або мережі загнуться
-
Alexsandr
Member
описані тобою проблеми давно забули. Сам Амазон хвалиться що великі фармацевптичні компанії орендують кластери на 100-200 тисяч ядер для розвязку великих одиночних задач біохімії і т.п.
Это специфические проблемы, со специфическим програмиированием для кучи ядер изначально и там оплачивается время вычислений, такое было еще со времен создания супер компьютеров, это не ново и не облака. Это передача вычислений на другую сторону. Облака если в экселе (это грубо) ввел формулу, а она и все нужные данные пошли в облако, вычислились данные и пришли обратно. Такого не будет повсеместно.
для багатьох відпаде необхідність мати потужне залізо, особливо для середнього бізнесу.
Тоже не факт, особенно для наших стран. Упал и нет и вся работа стоит? дудки. крупные вычисления возможно пойдут на сервера, но не облачно, а под заказ.
коли память і мережа відокремлена від проца, неможлива ідеальна паралелізація - вони мають бути одним цілим
А как сгруппировать все в кучу, если неведомо ни кол-во устройств ни место подключения, ни когда отключится. локальные кластеры куда эффективнее глобального пространства получается.
Саме тому вже нема сенсу зараз переводити клієнт на розподілений через мережу обрахунок - поки придумають і протестують або заліза не буде в людей, або мережі загнуться
Смысл есть, пока придумают, пока внедрят. Не стоит сидеть на санях, когда есть трактор в ожидании вездехода.
Это специфические проблемы, со специфическим програмиированием для кучи ядер изначально и там оплачивается время вычислений, такое было еще со времен создания супер компьютеров, это не ново и не облака. Это передача вычислений на другую сторону. Облака если в экселе (это грубо) ввел формулу, а она и все нужные данные пошли в облако, вычислились данные и пришли обратно. Такого не будет повсеместно.
для багатьох відпаде необхідність мати потужне залізо, особливо для середнього бізнесу.
Тоже не факт, особенно для наших стран. Упал и нет и вся работа стоит? дудки. крупные вычисления возможно пойдут на сервера, но не облачно, а под заказ.
коли память і мережа відокремлена від проца, неможлива ідеальна паралелізація - вони мають бути одним цілим
А как сгруппировать все в кучу, если неведомо ни кол-во устройств ни место подключения, ни когда отключится. локальные кластеры куда эффективнее глобального пространства получается.
Саме тому вже нема сенсу зараз переводити клієнт на розподілений через мережу обрахунок - поки придумають і протестують або заліза не буде в людей, або мережі загнуться
Смысл есть, пока придумают, пока внедрят. Не стоит сидеть на санях, когда есть трактор в ожидании вездехода.