Перейти к основному контенту

Тег: Infiniband

#NVIDIA продолжает свое движение в сторону становления настоящим #HPC гигантом. Вчера стало известно о том, что NVIDIA купила компанию Bright Computing, известную своим программным обеспечением Bright Cluster Manager (#BCM). BCM являться пожалуй единственным законченным набором инструментов, который позволяет почти без боли и консоли разворачивать настоящие суперкомпьютеры с правильно настроенными из коробки планировщиками #PBS, #LSF, #Slurm, параллельными файловыми системами и прочими необходимыми надстройками. При этом, все делается через удобный WEB-UI. Была даже бесплатная версия для кластеров до 8 узлов. Страшно сказать: у BCM даже была своя собственная система доставки драйверов для #Infiniband (Mellanox, кстати, тоже поглощён NVIDIA) с дополнительным уровнем тестирования на совместимость и стабильность!

https://blogs.nvidia.com/blog/2022/01/10/bright-computing-hpc/

https://blogs.nvidia.com/blog/2022/01/10/bright-computing-hpc/

Война интерконнектов: продолжение

Война интерконнектов: продолжение Компания Intel категорически не согласилась с результатами сравнения ее HPC интерконнекта OmniPath и Mellanox Infiniband. Более того, Intel решил показать результаты своих измерений, и они получились очень занимательными.

В статье, ссылка на которую приведена в конце поста, есть куча графиков, где присутствуют три колонки результатов: “Mellanox Infiniband”, “Intel OPA - результаты Mellanox” и “Intel OPA - результаты Intel”. Как ни странно, Intel померил свой интерконнект так, что он полностью сравнялся с Infiniband EDR.

#Mellanox анонсировали HDR #Infiniband - это аж 200 Гбит/с.

Хотите кластер считающий в #ANSYS быстро и без проблем - смотрите в сторону Infiniband 😊

https://www.youtube.com/watch?v=AuS…Media📼 Mellanox Takes HPC Interconnects to the Next Level…

http://ift.tt/2AS1si1

http://ift.tt/2zoZXZe http://ift.tt/2mMIlk1 http://ift.tt/2vk2wVv https://www.youtube.com/watch?v=AuSjYKRa4Tk http://ift.tt/2BqW7zb http://ift.tt/2AS1si1 tp://ift.tt/2AS1si1

Ускорение #ANSYS #Fluent при помощи #GPGU #NVIDIA возможно, и даже очень полезно!

Как показывают тесты NVIDIA, на одном и том-же пуле лицензии главный #CFD решатель ANSYS может ускориться почти в 4 раза за счет подключения нескольких #Tesla P100. И сейчас мы говорим не про супер компьютер, а про обычный сервер на 32 ядра.

Что бы добиться такого же ускорения просто на процессорах вам потребуется уже 4 сервера соединенных по #Infiniband, коммутатор Infiniband, управляющий софт для получившегося кластера и дополнительные лицензий ANSYS на #HPC.

#Mellanox, находясь в лидерах рынка #HPC интерконнекта, не останавливается, и продолжает придумывать новые технологии для снижения задержек и повышения быстродействия.

Строите кластер для #ANSYS - закладывайте в его основу Mellanox Infiniband.

#Infiniband #SocketDirect

https://youtu.be/gzilN_cuhMkMedia📼 Eye on Mellanox socket direct

http://ift.tt/2zmVfuV

http://ift.tt/2zoZXZe http://ift.tt/2emhAvW http://ift.tt/2vk2wVv http://ift.tt/2mMIlk1 http://ift.tt/2zphkZL https://youtu.be/gzilN_cuhMk http://ift.tt/2mMInZb http://ift.tt/2zmVfuV ttp://ift.tt/2zmVfuV

Приятные поздравления

Компетенция специалистов компании ЗАО «КАДФЕМ Си-Ай-Эс» no description www.cadfem-cis.ru

Приятные поздравления https://www.cadfem-cis.ru/list/article/yuranox/

Наконец дошли руки до подтверждения квалификации пом #HPC и #Mellanox #Infiniband

А за поздравления - большое спасибо!

https://www.cadfem-cis.ru/list/article/yuranox/

Deploying HPC Cluster with Mellanox InfiniBand Interconnect Solutions

Error | VK vk.com

https://vk.com/doc11568_441185555

В очередной раз убедился, что нет лучше пособия по отладке true #HPC кластеров чем эта небольшая брошюрка от #Mellanox. #Infiniband рули, а ссылка на документ чуть ниже в посте.

https://vk.com/doc11568_441185555

Когда MPI заболел

Documentation Library Search repositories from Intel for programming language, operating system, tool, hardware, and middleware documentation. software.intel.com

Когда MPI заболел https://software.intel.com/en-us/node/561777

На днях мне довелось собирать кластер из “того, что было” на коленке: без планировщика, без серверной операционки, без #Infiniband. Так вот, во время отладки работы #Intel #MPI я наткнулся на очень интересную статью на портале поддержки Intel: “Examples of MPI Failures”. В статье разобраны 7 ситуаций, когда Intel MPI не MPI и как его починить. #HPC на коленке заработало

Examples of MPI Failures | Intel® Software

Интерконнект на 20 Гбит

Mellanox Announces 200Gb/s HDR InfiniBand Solutions In this slidecast, Gilad Shainer from Mellanox announces the world’s first HDR 200Gb/s data center interconnect solutions. “The ability to effectively utiliz... www.youtube.com

Интерконнект на 20 Гбит https://www.youtube.com/watch?v=bSLhvTbOT_g

Интерконнект на 200 Гбит На прошедшей неделе компания #Mellanox анонсировала выпуск нового поколения их #HPC интерконнекта #Infiniband - IB HDR. Infiniband дефакто является стандартом для суперкомпьютеров - более 70% всех систем такого класса собраны с использованием IB. Теперь же он может работать на скоростях 200 Гбит/с с задержками менее 90 нано секунд. https://www.youtube.com/watch?v=bSLhvTbOT_g

Mellanox Announces 200Gb/s HDR InfiniBand Solutions