LS-DYNA HPC
Тег: MPI
Расчеты в LS-DYNA на кластерах Windows HPC Cluster
DYNAmore выпустили инструкцию по настройке и работе распределённого решетеля LS-DYNA на кластерах под управлением MS Windows HPC Pack 2016. Инструкция полезная, но на самом деле вам достаточно знать следующий набор команд:
SET LSTC_MEMORY=auto job submit /jobname: /numcores: /workdir: mpiexec -np i= jobid=
Ну а если вы используете лицензии ANSYS LS-DYNA, то в начало надо добавить еще такое:
set LSTC_LICENSE=ANSYS set ANSYSLMD_LICENSE_FILE=1055@ set ANSYSLI_SERVERS=2325@
Отказоустойчивый решатель http://www.nektar.info
Одной из проблем очень больших вычислительных систем являются из постоянные сбои. По статистике, у суперкомпьютеров из TOP 10 кажды день только по физическим причинам выходит из строя хотя бы один вычислительных узел. То уж говорить про системы, о которых мечтают ученые, когда говорят про #Exascale. Решатели, которые будут работать на них, должны обладать способностью эффективно обрабатывать падения части #MPI процессов без остановки расчета.
Команда #ExaFLOW в рамках проекта #Nektar++ (http://www.nektar.info) смогла реализовать расширение для MPI, позволяющее в реальном времени эффективно обрабатывать такие сбои. Расширение носит имя User-Level Failure Mitigation (#ULFM).
Python FEM и многодисциплинарные расчеты в FEniCS и FEATool https://www.featool.com/tutorial/2017/06/16/Python-FEM-and-Multiphysics-Simulations-with-Fenics-and-FEATool.html
#FEATool, который позволяет решать задачи методом конечных элементов (#МКЭ) на базе #Matlab, начали взаимодействовать с проектом #FEniCS, который также занимается решением задач в МКЭ припомни #Python и C++. Теперь FEniCS дочтен прямо в GUI FEATool.
Говорят, что FEniCS протестирован для работы со СЛАУ размерности 100 миллионов уравнений, а также может работать на 512 CPUs, используя как #MPI, так и #OpenMP. А это существенно больше того, что сейчас может решать FEATool.
OpenSBLI https://opensbli.github.io/
Сегодня в меню у нас #python фреймворк разработанный для моделирования процесса взаимодействия скачка уплотнения с пограничным слоем (#SBLI, Shock-Boundary Layer Interactions) в рамках решения уравнения Навье-Стокса с учетом сжимаемости течения. Фреймворк генерирует на выходе код на языке Си, который уже выполняет расчеты. При этом, получаемый код может быть оптимизирован для исполнения на #GPU с #CUDA или #OpenCL, а также он знает про технологии #MPI и #OpenMP.
Гремучая смесь для тех, кто знает, что делает.
25 лет технологии MPI
Message Passing Interface (aka #MPI) - промышленный стандарт создания вычислительного ПО, работающего на системах с распределенной памятью отпраздновал четверть века. Статья по ссылке рассказывает о становлении этого стандарта в мире #HPC.
Documentation Library
Search repositories from Intel for programming language, operating system, tool, hardware, and middleware documentation.
software.intel.comКогда MPI заболел https://software.intel.com/en-us/node/561777
На днях мне довелось собирать кластер из “того, что было” на коленке: без планировщика, без серверной операционки, без #Infiniband. Так вот, во время отладки работы #Intel #MPI я наткнулся на очень интересную статью на портале поддержки Intel: “Examples of MPI Failures”. В статье разобраны 7 ситуаций, когда Intel MPI не MPI и как его починить. #HPC на коленке заработало
Ограничения есть, но они не такие критичные, как может показаться.
IBM бесплатно предоставляет данную версию HPC Clustre Meanager + Workload Manage + Platfrom MPI + Web UI которая может использоваться на кластерах с 10 узлами. Система способна управлять 1000 заданий!
Между прочим 20 узлов - это от 256 до 1024 ядер процессоров в зависимости от архитектуры узлов!
Service Management Connect - IBM Spectrum LSF Product Family - Downloads