Перейти к основному контенту

Тег: MPI

Расчеты в LS-DYNA на кластерах Windows HPC Cluster

Расчеты в LS-DYNA на кластерах Windows HPC Cluster

DYNAmore выпустили инструкцию по настройке и работе распределённого решетеля LS-DYNA на кластерах под управлением MS Windows HPC Pack 2016. Инструкция полезная, но на самом деле вам достаточно знать следующий набор команд:

SET LSTC_MEMORY=auto job submit /jobname: /numcores: /workdir: mpiexec -np i= jobid=

Ну а если вы используете лицензии ANSYS LS-DYNA, то в начало надо добавить еще такое:

set LSTC_LICENSE=ANSYS set ANSYSLMD_LICENSE_FILE=1055@ set ANSYSLI_SERVERS=2325@

Отказоустойчивый решатель

Nektar++ – Spectral/hp Element Framework www.nektar.info

Отказоустойчивый решатель http://www.nektar.info

Одной из проблем очень больших вычислительных систем являются из постоянные сбои. По статистике, у суперкомпьютеров из TOP 10 кажды день только по физическим причинам выходит из строя хотя бы один вычислительных узел. То уж говорить про системы, о которых мечтают ученые, когда говорят про #Exascale. Решатели, которые будут работать на них, должны обладать способностью эффективно обрабатывать падения части #MPI процессов без остановки расчета.

Команда #ExaFLOW в рамках проекта #Nektar++ (http://www.nektar.info) смогла реализовать расширение для MPI, позволяющее в реальном времени эффективно обрабатывать такие сбои. Расширение носит имя User-Level Failure Mitigation (#ULFM).

Python FEM и многодисциплинарные расчеты в FEniCS и FEATool

https://www.featool.com/tutorial/2017/06/16/Python-Multiphysics-and-FEA-Simulations-with-FEniCS-and-FEATool/ www.featool.com

Python FEM и многодисциплинарные расчеты в FEniCS и FEATool https://www.featool.com/tutorial/2017/06/16/Python-FEM-and-Multiphysics-Simulations-with-Fenics-and-FEATool.html

#FEATool, который позволяет решать задачи методом конечных элементов (#МКЭ) на базе #Matlab, начали взаимодействовать с проектом #FEniCS, который также занимается решением задач в МКЭ припомни #Python и C++. Теперь FEniCS дочтен прямо в GUI FEATool.

Говорят, что FEniCS протестирован для работы со СЛАУ размерности 100 миллионов уравнений, а также может работать на 512 CPUs, используя как #MPI, так и #OpenMP. А это существенно больше того, что сейчас может решать FEATool.

OpenSBLI

OpenSBLI - Home opensbli.github.io

OpenSBLI https://opensbli.github.io/

Сегодня в меню у нас #python фреймворк разработанный для моделирования процесса взаимодействия скачка уплотнения с пограничным слоем (#SBLI, Shock-Boundary Layer Interactions) в рамках решения уравнения Навье-Стокса с учетом сжимаемости течения. Фреймворк генерирует на выходе код на языке Си, который уже выполняет расчеты. При этом, получаемый код может быть оптимизирован для исполнения на #GPU с #CUDA или #OpenCL, а также он знает про технологии #MPI и #OpenMP.

Гремучая смесь для тех, кто знает, что делает.

25 лет технологии MPI

25 лет технологии MPI

Message Passing Interface (aka #MPI) - промышленный стандарт создания вычислительного ПО, работающего на системах с распределенной памятью отпраздновал четверть века. Статья по ссылке рассказывает о становлении этого стандарта в мире #HPC.

Когда MPI заболел

Documentation Library Search repositories from Intel for programming language, operating system, tool, hardware, and middleware documentation. software.intel.com

Когда MPI заболел https://software.intel.com/en-us/node/561777

На днях мне довелось собирать кластер из “того, что было” на коленке: без планировщика, без серверной операционки, без #Infiniband. Так вот, во время отладки работы #Intel #MPI я наткнулся на очень интересную статью на портале поддержки Intel: “Examples of MPI Failures”. В статье разобраны 7 ситуаций, когда Intel MPI не MPI и как его починить. #HPC на коленке заработало

Examples of MPI Failures | Intel® Software

С удивлением для себя узнал, что у #Platform #LSF (Load Sharing Facility) принадлежащего компании #IBM теперь есть бесплатная версия выходящая под брендом IBM #Spectrum LSF #Community Edition.

IBM Developer IBM Developer is the source for hands-on training and in-demand learning on relevant technologies such as generative AI, data science, Java, and more. www.ibm.com

Ограничения есть, но они не такие критичные, как может показаться.

IBM бесплатно предоставляет данную версию HPC Clustre Meanager + Workload Manage + Platfrom MPI + Web UI которая может использоваться на кластерах с 10 узлами. Система способна управлять 1000 заданий!

Между прочим 20 узлов - это от 256 до 1024 ядер процессоров в зависимости от архитектуры узлов!

Service Management Connect - IBM Spectrum LSF Product Family - Downloads