<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>MPI on MagicDPD: Magic Driven Product Development!</title><link>https://magicdpd.com/tags/mpi/</link><description>MagicDPD: Magic Driven Product Development! (MPI)</description><generator>Hugo -- gohugo.io</generator><language>ru</language><lastBuildDate>Tue, 19 Nov 2019 13:16:34 +0000</lastBuildDate><atom:link href="https://magicdpd.com/tags/mpi/index.xml" rel="self" type="application/rss+xml"/><item><title>LS-DYNA HPC</title><link>https://magicdpd.com/posts/2019-11-19-ls-dyna-hpc/</link><pubDate>Tue, 19 Nov 2019 13:16:34 +0000</pubDate><guid>https://magicdpd.com/posts/2019-11-19-ls-dyna-hpc/</guid><description>&lt;p&gt;LS-DYNA HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/ls-dyna-hpc/" target="_blank" rel="noopener noreferrer"&gt;LS-DYNA HPC - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Расчеты в LS-DYNA на кластерах Windows HPC Cluster</title><link>https://magicdpd.com/posts/2019-06-10-raschety-v-ls-dyna-na-klasterah-windows-h/</link><pubDate>Mon, 10 Jun 2019 17:00:30 +0000</pubDate><guid>https://magicdpd.com/posts/2019-06-10-raschety-v-ls-dyna-na-klasterah-windows-h/</guid><description>&lt;p&gt;Расчеты в LS-DYNA на кластерах Windows HPC Cluster&lt;/p&gt;
&lt;p&gt;DYNAmore выпустили инструкцию по настройке и работе распределённого решетеля LS-DYNA на кластерах под управлением MS Windows HPC Pack 2016. Инструкция полезная, но на самом деле вам достаточно знать следующий набор команд:&lt;/p&gt;
&lt;p&gt;SET LSTC_MEMORY=auto
job submit /jobname: /numcores: /workdir: mpiexec -np i= jobid=&lt;/p&gt;
&lt;p&gt;Ну а если вы используете лицензии ANSYS LS-DYNA, то в начало надо добавить еще такое:&lt;/p&gt;
&lt;p&gt;set LSTC_LICENSE=ANSYS
set ANSYSLMD_LICENSE_FILE=1055@
set ANSYSLI_SERVERS=2325@&lt;/p&gt;
&lt;p&gt;Исходный документ тут: &lt;a href="https://project.dynamore.se/public/windowscluster12" target="_blank" rel="noopener noreferrer"&gt;https://project.dynamore.se/public/windowscluster12&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#HPC #LS_DYNA #MPI #Windows&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2yI" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2yI&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://project.dynamore.se/public/windowscluster12" target="_blank" rel="noopener noreferrer"&gt;https://project.dynamore.se/public/windowscluster12&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2yI" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2yI&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Отказоустойчивый решатель</title><link>https://magicdpd.com/posts/2017-06-24-otkazoustoychivyy-reshatel/</link><pubDate>Sat, 24 Jun 2017 17:01:00 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-24-otkazoustoychivyy-reshatel/</guid><description>&lt;p&gt;Отказоустойчивый решатель
&lt;a href="http://www.nektar.info" target="_blank" rel="noopener noreferrer"&gt;http://www.nektar.info&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Одной из проблем очень больших вычислительных систем являются из постоянные сбои. По статистике, у суперкомпьютеров из TOP 10 кажды день только по физическим причинам выходит из строя хотя бы один вычислительных узел. То уж говорить про системы, о которых мечтают ученые, когда говорят про #Exascale. Решатели, которые будут работать на них, должны обладать способностью эффективно обрабатывать падения части #MPI процессов без остановки расчета.&lt;/p&gt;
&lt;p&gt;Команда #ExaFLOW в рамках проекта #Nektar++ (&lt;a href="http://www.nektar.info" target="_blank" rel="noopener noreferrer"&gt;http://www.nektar.info&lt;/a&gt;) смогла реализовать расширение для MPI, позволяющее в реальном времени эффективно обрабатывать такие сбои. Расширение носит имя User-Level Failure Mitigation (#ULFM).&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.nektar.info/" target="_blank" rel="noopener noreferrer"&gt;https://www.nektar.info/&lt;/a&gt;
&lt;a href="http://www.nektar.info" target="_blank" rel="noopener noreferrer"&gt;http://www.nektar.info&lt;/a&gt;
&lt;a href="http://www.nektar.info" target="_blank" rel="noopener noreferrer"&gt;http://www.nektar.info&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Python FEM и многодисциплинарные расчеты в FEniCS и FEATool</title><link>https://magicdpd.com/posts/2017-06-21-python-fem-i-mnogodistsiplinarnye-raschety/</link><pubDate>Wed, 21 Jun 2017 17:00:59 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-21-python-fem-i-mnogodistsiplinarnye-raschety/</guid><description>&lt;p&gt;Python FEM и многодисциплинарные расчеты в FEniCS и FEATool
&lt;a href="https://www.featool.com/tutorial/2017/06/16/Python-FEM-and-Multiphysics-Simulations-with-Fenics-and-FEATool.html" target="_blank" rel="noopener noreferrer"&gt;https://www.featool.com/tutorial/2017/06/16/Python-FEM-and-Multiphysics-Simulations-with-Fenics-and-FEATool.html&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#FEATool, который позволяет решать задачи методом конечных элементов (#МКЭ) на базе #Matlab, начали взаимодействовать с проектом #FEniCS, который также занимается решением задач в МКЭ припомни #Python и C++. Теперь FEniCS дочтен прямо в GUI FEATool.&lt;/p&gt;
&lt;p&gt;Говорят, что FEniCS протестирован для работы со СЛАУ размерности 100 миллионов уравнений, а также может работать на 512 CPUs, используя как #MPI, так и #OpenMP. А это существенно больше того, что сейчас может решать FEATool.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.featool.com/tutorial/2017/06/16/Python-FEM-and-Multiphysics-Simulations-with-Fenics-and-FEATool.html" target="_blank" rel="noopener noreferrer"&gt;FEniCS Python FEM Solver and Multiphysics GUI with FEATool&lt;/a&gt;&lt;/p&gt;</description></item><item><title>OpenSBLI</title><link>https://magicdpd.com/posts/2017-06-11-opensbli/</link><pubDate>Sun, 11 Jun 2017 17:00:37 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-11-opensbli/</guid><description>&lt;p&gt;OpenSBLI
&lt;a href="https://opensbli.github.io/" target="_blank" rel="noopener noreferrer"&gt;https://opensbli.github.io/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Сегодня в меню у нас #python фреймворк разработанный для моделирования процесса взаимодействия скачка уплотнения с пограничным слоем (#SBLI, Shock-Boundary Layer Interactions) в рамках решения уравнения Навье-Стокса с учетом сжимаемости течения. Фреймворк генерирует на выходе код на языке Си, который уже выполняет расчеты. При этом, получаемый код может быть оптимизирован для исполнения на #GPU с #CUDA или #OpenCL, а также он знает про технологии #MPI и #OpenMP.&lt;/p&gt;
&lt;p&gt;Гремучая смесь для тех, кто знает, что делает.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=Ob4NKZgUK3U" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=Ob4NKZgUK3U&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://opensbli.github.io/" target="_blank" rel="noopener noreferrer"&gt;https://opensbli.github.io/&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=Ob4NKZgUK3U" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=Ob4NKZgUK3U&lt;/a&gt;&lt;/p&gt;</description></item><item><title>25 лет технологии MPI</title><link>https://magicdpd.com/posts/2017-06-02-25-let-tehnologii-mpi/</link><pubDate>Fri, 02 Jun 2017 17:00:34 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-02-25-let-tehnologii-mpi/</guid><description>&lt;p&gt;25 лет технологии MPI&lt;/p&gt;
&lt;p&gt;Message Passing Interface (aka #MPI) - промышленный стандарт создания вычислительного ПО, работающего на системах с распределенной памятью отпраздновал четверть века. Статья по ссылке рассказывает о становлении этого стандарта в мире #HPC.&lt;/p&gt;</description></item><item><title>Когда MPI заболел</title><link>https://magicdpd.com/posts/2016-11-27-kogda-mpi-zabolel/</link><pubDate>Sun, 27 Nov 2016 12:00:11 +0000</pubDate><guid>https://magicdpd.com/posts/2016-11-27-kogda-mpi-zabolel/</guid><description>&lt;p&gt;Когда MPI заболел
&lt;a href="https://software.intel.com/en-us/node/561777" target="_blank" rel="noopener noreferrer"&gt;https://software.intel.com/en-us/node/561777&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;На днях мне довелось собирать кластер из &amp;ldquo;того, что было&amp;rdquo; на коленке: без планировщика, без серверной операционки, без #Infiniband. Так вот, во время отладки работы #Intel #MPI я наткнулся на очень интересную статью на портале поддержки Intel: &amp;ldquo;Examples of MPI Failures&amp;rdquo;. В статье разобраны 7 ситуаций, когда Intel MPI не MPI и как его починить. #HPC на коленке заработало&lt;/p&gt;
&lt;p&gt;&lt;a href="https://software.intel.com/en-us/node/561777" target="_blank" rel="noopener noreferrer"&gt;Examples of MPI Failures | Intel® Software&lt;/a&gt;&lt;/p&gt;</description></item><item><title>С удивлением для себя узнал, что у #Platform #LSF (Load Sharing Facility) принадлежащего компании #IBM теперь есть бесплатная версия выходящая под брендом IBM #Spectrum LSF #Community Edition.</title><link>https://magicdpd.com/posts/2016-06-12-s-udivleniem-dlya-sebya-uznal-chto-u-plat/</link><pubDate>Sun, 12 Jun 2016 07:00:45 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-12-s-udivleniem-dlya-sebya-uznal-chto-u-plat/</guid><description>&lt;p&gt;Ограничения есть, но они не такие критичные, как может показаться.&lt;/p&gt;
&lt;p&gt;IBM бесплатно предоставляет данную версию HPC Clustre Meanager + Workload Manage + Platfrom MPI + Web UI которая может использоваться на кластерах с 10 узлами. Система способна управлять 1000 заданий!&lt;/p&gt;
&lt;p&gt;Между прочим 20 узлов - это от 256 до 1024 ядер процессоров в зависимости от архитектуры узлов!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.ibm.com/developerworks/servicemanagement/sdi/spectrum-lsf/downloads.html" target="_blank" rel="noopener noreferrer"&gt;Service Management Connect - IBM Spectrum LSF Product Family - Downloads&lt;/a&gt;&lt;/p&gt;</description></item></channel></rss>