<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>HPC on MagicDPD: Magic Driven Product Development!</title><link>https://magicdpd.com/tags/hpc/</link><description>MagicDPD: Magic Driven Product Development! (HPC)</description><generator>Hugo -- gohugo.io</generator><language>ru</language><lastBuildDate>Fri, 22 Apr 2022 17:00:10 +0000</lastBuildDate><atom:link href="https://magicdpd.com/tags/hpc/index.xml" rel="self" type="application/rss+xml"/><item><title>А вот новость этого года про использование #GPU для #CFD расчетов в #Fluent. В версии #Ansys 2022 R1 завезли beta версию, как я называю "второго поколения" CFD-GPU решателя, который получил название "Ansys Multi-GPU Solver". Данный решатель пока работает не для вех бесчисленных классов задач, решаемых Fluent. Но, вот для задач внешней аэродинамики, производительность решателя просто взлетает в космос!</title><link>https://magicdpd.com/posts/2022-04-22-a-vot-novost-etogo-goda-pro-ispolzovan/</link><pubDate>Fri, 22 Apr 2022 17:00:10 +0000</pubDate><guid>https://magicdpd.com/posts/2022-04-22-a-vot-novost-etogo-goda-pro-ispolzovan/</guid><description>&lt;p&gt;Одна карта #NVIDIA #A100 дает производительность, соизмеримую с 272 процессорными ядрами #Intel #Xeon #Gold 6242!&lt;/p&gt;
&lt;p&gt;Новый решатель позволяет одновременно:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;снизить стоимость используемого железа до 7 раз&lt;/li&gt;
&lt;li&gt;снизить потребление электроэнергии вычислительной системой до 4 раза&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;А если учесть, что решатели Ansys традиционно лицензируется так, что стоимость задействования 1 процессорного ядра эквивалентна стоимости задействования 1 карты NVIDIA A100, то цена требуемых для #HPC расчетов лицензий с новым &amp;ldquo;Ansys Multi-GPU Solver&amp;rdquo; оказывается если не в сотни, то в десятки раз ниже! &lt;a href="https://www.ansys.com/blog/unleashing-the-power-of-multiple-gpus-for-cfd-simulations" target="_blank" rel="noopener noreferrer"&gt;https://www.ansys.com/blog/unleashing-the-power-of-multiple-gpus-for-cfd-simulations&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.ansys.com/blog/unleashing-the-power-of-multiple-gpus-for-cfd-simulations" target="_blank" rel="noopener noreferrer"&gt;Unleashing the Power of Multiple GPUs for CFD Simulations&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Для меня стало большой новостью, что только в этом году компания #Siemens таки смогла завести поддержку #GPU от #NVIDIA в свой флагманский #CFD решатель #Simcenter #STARCCM+ 2022.1. Стоит отметить, что у основного конкурента - #Ansys #Fluent поддержка GPU появилась чуть ли не 5 лет назад. Так что я как-то в замешательстве, как так получилось?</title><link>https://magicdpd.com/posts/2022-04-21-dlya-menya-stalo-bolshoy-novostyu-chto-tol/</link><pubDate>Thu, 21 Apr 2022 17:00:05 +0000</pubDate><guid>https://magicdpd.com/posts/2022-04-21-dlya-menya-stalo-bolshoy-novostyu-chto-tol/</guid><description>&lt;p&gt;#HPC &lt;a href="https://www.plm.automation.siemens.com/global/ru/our-story/newsroom/simcenter-star-ccm-cfd-gpu-nvidia/105875" target="_blank" rel="noopener noreferrer"&gt;https://www.plm.automation.siemens.com/global/ru/our-story/newsroom/simcenter-star-ccm-cfd-gpu-nvidia/105875&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.plm.automation.siemens.com/global/ru/our-story/newsroom/simcenter-star-ccm-cfd-gpu-nvidia/105875" target="_blank" rel="noopener noreferrer"&gt;https://www.plm.automation.siemens.com/global/ru/our-story/newsroom/simcenter-star-ccm-cfd-gpu-nvidia/105875&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Любопытная штука - #BQPhy.  Они говорят, что они - это первый в мире программный комплекс CAE Simulations-as-a-Service (Q-SaaS) с расчетами на квантовом компьютере!</title><link>https://magicdpd.com/posts/2022-04-18-lyubopytnaya-shtuka-bqphy--oni-govoryat/</link><pubDate>Mon, 18 Apr 2022 17:00:05 +0000</pubDate><guid>https://magicdpd.com/posts/2022-04-18-lyubopytnaya-shtuka-bqphy--oni-govoryat/</guid><description>&lt;p&gt;Ни какие данные о преимуществах таких вычислений, точности их алгоритмов в сравнении с традиционными кодами коллеги не приводят. Кажется, что квантовый компьютер там пока только для привлечения инвесторов.&lt;/p&gt;
&lt;p&gt;#quantimcomputing #HPC #CAE #cloud &lt;a href="https://youtu.be/VHjVXalI3bw" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/VHjVXalI3bw&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://youtu.be/VHjVXalI3bw" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/VHjVXalI3bw&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Вчера #Ansys купил себе #OnScale, и я расскажу почему это важно.</title><link>https://magicdpd.com/posts/2022-04-14-vchera-ansys-kupil-sebe-onscale-i-ya-ra/</link><pubDate>Thu, 14 Apr 2022 17:00:07 +0000</pubDate><guid>https://magicdpd.com/posts/2022-04-14-vchera-ansys-kupil-sebe-onscale-i-ya-ra/</guid><description>&lt;p&gt;Итак, компания OnScale делала одноименную независимую платформу для  КЭ расчетов в облаке. Идея у них была очень похоже на успешный проект SimScale. Однако, SimScale использовал внутри себя #opensource коды для расчетов, а OnScale решили писать все свое. Кажется, что они просто не оценили трудоемкости написания хороших решателей, вот WebUI вышел вполне себе нормальный.&lt;/p&gt;
&lt;p&gt;Теперь их покупает Ansys, который идет в облако всеми возможными путями. У них, как и всех конкурентов, есть облачные лицензии. У них есть облачные #HPC партнеры в лице #AWS и #Azure. Есть встроенные возможности из классических приложений посылать задачи на расчет в облако. А вот полноценного #WebUI для работы с решателями не было - всегда были какие-то средства доставки классических дестопных приложений и рабочих столов Windows/Linux систем. И тут мы видим, что OnScale становиться последним кусочком мозаики полноценного облачного решения от Ansys.&lt;/p&gt;
&lt;p&gt;Я думаю, что в ближайшие 5 лет мы сможем увидеть новые Web версии #Fluent, #Mechanical #HFSS, которые больше не будут требовать установки дистрибутива с 5 DVD дисков, а полноценно будет работать в глобальном или корпоративном облаке.&lt;/p&gt;
&lt;p&gt;#cloud #opensource #HPC &lt;a href="https://www.ansys.com/news-center/press-releases/4-13-22-ansys-to-expand-cloud-portfolio-with-technology-from-acquisition-of-onscale" target="_blank" rel="noopener noreferrer"&gt;https://www.ansys.com/news-center/press-releases/4-13-22-ansys-to-expand-cloud-portfolio-with-technology-from-acquisition-of-onscale&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.ansys.com/news-center/press-releases/4-13-22-ansys-to-expand-cloud-portfolio-with-technology-from-acquisition-of-onscale" target="_blank" rel="noopener noreferrer"&gt;Ansys to Expand Cloud Portfolio with Technology from Acquisition of OnScale&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Компания #Siemens анонсировала начало многолетнего с #Pasqal для исследования возможности использования квантовых компьютеров при решении классических междисциплинарных задач математического моделирования физических процессов.</title><link>https://magicdpd.com/posts/2022-04-11-kompaniya-siemens-anonsirovala-nachalo-mn/</link><pubDate>Mon, 11 Apr 2022 17:00:08 +0000</pubDate><guid>https://magicdpd.com/posts/2022-04-11-kompaniya-siemens-anonsirovala-nachalo-mn/</guid><description>&lt;p&gt;Запатентованные Pasqal квантовые методы используются для решения сложных нелинейных дифференциальных уравнений и могут быть применены для повышения производительности программных решений Siemens, которые используются для автоматизированного проектирования и тестирования продукции, в том числе в автомобильной промышленности.&lt;/p&gt;
&lt;p&gt;Ну что ж, надеюсь  Siemens сможет разобраться, есть ли в этом будущее для #CAE. Насколько я помню своем общение с создателями первых квантовых компьютеров лет 7 назад - это все было скорее для комбинаторных задач, чем для дифференциальных уравнений.&lt;/p&gt;
&lt;p&gt;#quantumcomputing #HPC &lt;a href="https://www.scientific-computing.com/news/siemens-collaborates-pasqal-research-quantum-applications" target="_blank" rel="noopener noreferrer"&gt;https://www.scientific-computing.com/news/siemens-collaborates-pasqal-research-quantum-applications&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.scientific-computing.com/news/siemens-collaborates-pasqal-research-quantum-applications" target="_blank" rel="noopener noreferrer"&gt;https://www.scientific-computing.com/news/siemens-collaborates-pasqal-research-quantum-applications&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Я нашел оригинальную статью с первым успешным комическим краш тестом автомобиля, выполненным в #LLNL #DYNA3D, прародителе #ANSYS #LSDYNA!</title><link>https://magicdpd.com/posts/2022-03-09-ya-nashel-originalnuyu-statyu-s-pervym-usp/</link><pubDate>Wed, 09 Mar 2022 17:00:02 +0000</pubDate><guid>https://magicdpd.com/posts/2022-03-09-ya-nashel-originalnuyu-statyu-s-pervym-usp/</guid><description>&lt;p&gt;Расчет выполнен в 1986 году по заказу Suzuki Motor Co. Ltd. Расчет занимал от 15 до 20 минут при использовании четырех процессоров #HPC системы #Cray X-MP-46. &lt;a href="https://inis.iaea.org/search/search.aspx?orig_q=RN:17073039" target="_blank" rel="noopener noreferrer"&gt;https://inis.iaea.org/search/search.aspx?orig_q=RN:17073039&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://inis.iaea.org/search/search.aspx?orig_q=RN:17073039" target="_blank" rel="noopener noreferrer"&gt;Application of DYNA3D in large scale crashworthiness calculat..|INIS&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#NVIDIA продолжает свое движение в сторону становления настоящим #HPC гигантом. Вчера стало известно о том, что NVIDIA купила компанию Bright Computing, известную своим программным обеспечением Bright Cluster Manager (#BCM). BCM являться пожалуй единственным законченным набором инструментов, который позволяет почти без боли и консоли разворачивать настоящие суперкомпьютеры с правильно настроенными из коробки планировщиками #PBS, #LSF, #Slurm, параллельными файловыми системами и прочими необходимыми надстройками. При этом, все делается через удобный WEB-UI. Была даже бесплатная версия для кластеров до 8 узлов. Страшно сказать: у BCM даже была своя собственная система доставки драйверов для #Infiniband (Mellanox, кстати, тоже поглощён NVIDIA) с дополнительным уровнем тестирования на совместимость и стабильность!</title><link>https://magicdpd.com/posts/2022-01-11-nvidia-prodolzhaet-svoe-dvizhenie-v-storo/</link><pubDate>Tue, 11 Jan 2022 13:00:59 +0000</pubDate><guid>https://magicdpd.com/posts/2022-01-11-nvidia-prodolzhaet-svoe-dvizhenie-v-storo/</guid><description>&lt;p&gt;&lt;a href="https://blogs.nvidia.com/blog/2022/01/10/bright-computing-hpc/" target="_blank" rel="noopener noreferrer"&gt;https://blogs.nvidia.com/blog/2022/01/10/bright-computing-hpc/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://blogs.nvidia.com/blog/2022/01/10/bright-computing-hpc/" target="_blank" rel="noopener noreferrer"&gt;https://blogs.nvidia.com/blog/2022/01/10/bright-computing-hpc/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Суперкомпьютерное моделирование геомеханического состояния массива горных пород</title><link>https://magicdpd.com/posts/2021-12-30-superkompyuternoe-modelirovanie-geomehan/</link><pubDate>Thu, 30 Dec 2021 13:56:28 +0000</pubDate><guid>https://magicdpd.com/posts/2021-12-30-superkompyuternoe-modelirovanie-geomehan/</guid><description>&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=HwAURzWXxYE" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=HwAURzWXxYE&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Доклад по применению LS-DYNA для решения геомеханических задач. Доклад сделан в рамках суперкомпьютерной конференции НСКФ-2021 на основе работ коллектива авторов Смалюк А.Ф., Медведев С.В., Матюшенко В.М., Медведева В.Г., Биряльцев Е.В., Дегтярев А.Г., Гильмутдинов Р.Р., Пономаренко Д.В. Текст доклада можно найти на сайте конференции: &lt;a href="https://2021.nscf.ru/TesisAll/02_Sypercomputernoe_modelirovanie/903_SmalykAF.pdf" target="_blank" rel="noopener noreferrer"&gt;https://2021.nscf.ru/TesisAll/02_Sypercomputernoe_modelirovanie/903_SmalykAF.pdf&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ansys #hpc #lsdyna
&lt;a href="https://tinyurl.com/y5mneyzj" target="_blank" rel="noopener noreferrer"&gt;https://tinyurl.com/y5mneyzj&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=HwAURzWXxYE" target="_blank" rel="noopener noreferrer"&gt;НСКФ-2021 Суперкомпьютерное моделирование геомеханического состояния массива горных пород&lt;/a&gt;
&lt;a href="https://2021.nscf.ru/TesisAll/02_Sypercomputernoe_modelirovanie/903_SmalykAF.pdf" target="_blank" rel="noopener noreferrer"&gt;https://2021.nscf.ru/TesisAll/02_Sypercomputernoe_modelirovanie/903_SmalykAF.pdf&lt;/a&gt;
&lt;a href="https://tinyurl.com/y5mneyzj" target="_blank" rel="noopener noreferrer"&gt;https://tinyurl.com/y5mneyzj&lt;/a&gt;&lt;/p&gt;</description></item><item><title>CHT</title><link>https://magicdpd.com/posts/2021-11-17-cht/</link><pubDate>Wed, 17 Nov 2021 13:03:27 +0000</pubDate><guid>https://magicdpd.com/posts/2021-11-17-cht/</guid><description>&lt;p&gt;CHT&lt;/p&gt;
&lt;p&gt;CTH - это &amp;ldquo;многофазный&amp;rdquo; решатель для МКЭ в эйлеровой формулировке, разработанный в Сандийской национальной лаборатории. Далее, парам моментов, которые привлекли мое внимание в данном коде.&lt;/p&gt;
&lt;p&gt;SESAME Multi-Phase Equation of State - CTH имеет несколько уравнений состояния (УРС) материалов. Среди них я выделяю УРС SESAME, которое может моделировать фазовые переходы твердое тело, жидкость, пар, жидкость-пар, твердое тело-жидкость и твердое тело-твердое тело. Такого я в комических кодах не припоминаю.&lt;/p&gt;
&lt;p&gt;В CTH все должно быть хорошо с задачами горения и детонации (как идеальной, так и не идеальной). Есть такие модели как программируемое горение, Ли-Тарвер, Джонса-Уилкинса-Ли, Forestfire и собственные модели Сандии.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.sandia.gov/cth/" target="_blank" rel="noopener noreferrer"&gt;https://www.sandia.gov/cth/&lt;/a&gt;
#cht #hpc #sandia #sesame
&lt;a href="https://tinyurl.com/ye33soao" target="_blank" rel="noopener noreferrer"&gt;https://tinyurl.com/ye33soao&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.sandia.gov/cth/" target="_blank" rel="noopener noreferrer"&gt;Scalable Shock Physics&lt;/a&gt;
&lt;a href="https://tinyurl.com/ye33soao" target="_blank" rel="noopener noreferrer"&gt;https://tinyurl.com/ye33soao&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Generative Extensions для Creo</title><link>https://magicdpd.com/posts/2021-01-21-generative-extensions-dlya-creo/</link><pubDate>Thu, 21 Jan 2021 13:01:21 +0000</pubDate><guid>https://magicdpd.com/posts/2021-01-21-generative-extensions-dlya-creo/</guid><description>&lt;p&gt;Generative Extensions для Creo&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=RReVZ37fs0w" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=RReVZ37fs0w&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;В 7-ой версии Creo появились новые функции для оптимизации топологии: Generative Topology Optimization (GTO) и Generative Design Extension (GDX). Первый позволяет получать гладкие (скорее всего алгоритм базируется на level-set методе оптимизации) и красивые модельки на выходе, а второй ускоряет весь процесс за счет того, что выгружает задачи для удаленных расчетов в облаке. Если честно, то все это ну вот прям очень напоминает последние наработки по топологической оптимизации в Ansys Discovery. Ну а математический движок механических расчетов Discovery так-то встроен в Creo.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=Zd9seD8AgHk" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=Zd9seD8AgHk&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=H2YgvcSEyxE" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=H2YgvcSEyxE&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#cloud #creo #hpc #optimization #topology
&lt;a href="https://tinyurl.com/y5ulpttp" target="_blank" rel="noopener noreferrer"&gt;https://tinyurl.com/y5ulpttp&lt;/a&gt;
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=RReVZ37fs0w" target="_blank" rel="noopener noreferrer"&gt;Generative Design Extension is Introduced | Creo 7.0.2&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=Zd9seD8AgHk" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=Zd9seD8AgHk&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=H2YgvcSEyxE" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=H2YgvcSEyxE&lt;/a&gt;
&lt;a href="https://tinyurl.com/y5ulpttp" target="_blank" rel="noopener noreferrer"&gt;https://tinyurl.com/y5ulpttp&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Infiniband NDR</title><link>https://magicdpd.com/posts/2020-11-24-infiniband-ndr/</link><pubDate>Tue, 24 Nov 2020 16:38:26 +0000</pubDate><guid>https://magicdpd.com/posts/2020-11-24-infiniband-ndr/</guid><description>&lt;p&gt;Infiniband NDR
#HPC #Infiniband #NDR #NVIDIA
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/infiniband-ndr/" target="_blank" rel="noopener noreferrer"&gt;Infiniband NDR - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Большие расчеты MPM на GPU</title><link>https://magicdpd.com/posts/2020-10-26-bolshie-raschety-mpm-na-gpu/</link><pubDate>Mon, 26 Oct 2020 13:00:50 +0000</pubDate><guid>https://magicdpd.com/posts/2020-10-26-bolshie-raschety-mpm-na-gpu/</guid><description>&lt;p&gt;Большие расчеты MPM на GPU
#HPC #MPM
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/100-million-mpm/" target="_blank" rel="noopener noreferrer"&gt;Большие расчеты MPM на GPU - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Altair покупает Univa</title><link>https://magicdpd.com/posts/2020-09-21-altair-pokupaet-univa/</link><pubDate>Mon, 21 Sep 2020 16:33:18 +0000</pubDate><guid>https://magicdpd.com/posts/2020-09-21-altair-pokupaet-univa/</guid><description>&lt;p&gt;Altair покупает Univa&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/altair-acquires-univa/" target="_blank" rel="noopener noreferrer"&gt;Overview of Univa Grid Engine&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Intel Xeon и AMD EPYC в ANSYS</title><link>https://magicdpd.com/posts/2020-08-31-intel-xeon-i-amd-epyc-v-ansys/</link><pubDate>Mon, 31 Aug 2020 15:56:54 +0000</pubDate><guid>https://magicdpd.com/posts/2020-08-31-intel-xeon-i-amd-epyc-v-ansys/</guid><description>&lt;p&gt;Intel Xeon и AMD EPYC в ANSYS
#AMD #CADFEM #eCADFEM #HPC #Intel
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/intel-xeon-amd-epyc-ansys/" target="_blank" rel="noopener noreferrer"&gt;Intel Xeon и AMD EPYC в ANSYS - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как построить суперкомпьютер из старого учебного класса.</title><link>https://magicdpd.com/posts/2020-06-29-kak-postroit-superkompyuter-iz-starogo/</link><pubDate>Mon, 29 Jun 2020 17:53:21 +0000</pubDate><guid>https://magicdpd.com/posts/2020-06-29-kak-postroit-superkompyuter-iz-starogo/</guid><description>&lt;p&gt;Дёшево :-)&lt;/p&gt;</description></item><item><title>Презентация Cray-1</title><link>https://magicdpd.com/posts/2020-06-04-prezentatsiya-cray-1/</link><pubDate>Thu, 04 Jun 2020 13:00:16 +0000</pubDate><guid>https://magicdpd.com/posts/2020-06-04-prezentatsiya-cray-1/</guid><description>&lt;p&gt;Презентация Cray-1&lt;/p&gt;
&lt;p&gt;&lt;a href="http://magicdpd.ru/cray-1-introduction/" target="_blank" rel="noopener noreferrer"&gt;Презентация Cray-1 - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Удаленная визуализация для геймеров</title><link>https://magicdpd.com/posts/2020-05-07-udalennaya-vizualizatsiya-dlya-geymerov/</link><pubDate>Thu, 07 May 2020 15:31:24 +0000</pubDate><guid>https://magicdpd.com/posts/2020-05-07-udalennaya-vizualizatsiya-dlya-geymerov/</guid><description>&lt;p&gt;Удаленная визуализация для геймеров&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/%d1%83%d0%b4%d0%b0%d0%bb%d0%b5%d0%bd%d0%bd%d0%b0%d1%8f-%d0%b2%d0%b8%d0%b7%d1%83%d0%b0%d0%bb%d0%b8%d0%b7%d0%b0%d1%86%d0%b8%d1%8f-%d0%b4%d0%bb%d1%8f-%d0%b3%d0%b5%d0%b9%d0%bc%d0%b5%d1%80%d0%be%d0%b2/" target="_blank" rel="noopener noreferrer"&gt;Удаленная визуализация для геймеров - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Удаленная работа с инженерной графикой</title><link>https://magicdpd.com/posts/2020-04-20-udalennaya-rabota-s-inzhenernoy-grafikoy/</link><pubDate>Mon, 20 Apr 2020 13:00:15 +0000</pubDate><guid>https://magicdpd.com/posts/2020-04-20-udalennaya-rabota-s-inzhenernoy-grafikoy/</guid><description>&lt;p&gt;Удаленная работа с инженерной графикой
#HPC #OpenGL #RDP #RemoteFX #remoteviz
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="http://magicdpd.ru/%d1%83%d0%b4%d0%b0%d0%bb%d0%b5%d0%bd%d0%bd%d0%b0%d1%8f-%d1%80%d0%b0%d0%b1%d0%be%d1%82%d0%b0-%d1%81-%d0%b8%d0%bd%d0%b6%d0%b5%d0%bd%d0%b5%d1%80%d0%bd%d0%be%d0%b9-%d0%b3%d1%80%d0%b0%d1%84%d0%b8%d0%ba/" target="_blank" rel="noopener noreferrer"&gt;Удаленная работа с инженерной графикой - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Multi-Car Crash Simulation</title><link>https://magicdpd.com/posts/2020-04-10-multi-car-crash-simulation/</link><pubDate>Fri, 10 Apr 2020 13:00:20 +0000</pubDate><guid>https://magicdpd.com/posts/2020-04-10-multi-car-crash-simulation/</guid><description>&lt;p&gt;Multi-Car Crash Simulation&lt;/p&gt;
&lt;p&gt;&lt;a href="http://magicdpd.ru/multi-car-crash-simulation/" target="_blank" rel="noopener noreferrer"&gt;Multi-Car Crash Simulation - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>DynaCruncher Project</title><link>https://magicdpd.com/posts/2020-03-03-dynacruncher-project/</link><pubDate>Tue, 03 Mar 2020 13:01:05 +0000</pubDate><guid>https://magicdpd.com/posts/2020-03-03-dynacruncher-project/</guid><description>&lt;p&gt;DynaCruncher Project&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/dynacruncher-project/" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/dynacruncher-project/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>История Cray в одном видео</title><link>https://magicdpd.com/posts/2020-02-27-istoriya-cray-v-odnom-video/</link><pubDate>Thu, 27 Feb 2020 13:00:16 +0000</pubDate><guid>https://magicdpd.com/posts/2020-02-27-istoriya-cray-v-odnom-video/</guid><description>&lt;p&gt;История Cray в одном видео
#CRAY #HPC
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="http://magicdpd.ru/%d0%b8%d1%81%d1%82%d0%be%d1%80%d0%b8%d1%8f-cray-%d0%b2-%d0%be%d0%b4%d0%bd%d0%be%d0%bc-%d0%b2%d0%b8%d0%b4%d0%b5%d0%be/" target="_blank" rel="noopener noreferrer"&gt;История Cray в одном видео - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Вакансия: R&amp;D по HPC в московской лаборатории Huawei</title><link>https://magicdpd.com/posts/2020-02-14-vakansiya-rd-po-hpc-v-moskovskoy-labora/</link><pubDate>Fri, 14 Feb 2020 13:00:27 +0000</pubDate><guid>https://magicdpd.com/posts/2020-02-14-vakansiya-rd-po-hpc-v-moskovskoy-labora/</guid><description>&lt;p&gt;Вакансия: R&amp;amp;D по HPC в московской лаборатории Huawei&lt;/p&gt;</description></item><item><title>ScaleMP поставил очередной рекорд для систем с общей памятью</title><link>https://magicdpd.com/posts/2020-01-23-scalemp-postavil-ocherednoy-rekord-dlya-si/</link><pubDate>Thu, 23 Jan 2020 13:00:47 +0000</pubDate><guid>https://magicdpd.com/posts/2020-01-23-scalemp-postavil-ocherednoy-rekord-dlya-si/</guid><description>&lt;p&gt;ScaleMP поставил очередной рекорд для систем с общей памятью&lt;/p&gt;
&lt;p&gt;&lt;a href="http://magicdpd.ru/scalemp-demonstrates-best-in-class-large-system-results/" target="_blank" rel="noopener noreferrer"&gt;ScaleMP поставил очередной рекорд для систем с общей памятью - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Все, что надо знать про настройку RSM</title><link>https://magicdpd.com/posts/2019-12-19-vse-chto-nado-znat-pro-nastroyku-rsm/</link><pubDate>Thu, 19 Dec 2019 13:01:33 +0000</pubDate><guid>https://magicdpd.com/posts/2019-12-19-vse-chto-nado-znat-pro-nastroyku-rsm/</guid><description>&lt;p&gt;Все, что надо знать про настройку RSM
#ANSYS #ARC #HPC #RSM
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="http://magicdpd.ru/setup-ansys-rsm-with-arc/" target="_blank" rel="noopener noreferrer"&gt;Все, что надо знать про настройку RSM - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Easy8 — Bright Cluster Manager бесплатно!</title><link>https://magicdpd.com/posts/2019-12-09-easy8-bright-cluster-manager-besplatno/</link><pubDate>Mon, 09 Dec 2019 14:14:36 +0000</pubDate><guid>https://magicdpd.com/posts/2019-12-09-easy8-bright-cluster-manager-besplatno/</guid><description>&lt;p&gt;Easy8 — Bright Cluster Manager бесплатно!
#BrightClusterManager #easy8 #HPC #Linux
by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/easy8-bright-cluster-manager-for-free/" target="_blank" rel="noopener noreferrer"&gt;Easy8 - Bright Cluster Manager бесплатно! - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>ANSYS Distributed compute services (DCS)</title><link>https://magicdpd.com/posts/2019-12-06-ansys-distributed-compute-services-dcs/</link><pubDate>Fri, 06 Dec 2019 16:00:31 +0000</pubDate><guid>https://magicdpd.com/posts/2019-12-06-ansys-distributed-compute-services-dcs/</guid><description>&lt;p&gt;ANSYS Distributed compute services (DCS)&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/ansys-distributed-compute-services-dcs/" target="_blank" rel="noopener noreferrer"&gt;ANSYS Distributed compute services (DCS) - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Рекорд по расчетам и визуализации турбулентных вихрей</title><link>https://magicdpd.com/posts/2019-11-28-rekord-po-raschetam-i-vizualizatsii-turbul/</link><pubDate>Thu, 28 Nov 2019 16:00:27 +0000</pubDate><guid>https://magicdpd.com/posts/2019-11-28-rekord-po-raschetam-i-vizualizatsii-turbul/</guid><description>&lt;p&gt;Рекорд по расчетам и визуализации турбулентных вихрей&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/researchers-visualize-the-largest-turbulence-simulation-ever/" target="_blank" rel="noopener noreferrer"&gt;Рекорд по расчетам и визуализации турбулентных вихрей - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>LS-DYNA HPC</title><link>https://magicdpd.com/posts/2019-11-19-ls-dyna-hpc/</link><pubDate>Tue, 19 Nov 2019 13:16:34 +0000</pubDate><guid>https://magicdpd.com/posts/2019-11-19-ls-dyna-hpc/</guid><description>&lt;p&gt;LS-DYNA HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://magicdpd.ru/ls-dyna-hpc/" target="_blank" rel="noopener noreferrer"&gt;LS-DYNA HPC - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как надо уметь готовить ANSYS EKM</title><link>https://magicdpd.com/posts/2019-10-03-kak-nado-umet-gotovit-ansys-ekm/</link><pubDate>Thu, 03 Oct 2019 13:00:22 +0000</pubDate><guid>https://magicdpd.com/posts/2019-10-03-kak-nado-umet-gotovit-ansys-ekm/</guid><description>&lt;p&gt;Как надо уметь готовить ANSYS EKM&lt;/p&gt;
&lt;p&gt;Монументальная работа по настройке ANSYS EKM от Александра Николаевича Чернова. Порой я думаю, что EKM его боится, и сам подсказывает, как лучше сделать. Потому что мой коллега уже перевел интерфейс на русский, настроил взаимодействие с базами данных и контроллером домена и подключил это к расчетному кластеру. Такой EKM — это полноценное локальное облако для расчетов и управления их результатами.&lt;/p&gt;
&lt;p&gt;#ANSYS #APDL #CADFEM #CFX #EKM #Fluent #HPC #PBS
&lt;a href="https://bit.ly/2o8Xei5" target="_blank" rel="noopener noreferrer"&gt;https://bit.ly/2o8Xei5&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://bit.ly/2o8Xei5" target="_blank" rel="noopener noreferrer"&gt;Как надо уметь готовить ANSYS EKM - MagicDPD&lt;/a&gt;&lt;/p&gt;</description></item><item><title>GENESIS - CFD код от GE</title><link>https://magicdpd.com/posts/2019-10-02-genesis-cfd-kod-ot-ge/</link><pubDate>Wed, 02 Oct 2019 13:00:16 +0000</pubDate><guid>https://magicdpd.com/posts/2019-10-02-genesis-cfd-kod-ot-ge/</guid><description>&lt;p&gt;GENESIS - CFD код от GE&lt;/p&gt;
&lt;p&gt;Вычислительный код GENESIS разрабатывается GE на базе существующей научной разработки hp-adaptive Multi-physics Simulation Code (hpMusic), так что правильнее его называть hpMusic/GENESIS.&lt;/p&gt;
&lt;p&gt;Код, по заявлениям разработчиков, очень интересный.Это не традиционный метод конечных объемов, а некий собственный «flux reconstruction method», который представляет собой некую смесь лагранжева и эйлерова подхода к описанию среды. Если я правильно понял его суть, то каждый вихрь в этом методе считается в эйлеровой постановке, а вот перемещение эйлерова домена с вихрем по пространству — уже в лагранжевой. Говорят, что такая схема позволяет очень хорошо разложить задачу на большой массив GPU и минимизировать затраты на связь между доменами. Больше информации тут: &lt;a href="https://www.olcf.ornl.gov/2019/09/12/gpus-power-ge-code-at-olcf-hackathons/" target="_blank" rel="noopener noreferrer"&gt;https://www.olcf.ornl.gov/2019/09/12/gpus-power-ge-code-at-olcf-hackathons/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#CFD #GE #GENESIS #GPU #HPC #HpMusic #NVIDIA
&lt;a href="https://bit.ly/2mYKCcQ" target="_blank" rel="noopener noreferrer"&gt;https://bit.ly/2mYKCcQ&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.olcf.ornl.gov/2019/09/12/gpus-power-ge-code-at-olcf-hackathons/" target="_blank" rel="noopener noreferrer"&gt;GPUs Power GE Code at OLCF Hackathons&lt;/a&gt;
&lt;a href="https://bit.ly/2mYKCcQ" target="_blank" rel="noopener noreferrer"&gt;https://bit.ly/2mYKCcQ&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Volvo говорит про LS-DYNA</title><link>https://magicdpd.com/posts/2019-09-18-volvo-govorit-pro-ls-dyna/</link><pubDate>Wed, 18 Sep 2019 11:47:06 +0000</pubDate><guid>https://magicdpd.com/posts/2019-09-18-volvo-govorit-pro-ls-dyna/</guid><description>&lt;p&gt;Volvo говорит про LS-DYNA
Очень крутой технический доклад #Volvo на 7-ой конференции «BEFORE REALITY CONFERENCE», проводимой компанией #BETA #CAE. Конечно Volvo читает в моей любимой #LSDYNA. А вот модели она готовит в #ANSA, на которую они накрутили много собственной автоматизации. Анализ результатов за #Meta.&lt;/p&gt;
&lt;p&gt;Мне больше всего понравился рассказ про рабочий процесс, выработанный на Volvo — ведь они строят полные модели автомобилей для расчетов! И строят их почти автоматически.&lt;/p&gt;
&lt;p&gt;А еще, подробная модель автомобиля у них состоит всего из 10-15 миллионов элементов — это не очень много, а значит инженеры очень грамотно строят сетку и используют кучу упрощений без потери точности.&lt;/p&gt;
&lt;p&gt;И конечно есть пара слайдов про #HPC: 34 800 процессорных ядер! И им не хватает 😊&lt;/p&gt;
&lt;p&gt;Comprehensive Safety CAE for the all-new Volvo S90/V90/V90CC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/embed/kfYjxiZaESI?__ref=vk.api" target="_blank" rel="noopener noreferrer"&gt;Comprehensive Safety CAE for the all-new Volvo S90/V90/V90CC&lt;/a&gt;&lt;/p&gt;</description></item><item><title>HPC интерконнект по PCIe Gen 4</title><link>https://magicdpd.com/posts/2019-07-21-hpc-interkonnekt-po-pcie-gen-4/</link><pubDate>Sun, 21 Jul 2019 13:00:31 +0000</pubDate><guid>https://magicdpd.com/posts/2019-07-21-hpc-interkonnekt-po-pcie-gen-4/</guid><description>&lt;p&gt;HPC интерконнект по PCIe Gen 4&lt;/p&gt;
&lt;p&gt;Интересная разработка HPC стартапа по превращению шины PCIe в полноценный интерконнект. Обычно на эту шину цепляется как-то интерконнект типа сети (Infiniband, Ethernet, Omny Path). Но в случае компании GigaIO интерконнект строится прямо на основе PCIe шины. Если все правильно сделать, то должно получиться неплохо, так как часть накладных расходов на создание «сети» исчезает.&lt;/p&gt;
&lt;p&gt;#GigIO #HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2BU" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2BU&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2BU" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2BU&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Azure и облачный кластер на 20 000 ядер</title><link>https://magicdpd.com/posts/2019-07-18-azure-i-oblachnyy-klaster-na-20-000-yader/</link><pubDate>Thu, 18 Jul 2019 13:00:18 +0000</pubDate><guid>https://magicdpd.com/posts/2019-07-18-azure-i-oblachnyy-klaster-na-20-000-yader/</guid><description>&lt;p&gt;Azure и облачный кластер на 20 000 ядер&lt;/p&gt;
&lt;p&gt;Коллеги из Microsoft немного поиграли мускулатурой в своих ЦОД West US 2 и East US. Недолго думая, они смогли собрать HPC кластер из 512 виртуальных машин (новая серия HC) = 22 528 физических вычислительных ядер Intel Xeon Platinum 8168 (безо всякого там Hyper Threading). При этом это действительно HPC, так как виртуалки были объединены настоящим интерконнектом 100 Gb/s InfiniBand (SR-IOV). Профит: очень быстрый кластер в облаке с хорошей масштабируемостью согласно бенчмаркам. И да, не забывайте, что Azure — главный партнер ANSYS в облаке.&lt;/p&gt;
&lt;p&gt;Оригинальный текст:&lt;/p&gt;
&lt;p&gt;Azure Benchmarks HC-series Across 20,000 cores for HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://azure.microsoft.com/en-us/blog/azure-hc-series-virtual-machines-crosses-20000-cores-for-hpc-workloads/" target="_blank" rel="noopener noreferrer"&gt;https://azure.microsoft.com/en-us/blog/azure-hc-series-virtual-machines-crosses-20000-cores-for-hpc-workloads/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#Azure #cloud #HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2BH" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2BH&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://azure.microsoft.com/en-us/blog/azure-hc-series-virtual-machines-crosses-20000-cores-for-hpc-workloads/" target="_blank" rel="noopener noreferrer"&gt;https://azure.microsoft.com/en-us/blog/azure-hc-series-virtual-machines-crosses-20000-cores-for-hpc-workloads/&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2BH" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2BH&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Расчеты в LS-DYNA на кластерах Windows HPC Cluster</title><link>https://magicdpd.com/posts/2019-06-10-raschety-v-ls-dyna-na-klasterah-windows-h/</link><pubDate>Mon, 10 Jun 2019 17:00:30 +0000</pubDate><guid>https://magicdpd.com/posts/2019-06-10-raschety-v-ls-dyna-na-klasterah-windows-h/</guid><description>&lt;p&gt;Расчеты в LS-DYNA на кластерах Windows HPC Cluster&lt;/p&gt;
&lt;p&gt;DYNAmore выпустили инструкцию по настройке и работе распределённого решетеля LS-DYNA на кластерах под управлением MS Windows HPC Pack 2016. Инструкция полезная, но на самом деле вам достаточно знать следующий набор команд:&lt;/p&gt;
&lt;p&gt;SET LSTC_MEMORY=auto
job submit /jobname: /numcores: /workdir: mpiexec -np i= jobid=&lt;/p&gt;
&lt;p&gt;Ну а если вы используете лицензии ANSYS LS-DYNA, то в начало надо добавить еще такое:&lt;/p&gt;
&lt;p&gt;set LSTC_LICENSE=ANSYS
set ANSYSLMD_LICENSE_FILE=1055@
set ANSYSLI_SERVERS=2325@&lt;/p&gt;
&lt;p&gt;Исходный документ тут: &lt;a href="https://project.dynamore.se/public/windowscluster12" target="_blank" rel="noopener noreferrer"&gt;https://project.dynamore.se/public/windowscluster12&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#HPC #LS_DYNA #MPI #Windows&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2yI" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2yI&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://project.dynamore.se/public/windowscluster12" target="_blank" rel="noopener noreferrer"&gt;https://project.dynamore.se/public/windowscluster12&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2yI" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2yI&lt;/a&gt;&lt;/p&gt;</description></item><item><title>HPE покупает Cray</title><link>https://magicdpd.com/posts/2019-05-21-hpe-pokupaet-cray/</link><pubDate>Tue, 21 May 2019 12:01:11 +0000</pubDate><guid>https://magicdpd.com/posts/2019-05-21-hpe-pokupaet-cray/</guid><description>&lt;p&gt;HPE покупает Cray&lt;/p&gt;
&lt;p&gt;Огромная новость из мира HPC. Hewlett Packard Enterprise (HPE) объявили, что договорились с Cray купить последнюю за $1.3 миллиарда. Напомню, что несколько лет назад HPE уже купил другую легенду суперкомпьютерного мира — компанию SGI (Silicon Graphics Incorporated), обладавшую уникальными технологиями по созданию аппаратных систем с общей памятью и файловых систем. Cray же сейчас умеет строить одни из самых больших суперкомпьютеров, имеет собственный интерконнект и MPI.&lt;/p&gt;
&lt;p&gt;Короче говоря, ни у кого в мире HPC никогда еще не было столько компетенций, сколько в своих руках сейчас собрал HPE.&lt;/p&gt;
&lt;p&gt;На фото ныне покойный Сеймур Роджер Крэй (Seymour Roger Cray) — основатель компании Cray. Новостной источник: &lt;a href="https://www.hpcwire.com/2019/05/17/hpe-to-acquire-cray-for-1-3b/" target="_blank" rel="noopener noreferrer"&gt;https://www.hpcwire.com/2019/05/17/hpe-to-acquire-cray-for-1-3b/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#CRAY #HPC #HPE&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2wp" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2wp&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.hpcwire.com/2019/05/17/hpe-to-acquire-cray-for-1-3b/" target="_blank" rel="noopener noreferrer"&gt;https://www.hpcwire.com/2019/05/17/hpe-to-acquire-cray-for-1-3b/&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2wp" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2wp&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Высокопроизводительные вычисления в ANSYS 2019 R1</title><link>https://magicdpd.com/posts/2019-05-16-vysokoproizvoditelnye-vychisleniya-v-ansy/</link><pubDate>Thu, 16 May 2019 11:01:12 +0000</pubDate><guid>https://magicdpd.com/posts/2019-05-16-vysokoproizvoditelnye-vychisleniya-v-ansy/</guid><description>&lt;p&gt;Высокопроизводительные вычисления в ANSYS 2019 R1&lt;/p&gt;
&lt;p&gt;Ровно через неделю (23 мая в 14:00) приходите на мой вебинар про HPC и Cloud для ANSYS. Каверзные вопросы приветствуются. Необходима бесплатная регистрация: &lt;del&gt;&lt;a href="https://webinars.cadfem-cis.ru/event/hpc/registration/" target="_blank" rel="noopener noreferrer"&gt;https://webinars.cadfem-cis.ru/event/hpc/registration/&lt;/a&gt;.&lt;/del&gt; → &lt;a href="http://web.archive.org/web/20190917232743/https://webinars.cadfem-cis.ru/event/hpc/registration/" target="_blank" rel="noopener noreferrer"&gt;Сохранённая версия&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Оригинальная ссылка больше не доступна&lt;/em&gt; Ну и вообще, у нас новая прикольная платформа для Web семинаров: &lt;a href="https://webinars.cadfem-cis.ru" target="_blank" rel="noopener noreferrer"&gt;https://webinars.cadfem-cis.ru&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ANSYS #CADFEM #cloud #eCADFEM #HPC #webinar&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2vY" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2vY&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://webinars.cadfem-cis.ru/event/hpc/registration/" target="_blank" rel="noopener noreferrer"&gt;https://webinars.cadfem-cis.ru/event/hpc/registration/&lt;/a&gt;
&lt;a href="https://webinars.cadfem-cis.ru" target="_blank" rel="noopener noreferrer"&gt;https://webinars.cadfem-cis.ru&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2vY" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2vY&lt;/a&gt;&lt;/p&gt;</description></item><item><title>CFD кластер на Android</title><link>https://magicdpd.com/posts/2019-05-03-cfd-klaster-na-android/</link><pubDate>Fri, 03 May 2019 17:00:15 +0000</pubDate><guid>https://magicdpd.com/posts/2019-05-03-cfd-klaster-na-android/</guid><description>&lt;p&gt;CFD кластер на Android&lt;/p&gt;
&lt;p&gt;Третий день кряду я говорю про мобильную операционную систему Android. Сегодня темой дня стала система для распределённого решения задач гидродинамики.&lt;/p&gt;
&lt;p&gt;Причем расчет идет не просто на мобильных устройствах, а на их GPU! А задачу решают при помощи решетчатых уравнений Больцмана.&lt;/p&gt;
&lt;p&gt;Ссылки на научные статьи тут: &lt;del&gt;&lt;a href="https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices" target="_blank" rel="noopener noreferrer"&gt;https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices&lt;/a&gt;&lt;/del&gt; → &lt;a href="http://web.archive.org/web/20200927235314/https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices" target="_blank" rel="noopener noreferrer"&gt;Сохранённая версия&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Оригинальная ссылка больше не доступна&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;#Android #CFD #HPC #LBM&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2uS" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2uS&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;del&gt;&lt;a href="https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices" target="_blank" rel="noopener noreferrer"&gt;https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices&lt;/a&gt;&lt;/del&gt; → &lt;a href="http://web.archive.org/web/20200927235314/https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices" target="_blank" rel="noopener noreferrer"&gt;Сохранённая версия&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Оригинальная ссылка больше не доступна&lt;/em&gt;
&lt;a href="https://wp.me/p9vWYY-2uS" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2uS&lt;/a&gt;&lt;/p&gt;</description></item><item><title>FORTRAN II на компьютере IBM 1401</title><link>https://magicdpd.com/posts/2019-04-13-fortran-ii-na-kompyutere-ibm-1401/</link><pubDate>Sat, 13 Apr 2019 17:01:08 +0000</pubDate><guid>https://magicdpd.com/posts/2019-04-13-fortran-ii-na-kompyutere-ibm-1401/</guid><description>&lt;p&gt;FORTRAN II на компьютере IBM 1401&lt;/p&gt;
&lt;p&gt;Видео из серии «когда компьютеры были большими, а фортран еще молодым». Реальная работа чудом ожившего древнего компьютера IBM 1401 (1959 год, согласно &lt;a href="https://en.wikipedia.org/wiki/IBM_1401" target="_blank" rel="noopener noreferrer"&gt;https://en.wikipedia.org/wiki/IBM_1401&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;#fortran #HPC #IBM&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2tl" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2tl&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://en.wikipedia.org/wiki/IBM_1401" target="_blank" rel="noopener noreferrer"&gt;https://en.wikipedia.org/wiki/IBM_1401&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2tl" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2tl&lt;/a&gt;&lt;/p&gt;</description></item><item><title>HPC porn: HPE Superdome Flex</title><link>https://magicdpd.com/posts/2019-04-11-hpc-porn-hpe-superdome-flex/</link><pubDate>Thu, 11 Apr 2019 12:01:15 +0000</pubDate><guid>https://magicdpd.com/posts/2019-04-11-hpc-porn-hpe-superdome-flex/</guid><description>&lt;p&gt;HPC porn: HPE Superdome Flex&lt;/p&gt;
&lt;p&gt;Наши инженеры многое бы отдали за такую систему с общей памятью&lt;/p&gt;
&lt;p&gt;Официальный пресс-релиз: «HPE Superdome Flex предназначен для критичных к вычислительной мощности рабочих нагрузок, таких как анализ данных, решение проблем искусственного интеллекта и высокопроизводительные вычисления. Его конфигурации варьируются от 4 до 32 сокетов и до 896 ядер в одной системе, что идеально подходит для выполнения сложных рабочих нагрузок HPC и AI. Обновлённый продукт предлагает новую, более быструю технологию памяти DDR4, которая обеспечивает от 768 ГБ до 48 ТБ общей памяти с возможностью выбора только высокопроизводительной DRAM или комбинации DRAM и новой постоянной (persistent) памяти в зависимости от требований рабочей нагрузки. Поддерживаются процессоры Intel Xeon Scalable 2-го поколения.»&lt;/p&gt;
&lt;p&gt;#HPC #HPE&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2tb" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2tb&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2tb" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2tb&lt;/a&gt;&lt;/p&gt;</description></item><item><title>48 ядер в одном процессоре от Intel</title><link>https://magicdpd.com/posts/2019-04-03-48-yader-v-odnom-protsessore-ot-intel/</link><pubDate>Wed, 03 Apr 2019 12:00:28 +0000</pubDate><guid>https://magicdpd.com/posts/2019-04-03-48-yader-v-odnom-protsessore-ot-intel/</guid><description>&lt;p&gt;48 ядер в одном процессоре от Intel&lt;/p&gt;
&lt;p&gt;Новые, мощные процессоры Cascade Lake-SP от Intel и их презентация для простых смертных на конференции HPC User Forum. Что у нас новго:&lt;/p&gt;
&lt;p&gt;AVX 512 — еще больше математической производительности на тактx2 количество каналов памяти80 линий PCIE третьего поколения&lt;/p&gt;
&lt;p&gt;Таким образом теперь мы можем сделать вычислительную систему с общей памятью на 96 физических ядер и не думать про кластеры, интерконнект или какие-то нестандартные архитектурные решения.&lt;/p&gt;
&lt;p&gt;#HPC #Intel&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2st" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2st&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by Юрий Новожилов&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2st" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2st&lt;/a&gt;&lt;/p&gt;</description></item><item><title>vSMP для AMD EPYC</title><link>https://magicdpd.com/posts/2019-03-22-vsmp-dlya-amd-epyc/</link><pubDate>Fri, 22 Mar 2019 12:00:19 +0000</pubDate><guid>https://magicdpd.com/posts/2019-03-22-vsmp-dlya-amd-epyc/</guid><description>&lt;p&gt;vSMP для AMD EPYC&lt;/p&gt;
&lt;p&gt;Рецепт HPC портно, или как сделать большой сервер за недорого:&lt;/p&gt;
&lt;p&gt;взять 4 свежих сервера поставить в каждый по 2 просессора AMD EPYC 7601 (32 физических ядра и 64 виртуальных потока),соединить при помощи Infinibandдобавить ПО помпании ScaleMP&lt;/p&gt;
&lt;p&gt;В итоге получим одну виртаульную машину на 256 физических ядер и общей памятью.&lt;/p&gt;
&lt;p&gt;#AMD #EPIС #HPC #ScaleMP #vSMP&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2r5" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2r5&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2r5" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2r5&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Молния: NVIDIA купила Mellanox</title><link>https://magicdpd.com/posts/2019-03-15-molniya-nvidia-kupila-mellanox/</link><pubDate>Fri, 15 Mar 2019 13:42:02 +0000</pubDate><guid>https://magicdpd.com/posts/2019-03-15-molniya-nvidia-kupila-mellanox/</guid><description>&lt;p&gt;Молния: NVIDIA купила Mellanox&lt;/p&gt;
&lt;p&gt;Новость в HPC мире, какой еще не было. NVIDIA объявила о договоренность по покупке Mellanox за сумму около $6.9b. Таким образом лидер рынка графики, математических сопроцессоров и машинного интеллекта приобретает лидера рынка высокопроизводительного сетевого оборудования и HPC интерконнекта.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.scientific-computing.com/news/nvidia-acquire-mellanox-69-billion" target="_blank" rel="noopener noreferrer"&gt;https://www.scientific-computing.com/news/nvidia-acquire-mellanox-69-billion&lt;/a&gt; &lt;a href="https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion" target="_blank" rel="noopener noreferrer"&gt;https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#HPC #Mellanox #NVIDIA&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2qA" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2qA&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.scientific-computing.com/news/nvidia-acquire-mellanox-69-billion" target="_blank" rel="noopener noreferrer"&gt;https://www.scientific-computing.com/news/nvidia-acquire-mellanox-69-billion&lt;/a&gt;
&lt;a href="https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion" target="_blank" rel="noopener noreferrer"&gt;https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2qA" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2qA&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Настройка LS-DYNA MPP</title><link>https://magicdpd.com/posts/2019-03-14-nastroyka-ls-dyna-mpp/</link><pubDate>Thu, 14 Mar 2019 17:00:27 +0000</pubDate><guid>https://magicdpd.com/posts/2019-03-14-nastroyka-ls-dyna-mpp/</guid><description>&lt;p&gt;Настройка LS-DYNA MPP&lt;/p&gt;
&lt;p&gt;Фундаментальный вебинар от ARUP и Oasys по настройке и работе решателя LS-DYNA MPP. Данный решатель является версией LS-DYNA для работы на кластерных системах (читай — на системах с распределенной памятью).&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=rxutBQXGWpQ" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=rxutBQXGWpQ&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;В ходе вебинара рассказывают о таких интересных темах, как:&lt;/p&gt;
&lt;p&gt;Декомпозиция модели: методы, балансировка нагрузки, выделение памяти,
Работы с p-файлами и ручное управление решателем
Низкоуровневая отладка работы решателя в ходе расчета на кластере и анализ результатов его завершения
Работа контактов, их оптимизация и группировка
Рестарт распределённого расчета&lt;/p&gt;
&lt;p&gt;А еще я попрошу заметить, что спец по MPP расчетам, разработчик решателя и вообще хороший человек все время повторяет одну простую, но не всем очевидную мысль: do benchmark for your model — делайте тестовые расчеты ваших моделей. Никто кроме вас не подберет оптимальных настроек.&lt;/p&gt;
&lt;p&gt;#ARUP #DMP #HPC #LS_DYNA #MPP #Oasys&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/p9vWYY-2p8" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2p8&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;by&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=rxutBQXGWpQ" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=rxutBQXGWpQ&lt;/a&gt;
&lt;a href="https://wp.me/p9vWYY-2p8" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/p9vWYY-2p8&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Облачная платформа OnScale</title><link>https://magicdpd.com/posts/2019-02-10-oblachnaya-platforma-onscale/</link><pubDate>Sun, 10 Feb 2019 17:01:42 +0000</pubDate><guid>https://magicdpd.com/posts/2019-02-10-oblachnaya-platforma-onscale/</guid><description>&lt;p&gt;Облачная платформа OnScale&lt;/p&gt;
&lt;p&gt;OnScale (не путать с OnShape и SimScale) — облачная платформа для FEM расчетов, которой удавалось долгое время уходить от нашего внимания. Интересно, что у компании есть довольно много вебинаров, и их тематика имеет уклон в моделирование электроники, распространения упругих и электромагнитных волн.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=MgS0ae0129I" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=MgS0ae0129I&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Решатели позволяют выполнять связанные расчеты во всех основных физиках: механика, тепло-, гидрогазодинамика и электромагнетизм.&lt;/p&gt;
&lt;p&gt;Всем желающим доступно бесплатно 10 часов в месяц вычислительного времени в облаке OnScale для решения одномерных и плоских задач.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://onscale.com/pricing/" target="_blank" rel="noopener noreferrer"&gt;https://onscale.com/pricing/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#cloud #FEM #HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://wp.me/s9vWYY-onscale" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/s9vWYY-onscale&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=MgS0ae0129I" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=MgS0ae0129I&lt;/a&gt;
&lt;a href="https://onscale.com/pricing/" target="_blank" rel="noopener noreferrer"&gt;https://onscale.com/pricing/&lt;/a&gt;
&lt;a href="https://wp.me/s9vWYY-onscale" target="_blank" rel="noopener noreferrer"&gt;https://wp.me/s9vWYY-onscale&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Падение астероида в океан</title><link>https://magicdpd.com/posts/2018-12-06-padenie-asteroida-v-okean/</link><pubDate>Thu, 06 Dec 2018 17:01:39 +0000</pubDate><guid>https://magicdpd.com/posts/2018-12-06-padenie-asteroida-v-okean/</guid><description>&lt;p&gt;Падение астероида в океан
Спецы из  Los Alamos при помощи вычислительного кода RAGE провели очень любопытный математический эксперимент. Они выполнили сравнительный анализ падения целого или фрагметированного в атмосфере астероида в океан.&lt;/p&gt;
&lt;p&gt;Получились очень интересные данные и красивая визулизация. Материалы по теме:&lt;/p&gt;
&lt;p&gt;Статья по мотивам исследования: https://sciviscontest2018.org/wp-content/uploads/sites/19/2017/09/DeepWaterImpactEnsembleDataSet_Revision1.pdf
Описание кода RAGE: https://arxiv.org/abs/0804.1394&lt;/p&gt;
&lt;p&gt;#Blender #HPC #Paraview #RAGE #XRage #САВ
&lt;a href="http://bit.ly/2UlsUvX" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2UlsUvX&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://sciviscontest2018.org/wp-content/uploads/sites/19/2017/09/DeepWaterImpactEnsembleDataSet_Revision1.pdf" target="_blank" rel="noopener noreferrer"&gt;https://sciviscontest2018.org/wp-content/uploads/sites/19/2017/09/DeepWaterImpactEnsembleDataSet_Revision1.pdf&lt;/a&gt;
&lt;a href="https://arxiv.org/abs/0804.1394" target="_blank" rel="noopener noreferrer"&gt;https://arxiv.org/abs/0804.1394&lt;/a&gt;
&lt;a href="http://bit.ly/2UlsUvX" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2UlsUvX&lt;/a&gt;&lt;/p&gt;</description></item><item><title>LAMMPS расскажет о разрушении материалов</title><link>https://magicdpd.com/posts/2018-11-23-lammps-rasskazhet-o-razrushenii-materialov/</link><pubDate>Fri, 23 Nov 2018 17:01:00 +0000</pubDate><guid>https://magicdpd.com/posts/2018-11-23-lammps-rasskazhet-o-razrushenii-materialov/</guid><description>&lt;p&gt;LAMMPS расскажет о разрушении материалов
Молекулярная динамика (Molecular Dynamics Simulation, MDS) - это то, чем вам стоит заниматься, если вы хотите разобраться с процессами, происходящими в материалах на микро- и наноуровне, например при разрушении. А одним из самых авторитетных кодов в данной области является разрабатываемый Сандийскими национальными лабораториями LAMMPS.&lt;/p&gt;
&lt;p&gt;Данный открытый код позволяет детально моделировать процессы на микроуровне и заглядывать туда, куда традиционные КЭ коды и смотреть не могут.
А еще в видео есть отзыв о работе данного кода в Ливерморской национальной лаборатории, где считали при помощи него рекордную по размерам задачу. Отзыв за подписью Василия Булатова.
Кстати, привожу еще обучающее видео по началу работы с LAMMPS - в целом эта работа очень напоминает настройку бессеточной модели в LS-DYNA.&lt;/p&gt;
&lt;p&gt;#HPC #LAMMPS #Livermor #MDS #Open #Sandia
&lt;a href="http://bit.ly/2TEbMBl" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2TEbMBl&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://bit.ly/2TEbMBl" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2TEbMBl&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Построение сетки с искусственным интеллектом</title><link>https://magicdpd.com/posts/2018-11-18-postroenie-setki-s-iskusstvennym-intelle/</link><pubDate>Sun, 18 Nov 2018 17:00:42 +0000</pubDate><guid>https://magicdpd.com/posts/2018-11-18-postroenie-setki-s-iskusstvennym-intelle/</guid><description>&lt;p&gt;Построение сетки с искусственным интеллектом
Компания Zenotech, провайдер облачных CFD расчетов на своей платформе и своим решателем zCFD, объявила о том, что уже с сентября месяца этого года она совместно с AlgoLib ведет проект по улучшению качества генерируемых расчетных сеток путем применения машинного обучения. Еще одна интересная попытка сделать качественную сетку без мучений - буду надеяться, что из этого получится что-то кроме хайпа.
&lt;a href="https://zenotech.com/zenotech-and-algolib-collaborate-on-an-industry-first-ai-mesh/" target="_blank" rel="noopener noreferrer"&gt;https://zenotech.com/zenotech-and-algolib-collaborate-on-an-industry-first-ai-mesh/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#AlgoLib #Cloud #HPC #Mesh #ZCFD #Zenotech
&lt;a href="http://bit.ly/2RYTOI0" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2RYTOI0&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://zenotech.com/zenotech-and-algolib-collaborate-on-an-industry-first-ai-mesh/" target="_blank" rel="noopener noreferrer"&gt;https://zenotech.com/zenotech-and-algolib-collaborate-on-an-industry-first-ai-mesh/&lt;/a&gt;
&lt;a href="http://bit.ly/2RYTOI0" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2RYTOI0&lt;/a&gt;&lt;/p&gt;</description></item><item><title>64 ядра на кристалле</title><link>https://magicdpd.com/posts/2018-11-10-64-yadra-na-kristalle/</link><pubDate>Sat, 10 Nov 2018 17:01:12 +0000</pubDate><guid>https://magicdpd.com/posts/2018-11-10-64-yadra-na-kristalle/</guid><description>&lt;p&gt;64 ядра на кристалле
AMD, похоже, всерьез хочет вернуться в лигу больших производителей процессоров. Их новый CPU с кодовым именем &amp;ldquo;Rome&amp;rdquo;, построенный по архитектуре Zen 2, имеет 64 (!!!) ядра на кристалле! Таким образом, мы получаем 128 ядер в &amp;ldquo;обычном&amp;rdquo; сервере - больше не нужен кластер для задействования 3-х ANSYS HPC Pack!
&lt;a href="https://www.develop3d.com/blog/2018/11/amd-unveils-64-core-epyc-rome-processor" target="_blank" rel="noopener noreferrer"&gt;https://www.develop3d.com/blog/2018/11/amd-unveils-64-core-epyc-rome-processor&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#AMD #HPC
&lt;a href="http://bit.ly/2RN5TQi" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2RN5TQi&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.develop3d.com/blog/2018/11/amd-unveils-64-core-epyc-rome-processor" target="_blank" rel="noopener noreferrer"&gt;DEVELOP3D blog - AMD gives first glimpse of monster 64-core EPYC ‘Rome’ CPU&lt;/a&gt;
&lt;a href="http://bit.ly/2RN5TQi" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2RN5TQi&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Ручное выделение памяти в LS-DYNA</title><link>https://magicdpd.com/posts/2018-10-14-ruchnoe-vydelenie-pamyati-v-ls-dyna/</link><pubDate>Sun, 14 Oct 2018 17:00:40 +0000</pubDate><guid>https://magicdpd.com/posts/2018-10-14-ruchnoe-vydelenie-pamyati-v-ls-dyna/</guid><description>&lt;p&gt;Ручное выделение памяти в LS-DYNA
По умолчанию решатель LS-DYNA не утруждает себя таким &amp;ldquo;низким&amp;rdquo; и &amp;ldquo;недостойным&amp;rdquo; занятием, как автоматическое выделение памяти под расчет, и об это спотыкаются толпы желающих сразу посчитать что-нибудь большое и красивое. В explicit кодах почти всегда получается красиво, и все задачи сходятся. Правда, зачастую, не с физикой или теорией :-)&lt;/p&gt;
&lt;p&gt;При выделении памяти для LS-DYNA противно еще и то, что ее объем определяется не байтами, а словами. Статья по ссылке раскажет о том, сколько &amp;ldquo;весит&amp;rdquo; одно слово, как его вес меняется в зависимости от архитектуры работы с памятью, и почему для распределённых расчетов вас просят задать два разных объема памяти.&lt;/p&gt;
&lt;p&gt;А если ваши задачи пока влезают в память рабочей станции, то поставьте себе системную переменную окружения LSTC_MEMORY=auto, и наслаждайтесь автоматическим выделением памяти. Благо, что в LS-DYNA R11 оно должно работать не только для explicit, но и для implicit части кода.
&lt;a href="https://www.d3view.com/2006/10/a-few-words-on-memory-settings-in-ls-dyna/" target="_blank" rel="noopener noreferrer"&gt;https://www.d3view.com/2006/10/a-few-words-on-memory-settings-in-ls-dyna/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#HPC #LSDYNA #Memory
&lt;a href="http://bit.ly/2CfEzWv" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2CfEzWv&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.d3view.com/2006/10/a-few-words-on-memory-settings-in-ls-dyna/" target="_blank" rel="noopener noreferrer"&gt;A Few &amp;ldquo;Words&amp;rdquo; on Memory Settings in LS-DYNA&lt;/a&gt;
&lt;a href="http://bit.ly/2CfEzWv" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2CfEzWv&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Проект ExaAM</title><link>https://magicdpd.com/posts/2018-09-26-proekt-exaam/</link><pubDate>Wed, 26 Sep 2018 17:00:39 +0000</pubDate><guid>https://magicdpd.com/posts/2018-09-26-proekt-exaam/</guid><description>&lt;p&gt;Проект ExaAM
Сегодня у нас доклад Джона Тёрнера (John Turner, https://www.ornl.gov/staff-profile/john-turner) с прошедшей в Детройте конференции &amp;ldquo;HPC User Forum&amp;rdquo;. Джон является сотрудником Oak Ridge National Laboratory (ORNL, Окриджская национальная лаборатория). В своем докладе он рассказывает о проекте ExaAM, который посвящен использованию вычислительных мощностей класса  Exascale для моделирования процессов аддитивного производства из металла.&lt;/p&gt;
&lt;p&gt;Кроме хорошо поставленной речи докладчика, презентация сопровождается наглядными и интересными слайдами с видео реальных процессов. А еще в ходе доклада рассказывается, что при печати существует очень много параметров, влияющих на свойства материала, и что влияние их всех надо тщательно изучать. И отдельное спасибо за ссылки на публичные тестовые задачи.
&lt;a href="https://www.additivemanufacturing.media/blog/post/how-exascale-computing-will-enable-born-qualified-am-parts" target="_blank" rel="noopener noreferrer"&gt;https://www.additivemanufacturing.media/blog/post/how-exascale-computing-will-enable-born-qualified-am-parts&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#AdditiveManufacturing #ALE3D #Diablo #ExaAM #ExaCA #ExaConstit #ExaMPM #ExaPF #Exascale #HPC #LiDO #LIGGHTS #OpenFOAM #Plato #TruchasPBF
&lt;a href="http://bit.ly/2OZbW3a" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2OZbW3a&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.ornl.gov/staff-profile/john-turner" target="_blank" rel="noopener noreferrer"&gt;https://www.ornl.gov/staff-profile/john-turner&lt;/a&gt;
&lt;a href="https://www.additivemanufacturing.media/blog/post/how-exascale-computing-will-enable-born-qualified-am-parts" target="_blank" rel="noopener noreferrer"&gt;https://www.additivemanufacturing.media/blog/post/how-exascale-computing-will-enable-born-qualified-am-parts&lt;/a&gt;
&lt;a href="http://bit.ly/2OZbW3a" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2OZbW3a&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Что может CRAY вместе с LSTC</title><link>https://magicdpd.com/posts/2018-08-08-chto-mozhet-cray-vmeste-s-lstc/</link><pubDate>Wed, 08 Aug 2018 18:00:19 +0000</pubDate><guid>https://magicdpd.com/posts/2018-08-08-chto-mozhet-cray-vmeste-s-lstc/</guid><description>&lt;p&gt;Что может CRAY вместе с LSTC
Стали доступны материалы по результатам совместной работы компаний CRAY, LSTC, NCSA и Rolls-Royce в области высокопроизводительных расчетов применительно к задачам механики. Коллегам удалось посчитать большую и очень большую задачу - на 105M и на 200М степеней свободы.
По итогам расчета получилась статья: https://www.cray.com/sites/default/files/Increasing%20the%20Scale%20of%20LS-DYNA%20Implicit%20Analysis.pdf
Казалось бы, Explicit коды всегда хорошо параллелились. Но инфоповод тут другой - на этот раз LSTC смогли распараллелить Implicit решатель LS-DYNA на тысячи ядер. Причем на глаз, эффективность сохраняется тысяч до 8-ми
&lt;a href="https://www.cray.com/blog/can-ls-dyna-scale-higher/" target="_blank" rel="noopener noreferrer"&gt;https://www.cray.com/blog/can-ls-dyna-scale-higher/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#CRAY #HPC #Implicit #LSDYNA #LSTC #NCSA #RollsRoyce
&lt;a href="http://bit.ly/2OUycvB" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2OUycvB&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.cray.com/sites/default/files/Increasing%20the%20Scale%20of%20LS-DYNA%20Implicit%20Analysis.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.cray.com/sites/default/files/Increasing%20the%20Scale%20of%20LS-DYNA%20Implicit%20Analysis.pdf&lt;/a&gt;
&lt;a href="https://www.cray.com/blog/can-ls-dyna-scale-higher/" target="_blank" rel="noopener noreferrer"&gt;https://www.cray.com/blog/can-ls-dyna-scale-higher/&lt;/a&gt;
&lt;a href="http://bit.ly/2OUycvB" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2OUycvB&lt;/a&gt;&lt;/p&gt;</description></item><item><title>ANSYS EKM - новый этап развития</title><link>https://magicdpd.com/posts/2018-08-07-ansys-ekm-novyy-etap-razvitiya/</link><pubDate>Tue, 07 Aug 2018 18:01:18 +0000</pubDate><guid>https://magicdpd.com/posts/2018-08-07-ansys-ekm-novyy-etap-razvitiya/</guid><description>&lt;p&gt;ANSYS EKM - новый этап развития
Коллеги из МСК подготовили шикарное видео, в котором показали очень много всего интересного касательно EKM.&lt;/p&gt;
&lt;p&gt;EKM (Engineering Knowledge Manager) - система класса SDM (Simulation Data Management) от ANSYS. При всех ее достоинствах, у нее до недавнего времени была одна особенность, существенно затруднявшая ее врендрение. А именно: EKM имел жесткую привязку к версии ANSYS, что заставляло обновлять все ПО организации разом. Сейчас, начиная в версии 19.1 (или как она теперь должна называться?), EKM может работать с любой версией решателей ANSYS - ему можно это объяснить.
Уже предыдущий шаг был очень важен, но коллеги из МСК успели, кроме внедрения новой версии, подтянуть руссификацию интерфейса и подружить систему с неподдерживаемым планировщиком Slurm. Получилось очень достойно!&lt;/p&gt;
&lt;p&gt;#ANSYS #CFX #EKM #Fluent #HPC #Mechanical #SDM #SLURM
&lt;a href="http://bit.ly/2KvT60N" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2KvT60N&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://bit.ly/2KvT60N" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2KvT60N&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Настройка использования лицензий при работе RSM</title><link>https://magicdpd.com/posts/2018-07-11-nastroyka-ispolzovaniya-litsenziy-pri-rab/</link><pubDate>Wed, 11 Jul 2018 18:00:57 +0000</pubDate><guid>https://magicdpd.com/posts/2018-07-11-nastroyka-ispolzovaniya-litsenziy-pri-rab/</guid><description>&lt;p&gt;Настройка использования лицензий при работе RSM
ANSYS RSM (Remote Solve Manager) - отличное средство по выполнению расчетов как на кластерах, так и на соседних рабочих станциях коллег, которые ушли в отпуск. Однако его надо уметь готовить.
Иногда при отсутствии тонкой настройки может сложиться впечатление, что система &amp;ldquo;поджирает&amp;rdquo; лицензии на Mechanical. На самом деле, при выполнении фонового расчета в Mechanical по умолчанию RSM берет сразу 2 лицензии:&lt;/p&gt;
&lt;p&gt;одна лицензия используется для проверки корректности постановки задачи в проекте (в логе сервера лицензий отображается как mech_struct)
еще одна уходит непосредственно на расчет (в логе сервера лицензий отображается как ans_solve)&lt;/p&gt;
&lt;p&gt;Такое распараллеливание по лицензиям позволяет ускорить расчетный процесс - не надо ждать ответа от сервера лицензий. Однако, если лицензий мало, то неплохо бы их экономить.
На этот случай есть одна интересная тонкая настройка, скрытая в главном меню Workbench&amp;gt;  Tools&amp;gt; Options&amp;gt; Mechanical. Там есть список &amp;ldquo;Release License for Pending Jobs&amp;rdquo; со следующими опциями:&lt;/p&gt;
&lt;p&gt;On Demand - работа по умолчанию с задействованием двух лицензий. Одну из лицензий можно попросить назад через опцию контекстного меню &amp;ldquo;Release License&amp;rdquo; на ячейке Solution.
Always - заставляет решатель автоматически отдавать лицензию при фоновом/пакетном расчете, когда работа идет на уровне ячейки Solution.
Design Point Run Only - аналогично предыдущему, но только для проектов, содержащих параметрические исследования или перебор вариантов.&lt;/p&gt;
&lt;p&gt;Таким образом, переключив настройки системы на Always или Design Point Run Only, мы немного усмиряем аппетит Mechanical за счет небольшого падения производительности.&lt;/p&gt;
&lt;p&gt;#HPC #Longread #Mechancial #RSM
&lt;a href="http://bit.ly/2NJa1j3" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2NJa1j3&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://bit.ly/2NJa1j3" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2NJa1j3&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как корректно остановить решатель на ходу</title><link>https://magicdpd.com/posts/2018-07-03-kak-korrektno-ostanovit-reshatel-na-hod/</link><pubDate>Tue, 03 Jul 2018 18:02:50 +0000</pubDate><guid>https://magicdpd.com/posts/2018-07-03-kak-korrektno-ostanovit-reshatel-na-hod/</guid><description>&lt;p&gt;Как корректно остановить решатель на ходу
Есть очень часто встречающаяся задача - запуск решателя в консольном/пакетном режиме для выполнения расчета на рабочей станции или кластере. С этой задачей сталкиваются многие опытные инженеры. Как запускать консольные расчеты хорошо описано в документации, много рассказано на форумах.
Однако мало кто знает, что практически любой решатель, работающий в фоне, можно корректно остановить с запуском точки рестарта/чекпоинта. Как правило, необходимо создать особый файл в особом месте. Когда решатель его обнаружит, он сам все поймет. Особый файл будет удалён сразу после его обработки. Давайте посмотрим, как это сделать для основных решателей ANSYS.
Mechanical/APDL:
В рабочей директории решателя надо создать файл с именем jobname.abt, где jobname - имя проекта. Файл должен содержать только одно слово: nonlinear
Fluent:
Для записи файла рестарта (а это просто обычный набор из cas и dat) необходимо создать файл check-fluent в директории /tmp для Linux или check-fluent.txt в директории C:\temp для Windows. Корректно завершить решатель можно, создав в этих директориях файл exit-fluent или exit-fluent.txt соответсвенно.
CFX:
C этим решателем все сильно проще. У него есть специальный исполняемый файл cfx5stop, предназначенный для корректной остановки расчета. Таким образом, для проекта mixer_001, достаточно выполнить команду cfx5stop -directory mixer_001.dir в его рабочей директории - там mixer_001.dir будет являться временной рабочей директорией.
LS-DYNA:
У этого решателя есть такая штука как SWITCH CONTROLS - в ходе расчета вы можете нажать комбинацию клавиш Control+C и ввести определнный код. Вот те ключевые коды, которые относятся к нашей теме:
sw1 - записать файл рестарта
sw2 - вывести оценку оставшегося времени расчета
sw3 - записать файл рестарта
Если консоль вам недоступна (расчет идет в фоне), то необходимо создать в рабочей директории решателя файл d3kil (или jobid.d3kil, если вы используете идентификаторы расчетного проекта), содержащий соответсвующий код.
Autodyn
Для этого решателя надо создать файл savenow.dat для записи файла рестарта в конце текущей итерации, а файл endbat.dat завершит расчет после окончания текущей итерации.
Решатели семейства AEDT (ANSYS Electronics Desktop) - бывший Ansoft
Знающие люди подсказали, что решатели можно спокойно убивать на лету - они сами смогут рестартовать остановленный таким образом расчет с последней записанной итерации.
ANSYS Workbench
Если вы пользуетесь ANSYS RSM, то там для всех поддерживаемых решателей уже есть стандартная кнопка Interrupt, которая делает всю вышеописанную магию за вас. Настраивайте RSM и наслаждайтесь :-)&lt;/p&gt;
&lt;p&gt;#AEDT #ANSYS #Autodyn #CFX #Checkpont #Fluent #HPC #Longread #LSDYNA #Restart #RSM #Workbench
&lt;a href="http://bit.ly/2u3rrhp" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2u3rrhp&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://bit.ly/2u3rrhp" target="_blank" rel="noopener noreferrer"&gt;http://bit.ly/2u3rrhp&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Реализация RAID алгоритмов на GPU</title><link>https://magicdpd.com/posts/2018-04-06-realizatsiya-raid-algoritmov-na-gpu/</link><pubDate>Fri, 06 Apr 2018 18:01:07 +0000</pubDate><guid>https://magicdpd.com/posts/2018-04-06-realizatsiya-raid-algoritmov-na-gpu/</guid><description>&lt;p&gt;Реализация RAID алгоритмов на GPU
Пост на тему HPC — компания Nyriad демонстрирует работу их решения по реализации алгоримов RAID на базе GPU. Показывают отличное шоу.&lt;/p&gt;
&lt;p&gt;#GPU #HPC #NVIDIA #Nyriad #RAID
&lt;a href="https://goo.gl/DxwUSU" target="_blank" rel="noopener noreferrer"&gt;https://goo.gl/DxwUSU&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://goo.gl/DxwUSU" target="_blank" rel="noopener noreferrer"&gt;https://goo.gl/DxwUSU&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Форум ANSYS 19</title><link>https://magicdpd.com/posts/2018-03-29-forum-ansys-19/</link><pubDate>Thu, 29 Mar 2018 18:47:16 +0000</pubDate><guid>https://magicdpd.com/posts/2018-03-29-forum-ansys-19/</guid><description>&lt;p&gt;Форум ANSYS 19
В последнюю неделю у меня совсем нет времени писать хорошие посты. А причиной тому служит усиленная подготовка нашего мероприятия — «Форума ANSYS 19». Буду выступать в Питере по полной программе — будут привычные доклады по HPC и композитам. А еще будуте и кое-что новое, а именно горячие презентация о SpaceClaim, Discovery Live, Topology Optimization и грядущим продуктам Additive Manufacturing.
Самое время зарегистрироватсья на наше мероприятие, пока еще можно — участие бесплатное!
&lt;a href="http://forum.cadfem-cis.ru" target="_blank" rel="noopener noreferrer"&gt;http://forum.cadfem-cis.ru&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ACP #Additive_Manufacturing #ANSYS #CADFEM #Composites #Discovery #HPC #Optimization #SpaceClaim #Topology
&lt;a href="https://goo.gl/NnwTjC" target="_blank" rel="noopener noreferrer"&gt;https://goo.gl/NnwTjC&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://forum.cadfem-cis.ru/" target="_blank" rel="noopener noreferrer"&gt;http://forum.cadfem-cis.ru/&lt;/a&gt;
&lt;a href="https://goo.gl/NnwTjC" target="_blank" rel="noopener noreferrer"&gt;https://goo.gl/NnwTjC&lt;/a&gt;&lt;/p&gt;</description></item><item><title>LS-Run от LSTC упрощает запуск расчетов LS-DYNA</title><link>https://magicdpd.com/posts/2018-03-15-ls-run-ot-lstc-uproschaet-zapusk-raschetov/</link><pubDate>Thu, 15 Mar 2018 18:01:12 +0000</pubDate><guid>https://magicdpd.com/posts/2018-03-15-ls-run-ot-lstc-uproschaet-zapusk-raschetov/</guid><description>&lt;p&gt;LS-Run от LSTC упрощает запуск расчетов LS-DYNA
Одна маленькая бесплатная утилита от LSTC, идущая в составе с LS-PrePost, начиная с версии 4.5 или скачиваемая отдельно с ftp.lstc.com, решает сразу кучу задач:&lt;/p&gt;
&lt;p&gt;Взаимодействие с сервером лицензий
Запуск расчетов локально
Поддержание очереди задач
Упрощение открытия результатов на постпроцессинге
Рестарт расчетов
Запуск удаленных расчетов
Взаимодействие с кластерами на базе Microsoft HPC Cluster&lt;/p&gt;
&lt;p&gt;Учебное видео по ее использованию в комплекте&lt;/p&gt;
&lt;p&gt;#HPC #LSDYNA #LSRun #LSTC
&lt;a href="https://goo.gl/XeUstw" target="_blank" rel="noopener noreferrer"&gt;https://goo.gl/XeUstw&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;ftp.lstc.com
&lt;a href="https://goo.gl/XeUstw" target="_blank" rel="noopener noreferrer"&gt;https://goo.gl/XeUstw&lt;/a&gt;&lt;/p&gt;</description></item><item><title>ANSYS R19 официально</title><link>https://magicdpd.com/posts/2018-01-29-ansys-r19-ofitsialno/</link><pubDate>Mon, 29 Jan 2018 17:00:56 +0000</pubDate><guid>https://magicdpd.com/posts/2018-01-29-ansys-r19-ofitsialno/</guid><description>&lt;p&gt;ANSYS R19 официально
Итак, свершилось! ANSYS R19 стал доступен, о чем нам сообщает официальный сайт компании CADFEM CIS&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.cadfem-cis.ru/products/ansys/ansys-update/" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/products/ansys/ansys-update/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;На мой вкус, R19 вышел очень сильным, особенно, если сравнивать с R18. Вот мои любимые нововведения (в тех местах, где я что-то понимаю):&lt;/p&gt;
&lt;p&gt;Mechanical:&lt;/p&gt;
&lt;p&gt;XFEM и динамические сетки получили новый виток развития - это просто чума!
Topology Optimizataion сдвинулась с мертвой точки: учет преднапряженного состояния и объемных нагрузок, куча интересных beta-возможностей&lt;/p&gt;
&lt;p&gt;Meshing&lt;/p&gt;
&lt;p&gt;Cartesian сетки вышли из beta
Новые Cartesian-подобные сетки внутри Fluent Meshing&lt;/p&gt;
&lt;p&gt;HPC&lt;/p&gt;
&lt;p&gt;Любой решатель, принадлежащий ANSYS, из коробки будет считать на 4-х процессорных ядрах!&lt;/p&gt;
&lt;p&gt;СFD:&lt;/p&gt;
&lt;p&gt;EnSight - welcome!&lt;/p&gt;
&lt;p&gt;SpaceClaim&lt;/p&gt;
&lt;p&gt;Faset Data теперь включен в стандартную лицензию&lt;/p&gt;
&lt;p&gt;WB LS-DYNA&lt;/p&gt;
&lt;p&gt;Она теперь умеет читать .k файлы через External Model (!!!)
Куча новых материалов доступна через Engineering Data&lt;/p&gt;
&lt;p&gt;Всем заинтересованным я очень рекомендую внимательно прочитать две брошюры по данному релизу:&lt;/p&gt;
&lt;p&gt;&amp;ldquo;ANSYS 19.0 — Обновления и изменения&amp;rdquo; https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/19/ANSYS19.0_update.pdf
&amp;ldquo;ANSYS 19.0 — Технические требования к программно-аппаратным комплексам и лицензионная политика в области HPC&amp;rdquo; https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/19/ANSYS19.0_tech.pdf&lt;/p&gt;
&lt;p&gt;#ANSYS #Cartesian #CFD #HPC #Mechaincal #Meshing #optimization #SpaceClaim #Topology #WB LS-DYNA #XFEM
&lt;a href="https://magicdpd.ru/?p=6128" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=6128&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.cadfem-cis.ru/products/ansys/ansys-update/" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/products/ansys/ansys-update/&lt;/a&gt;
&lt;a href="https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/19/ANSYS19.0_update.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/19/ANSYS19.0_update.pdf&lt;/a&gt;
&lt;a href="https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/19/ANSYS19.0_tech.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/19/ANSYS19.0_tech.pdf&lt;/a&gt;
&lt;a href="https://magicdpd.ru/?p=6128" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=6128&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Облачные лицензии ANSYS’ Pay-Per-Use для Rescale</title><link>https://magicdpd.com/posts/2018-01-25-oblachnye-litsenzii-ansys-pay-per-use-dlya/</link><pubDate>Thu, 25 Jan 2018 17:01:29 +0000</pubDate><guid>https://magicdpd.com/posts/2018-01-25-oblachnye-litsenzii-ansys-pay-per-use-dlya/</guid><description>&lt;p&gt;Облачные лицензии ANSYS’ Pay-Per-Use для Rescale
На протяжении года ANSYS выкатывает свою систему лицензирования по запросу. Данная схема лицензирования очень хорошо подходит для случая использования облачных вычислительных ресурсов (также по запросу).&lt;/p&gt;
&lt;p&gt;Итак, в начале этого года ANSYS Elastic Units (AEUs) - так называются облачные лицензии на ANSYS - стали доступны для платформы ScaleX Cloud HPC Platform от Rescale. Rescale, в свою очередь является одним из лидеров облачных HPC решений.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://blog.rescale.com/ansys-rescale-offer-on-demand-ansys-software-on-scalex/" target="_blank" rel="noopener noreferrer"&gt;https://blog.rescale.com/ansys-rescale-offer-on-demand-ansys-software-on-scalex/&lt;/a&gt;
#AEUs #ANSYS #cloud #HPC #Rescale #ScaleX
&lt;a href="https://magicdpd.ru/?p=6080" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=6080&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://blog.rescale.com/ansys-rescale-offer-on-demand-ansys-software-on-scalex/" target="_blank" rel="noopener noreferrer"&gt;https://blog.rescale.com/ansys-rescale-offer-on-demand-ansys-software-on-scalex/&lt;/a&gt;
&lt;a href="https://magicdpd.ru/?p=6080" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=6080&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Spectre и Meltdown против ANSYS</title><link>https://magicdpd.com/posts/2018-01-21-spectre-i-meltdown-protiv-ansys/</link><pubDate>Sun, 21 Jan 2018 17:01:07 +0000</pubDate><guid>https://magicdpd.com/posts/2018-01-21-spectre-i-meltdown-protiv-ansys/</guid><description>&lt;p&gt;Spectre и Meltdown против ANSYS
В начале этого года прогремели новости об обнаружении уязвимостей практически во всех процессорах x86_64 и ARM. Уязвимости получили названия Spectre и Meltdown - у них даже есть свой сайт &lt;a href="https://spectreattack.com" target="_blank" rel="noopener noreferrer"&gt;https://spectreattack.com&lt;/a&gt; (а у вас есть? :-)). Я не буду вдаваться в подробности работы уязвимостей, скажу только, что с их появлением можно забыть о концепции защищенной памяти процесса, которая декларировалась уже лет 10 - это огромная дыра в безопасности!&lt;/p&gt;
&lt;p&gt;Для исправления уязвимостей были выпущены заплатки на уровне операционных систем, которые исправляют баг, но могут очень здорово просадить производительность системы: от 5 в зависимости от типа решаемой задачи. Перед всеми нами встала дилемма: работать безопасно или работать быстро? Но вот почти никто не стал проверять, насколько проседает производительность в задачах, которые интересны нам - в CAE.&lt;/p&gt;
&lt;p&gt;Одними из немногих, кто провел реальные тесты и опубликовал их результаты, оказался коллектив PADT Inc. Коллеги взяли задачу Ball Grid Array из стандартного набора тестов производительности для  ANSYS Mechanical 18.2  Benchmark и выполнили расчет на двухпроцессорной рабочей станции:&lt;/p&gt;
&lt;p&gt;CPU: INTEL XEON Gold 6130 CPU x2
RAM: 128GB DDR4-2667MHz (1Rx4) ECC REG DIMM
OS: Windows 10 Professional
MPI: INTEL MPI 5.0.1.3
GPU: NVIDIA QUADRO P4000
SSD: Samsung EVO 960 Pro NVMe M.2
HDD: Toshiba 2TB 7200 RPM SATA 3 Drive&lt;/p&gt;
&lt;p&gt;Результаты получились примерно следующие:&lt;/p&gt;
&lt;p&gt;Как можно видеть, производительность на данном тесте падает не более чем на 10%, а в некоторых случаях даже растет (что вообще-то очень странно). Для случая использования высокооптимизированного решателя ANSYS Mechanical исправления уязвимостей Spectre и Meltdown оказыват малое влияние на время расчета.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.padtinc.com/blog/the-focus/spectre-side-channel-and-meltdown-how-will-living-in-this-new-reality-affect-the-world-of-numerical-simulation" target="_blank" rel="noopener noreferrer"&gt;http://www.padtinc.com/blog/the-focus/spectre-side-channel-and-meltdown-how-will-living-in-this-new-reality-affect-the-world-of-numerical-simulation&lt;/a&gt;
#ANSYS #HPC #Mechanical #Meltdown #padtinc #Spectre
&lt;a href="https://magicdpd.ru/?p=6002" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=6002&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://spectreattack.com" target="_blank" rel="noopener noreferrer"&gt;https://spectreattack.com&lt;/a&gt;
5.0.1.3
&lt;a href="http://www.padtinc.com/blog/the-focus/spectre-side-channel-and-meltdown-how-will-living-in-this-new-reality-affect-the-world-of-numerical-simulation" target="_blank" rel="noopener noreferrer"&gt;http://www.padtinc.com/blog/the-focus/spectre-side-channel-and-meltdown-how-will-living-in-this-new-reality-affect-the-world-of-numerical-simulation&lt;/a&gt;
&lt;a href="https://magicdpd.ru/?p=6002" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=6002&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Война интерконнектов: продолжение</title><link>https://magicdpd.com/posts/2018-01-14-voyna-interkonnektov-prodolzhenie/</link><pubDate>Sun, 14 Jan 2018 12:01:04 +0000</pubDate><guid>https://magicdpd.com/posts/2018-01-14-voyna-interkonnektov-prodolzhenie/</guid><description>&lt;p&gt;Война интерконнектов: продолжение
Компания Intel категорически не согласилась с результатами сравнения ее HPC интерконнекта OmniPath и Mellanox Infiniband. Более того, Intel решил показать результаты своих измерений, и они получились очень занимательными.&lt;/p&gt;
&lt;p&gt;В статье, ссылка на которую приведена в конце поста, есть куча графиков, где присутствуют три колонки результатов: &amp;ldquo;Mellanox Infiniband&amp;rdquo;, &amp;ldquo;Intel OPA - результаты Mellanox&amp;rdquo; и &amp;ldquo;Intel OPA - результаты Intel&amp;rdquo;. Как ни странно, Intel померил свой интерконнект так, что он полностью сравнялся с Infiniband EDR.&lt;/p&gt;
&lt;p&gt;В измерениях участвовали ANSYS Fluent и LS-DYNA. Классический Infiniband оказался все же немного впереди, но по моим ощущениям, разрыв должен быть 20% - как раз средний результат двух измерений.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.nextplatform.com/2017/11/29/the-battle-of-the-infinibands/amp/" target="_blank" rel="noopener noreferrer"&gt;https://www.nextplatform.com/2017/11/29/the-battle-of-the-infinibands/amp/&lt;/a&gt;
#Fluent #HPC #Infiniband #LS-DYNA #OPA
&lt;a href="https://magicdpd.ru/?p=5925" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=5925&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.nextplatform.com/2017/11/29/the-battle-of-the-infinibands/amp/" target="_blank" rel="noopener noreferrer"&gt;https://www.nextplatform.com/2017/11/29/the-battle-of-the-infinibands/amp/&lt;/a&gt;
&lt;a href="https://www.nextplatform.com/2017/11/29/the-battle-of-the-infinibands/amp/" target="_blank" rel="noopener noreferrer"&gt;https://www.nextplatform.com/2017/11/29/the-battle-of-the-infinibands/amp/&lt;/a&gt;
&lt;a href="https://magicdpd.ru/?p=5925" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=5925&lt;/a&gt;&lt;/p&gt;</description></item><item><title>NVIDIA DOCKER</title><link>https://magicdpd.com/posts/2018-01-09-nvidia-docker/</link><pubDate>Tue, 09 Jan 2018 17:00:47 +0000</pubDate><guid>https://magicdpd.com/posts/2018-01-09-nvidia-docker/</guid><description>&lt;p&gt;NVIDIA DOCKER
NVIDIA на конференции SC17 рассказала про свое новое видение того, как надо делать удаленную визуализацию на суперкомпьютерах. И тут разговор идет не просто о DCV или VirtualGL - тут рассматривается полностью новая концепция систем для визуализации действительно больших данных.&lt;/p&gt;
&lt;p&gt;Для этих целей NVIDIA планирует использовать пары Docker контейнеров, подготовленных для нужного вам приложения (сейчас уже есть для Praview). Серверный конетйнер будет работать напрямую с EGL API (&lt;a href="https://en.wikipedia.org/wiki/EGL_%28API%29" target="_blank" rel="noopener noreferrer"&gt;https://en.wikipedia.org/wiki/EGL_(API)&lt;/a&gt; и никаких тебе иксов), а клиентская часть - с GLX (&lt;a href="https://en.wikipedia.org/wiki/GLX" target="_blank" rel="noopener noreferrer"&gt;https://en.wikipedia.org/wiki/GLX&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=z7nNmyKvMu4" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=z7nNmyKvMu4&lt;/a&gt;
#cloud #Docker #EGL #GLX #HPC #NVIDIA #Praview #remoteviz
&lt;a href="https://magicdpd.ru/?p=5861" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=5861&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://en.wikipedia.org/wiki/EGL_%28API%29" target="_blank" rel="noopener noreferrer"&gt;https://en.wikipedia.org/wiki/EGL_(API)&lt;/a&gt;
&lt;a href="https://en.wikipedia.org/wiki/GLX" target="_blank" rel="noopener noreferrer"&gt;https://en.wikipedia.org/wiki/GLX&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=z7nNmyKvMu4" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=z7nNmyKvMu4&lt;/a&gt;
&lt;a href="https://magicdpd.ru/?p=5861" target="_blank" rel="noopener noreferrer"&gt;https://magicdpd.ru/?p=5861&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Сейчас на рынке #HPC интерконнектов идет тихая война между #Mellanox и #Intel.</title><link>https://magicdpd.com/posts/2017-12-24-seychas-na-rynke-hpc-interkonnektov-idet/</link><pubDate>Sun, 24 Dec 2017 17:11:49 +0000</pubDate><guid>https://magicdpd.com/posts/2017-12-24-seychas-na-rynke-hpc-interkonnektov-idet/</guid><description>&lt;p&gt;Хотя на мой вкус, Mellanox так далеко впереди, что за ним уже никому не угнаться. Посудите сами: у них полностью аппаратная работа с данными, не нагружающая CPU, у них уже есть 200 Гбит и, что самое важное, их поддерживают все решатели (ну хотя бы все решатели #ANSYS). А вот Intel #OPA может только #ANSYS #Fluent и #ANSYS #CFX.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2l7xnl8MediaMediaMedia" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2l7xnl8MediaMediaMedia&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2kQNVyg" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2kQNVyg&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2zoZXZe" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zoZXZe&lt;/a&gt;
&lt;a href="http://ift.tt/2embhsb" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2embhsb&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2l7xltw" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2l7xltw&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2wmHv13" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2wmHv13&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2j6d2vn" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2j6d2vn&lt;/a&gt;
&lt;a href="http://ift.tt/2DITPts" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2DITPts&lt;/a&gt;
&lt;a href="http://ift.tt/2DKZ3Vy" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2DKZ3Vy&lt;/a&gt;
&lt;a href="http://ift.tt/2pp9x9Y" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2pp9x9Y&lt;/a&gt;
&lt;a href="http://ift.tt/2l7xqNQ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2l7xqNQ&lt;/a&gt;
&lt;a href="http://ift.tt/2kQNVyg" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2kQNVyg&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Наш свежий видео урок по взаимодействию #ANSYS #Workbench и #ANSYS #EKM от коллег из МСК.</title><link>https://magicdpd.com/posts/2017-12-19-nash-svezhiy-video-urok-po-vzaimodeystviyu/</link><pubDate>Tue, 19 Dec 2017 17:00:53 +0000</pubDate><guid>https://magicdpd.com/posts/2017-12-19-nash-svezhiy-video-urok-po-vzaimodeystviyu/</guid><description>&lt;p&gt;Скажу так: EKM в 18-ой версии это прям годна штука. Я его уже поставил и почти до конца настроил. С коллегами мы к нему даже Let&amp;rsquo;s Encrypt сертификаты прикрутить смогли! Скоро сам смогу рассказать о впечатлениях от использования в бою.&lt;/p&gt;
&lt;p&gt;#SDM #HPC #RSM&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=jIw" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=jIw&lt;/a&gt;…Media📼 VL1726 — Взаимодействие среды ANSYS Workbench с се…&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2D1QZ25" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2D1QZ25&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2v28PC1" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2v28PC1&lt;/a&gt;
&lt;a href="http://ift.tt/2AZYOUu" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2AZYOUu&lt;/a&gt;
&lt;a href="http://ift.tt/2D7KOtF" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2D7KOtF&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2zugYgi" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zugYgi&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=jIw3tE8FkMw" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=jIw3tE8FkMw&lt;/a&gt;
&lt;a href="http://ift.tt/2AZYSUe" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2AZYSUe&lt;/a&gt;
&lt;a href="http://ift.tt/2D1QZ25" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2D1QZ25&lt;/a&gt;
ttp://ift.tt/2D1QZ25&lt;/p&gt;</description></item><item><title>На #SC17 #Rescale показал как выглядит работает их #HPC облако со стороны пользователей-инженеров.</title><link>https://magicdpd.com/posts/2017-12-16-na-sc17-rescale-pokazal-kak-vyglyadit-r/</link><pubDate>Sat, 16 Dec 2017 17:18:08 +0000</pubDate><guid>https://magicdpd.com/posts/2017-12-16-na-sc17-rescale-pokazal-kak-vyglyadit-r/</guid><description>&lt;p&gt;В показе принимали участие #ANSYS #Fluent, #StarCCM+ и #LSTC #LSPP для #LSDYNA.&lt;/p&gt;
&lt;p&gt;В целом - это просто большой и правильно настроенный вычислительный кластер. Нет ничего фантастического - есть много вдумчивой и аккуратно выполненной работы. Пожалуй все из показанного можно повторить в ЦОД вашего предприятия за две недели работы на готовом железе.&lt;/p&gt;
&lt;p&gt;#cloud
&lt;a href="https://www.youtube.com/watch?v=b7J" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=b7J&lt;/a&gt;…Media📼 Rescale Demos Easy HPC Cloud Management at SC17&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2yJQS87" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yJQS87&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2zX5PoD" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zX5PoD&lt;/a&gt;
&lt;a href="http://ift.tt/2yJezxq" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yJezxq&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2wmHv13" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2wmHv13&lt;/a&gt;
&lt;a href="http://ift.tt/2yIXZgT" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yIXZgT&lt;/a&gt;
&lt;a href="http://ift.tt/2xRPO1U" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2xRPO1U&lt;/a&gt;
&lt;a href="http://ift.tt/2i0hIGl" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2i0hIGl&lt;/a&gt;
&lt;a href="http://ift.tt/2vlBJYZ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vlBJYZ&lt;/a&gt;
&lt;a href="http://ift.tt/2y2hFPP" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2y2hFPP&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=b7JjCWsFCgM" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=b7JjCWsFCgM&lt;/a&gt;
&lt;a href="http://ift.tt/2AXzcMc" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2AXzcMc&lt;/a&gt;
&lt;a href="http://ift.tt/2yJQS87" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yJQS87&lt;/a&gt;
ttp://ift.tt/2yJQS87&lt;/p&gt;</description></item><item><title>На #SC17 #VMware рассказали, про их новые продукты для виртуализации в #HPC.</title><link>https://magicdpd.com/posts/2017-12-08-na-sc17-vmware-rasskazali-pro-ih-novy/</link><pubDate>Fri, 08 Dec 2017 10:08:09 +0000</pubDate><guid>https://magicdpd.com/posts/2017-12-08-na-sc17-vmware-rasskazali-pro-ih-novy/</guid><description>&lt;p&gt;Вообще, виртуализация и HPC - это две стирающиеся не пересекаться прямые, но если очень хочется, то единственной точкой пересечения можно считать VMware.&lt;/p&gt;
&lt;p&gt;Теперь для HPC пользователей появился vSphere Scale-Out, который дешевле и с поддержкой (&lt;a href="http://ift.tt/2nGiVVH" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nGiVVH&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=BNg" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=BNg&lt;/a&gt;…Media📼 VMware moves Virtualized HPC Forward at SC17&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2nJ9BAo" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nJ9BAo&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2zX5PoD" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zX5PoD&lt;/a&gt;
&lt;a href="http://ift.tt/2nIGNYT" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nIGNYT&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2iCjdu5" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2iCjdu5&lt;/a&gt;)
&lt;a href="https://www.youtube.com/watch?v=BNgvnP-Pgjs" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=BNgvnP-Pgjs&lt;/a&gt;
&lt;a href="http://ift.tt/2Ao46Ny" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2Ao46Ny&lt;/a&gt;
&lt;a href="http://ift.tt/2nJ9BAo" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nJ9BAo&lt;/a&gt;
ttp://ift.tt/2nJ9BAo&lt;/p&gt;</description></item><item><title>Где-то сейчас в США идет очередная очередная главная #HPC выставка-конференция #SC17. И на ней уважаемые #Supermicro показывают кучу всего очень нового и очень интересного.</title><link>https://magicdpd.com/posts/2017-12-07-gde-to-seychas-v-ssha-idet-ocherednaya-ochere/</link><pubDate>Thu, 07 Dec 2017 17:03:18 +0000</pubDate><guid>https://magicdpd.com/posts/2017-12-07-gde-to-seychas-v-ssha-idet-ocherednaya-ochere/</guid><description>&lt;p&gt;Хотите считать быстро - изучайте матчасть!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=tlL" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=tlL&lt;/a&gt;…Media📼 Supermicro Booth Tour at SC17&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2nDNiMy" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nDNiMy&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2zX5PoD" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zX5PoD&lt;/a&gt;
&lt;a href="http://ift.tt/2nEppo4" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nEppo4&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=tlL68-PBt6E&amp;amp;feature=share" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=tlL68-PBt6E&amp;feature=share&lt;/a&gt;
&lt;a href="http://ift.tt/2zX5Rgf" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zX5Rgf&lt;/a&gt;
&lt;a href="http://ift.tt/2nDNiMy" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2nDNiMy&lt;/a&gt;
ttp://ift.tt/2nDNiMy&lt;/p&gt;</description></item><item><title>Ускорение #ANSYS #Fluent при помощи #GPGU #NVIDIA возможно, и даже очень полезно!</title><link>https://magicdpd.com/posts/2017-11-27-uskorenie-ansys-fluent-pri-pomoschi-gpg/</link><pubDate>Mon, 27 Nov 2017 17:08:07 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-27-uskorenie-ansys-fluent-pri-pomoschi-gpg/</guid><description>&lt;p&gt;Как показывают тесты NVIDIA, на одном и том-же пуле лицензии главный #CFD решатель ANSYS может ускориться почти в 4 раза за счет подключения нескольких #Tesla P100. И сейчас мы говорим не про супер компьютер, а про обычный сервер на 32 ядра.&lt;/p&gt;
&lt;p&gt;Что бы добиться такого же ускорения просто на процессорах вам потребуется уже 4 сервера соединенных по #Infiniband, коммутатор Infiniband, управляющий софт для получившегося кластера и дополнительные лицензий ANSYS на #HPC.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2ACZNhd" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2ACZNhd&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Хотите собрать сбалансированный вычислительный сервер под расчеты в ANSYS - читайте документацию 😊MediaMedia💾 ANSYS18.2_tech.pdf🔗 Ansys Fluent GPU Acceleration | NVIDIA&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="https://www.nvidia.com/en-us/data-center/gpu-accelerated-applications/ansys-fluent/" target="_blank" rel="noopener noreferrer"&gt;https://www.nvidia.com/en-us/data-center/gpu-accelerated-applications/ansys-fluent/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Компания Metariver Technology co., ltd (http://www.metariver.kr) специлизируется на создани #CAE софта #samadii максмально использующего возможности библиотеки #CUDA и графический чипов #NVIDIA.</title><link>https://magicdpd.com/posts/2017-11-26-kompaniya-metariver-technology-co-ltd/</link><pubDate>Sun, 26 Nov 2017 17:09:23 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-26-kompaniya-metariver-technology-co-ltd/</guid><description>&lt;p&gt;Сейчас у них есть:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;samadii/sciv (Statistical Contact in Vacuum) - моделирование процессов в вакуумных приборах методом Monte Carlo&lt;/li&gt;
&lt;li&gt;samadii/plasma - моделирование процессов в плазме&lt;/li&gt;
&lt;li&gt;samadii/dem - моделирования сыпучих сред в #DEM постановке&lt;/li&gt;
&lt;li&gt;samadii/lbm - #CFD решатель на основе #Lattice Boltzmann methods (#LBM)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Все это работает чисть на графических картах, а значит очень быстро.&lt;/p&gt;
&lt;p&gt;#HPC
&lt;a href="https://youtu.be/xXG3JbT0AQkMediaMediaMediaMedia" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/xXG3JbT0AQkMediaMediaMediaMedia&lt;/a&gt;📼 samadii, Metariver Technology&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2i8z0RZ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2i8z0RZ&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.metariver.kr/" target="_blank" rel="noopener noreferrer"&gt;http://www.metariver.kr/&lt;/a&gt;
&lt;a href="http://www.metariver.kr" target="_blank" rel="noopener noreferrer"&gt;http://www.metariver.kr&lt;/a&gt;
&lt;a href="http://ift.tt/2vdfLMH" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vdfLMH&lt;/a&gt;
&lt;a href="http://ift.tt/2k1zPg6" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2k1zPg6&lt;/a&gt;
&lt;a href="http://ift.tt/2wlSEjf" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2wlSEjf&lt;/a&gt;
&lt;a href="http://ift.tt/2wLNTgc" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2wLNTgc&lt;/a&gt;
&lt;a href="http://ift.tt/2w8Jaqb" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2w8Jaqb&lt;/a&gt;
&lt;a href="http://ift.tt/2v2FNSC" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2v2FNSC&lt;/a&gt;
&lt;a href="http://ift.tt/2xHbRIl" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2xHbRIl&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="https://youtu.be/xXG3JbT0AQk" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/xXG3JbT0AQk&lt;/a&gt;
&lt;a href="http://ift.tt/2i75L2f" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2i75L2f&lt;/a&gt;
&lt;a href="http://ift.tt/2k1A8HM" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2k1A8HM&lt;/a&gt;
&lt;a href="http://ift.tt/2i8fQvv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2i8fQvv&lt;/a&gt;
&lt;a href="http://ift.tt/2k1JqmW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2k1JqmW&lt;/a&gt;
&lt;a href="http://ift.tt/2i8z0RZ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2i8z0RZ&lt;/a&gt;
ttp://ift.tt/2i8z0RZ&lt;/p&gt;</description></item><item><title>#Mellanox, находясь в лидерах рынка #HPC интерконнекта, не останавливается, и продолжает придумывать новые технологии для снижения задержек и повышения быстродействия.</title><link>https://magicdpd.com/posts/2017-11-21-mellanox-nahodyas-v-liderah-rynka-hpc/</link><pubDate>Tue, 21 Nov 2017 15:10:18 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-21-mellanox-nahodyas-v-liderah-rynka-hpc/</guid><description>&lt;p&gt;Строите кластер для #ANSYS - закладывайте в его основу Mellanox Infiniband.&lt;/p&gt;
&lt;p&gt;#Infiniband #SocketDirect&lt;/p&gt;
&lt;p&gt;&lt;a href="https://youtu.be/gzilN_cuhMkMedia" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/gzilN_cuhMkMedia&lt;/a&gt;📼 Eye on Mellanox socket direct&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2zmVfuV" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zmVfuV&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2zoZXZe" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zoZXZe&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2mMIlk1" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2mMIlk1&lt;/a&gt;
&lt;a href="http://ift.tt/2zphkZL" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zphkZL&lt;/a&gt;
&lt;a href="https://youtu.be/gzilN_cuhMk" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/gzilN_cuhMk&lt;/a&gt;
&lt;a href="http://ift.tt/2mMInZb" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2mMInZb&lt;/a&gt;
&lt;a href="http://ift.tt/2zmVfuV" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zmVfuV&lt;/a&gt;
ttp://ift.tt/2zmVfuV&lt;/p&gt;</description></item><item><title>#HPC в мирe #CAEMedia📼 Применение суперкомпьютеров в современном мире - В…</title><link>https://magicdpd.com/posts/2017-11-13-hpc-v-mire-caemedia-primenenie-superk/</link><pubDate>Mon, 13 Nov 2017 11:41:22 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-13-hpc-v-mire-caemedia-primenenie-superk/</guid><description>&lt;p&gt;&lt;a href="http://ift.tt/2hwIBC3" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2hwIBC3&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2vdfLMH" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vdfLMH&lt;/a&gt;
&lt;a href="http://ift.tt/2jlIEB8" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2jlIEB8&lt;/a&gt;
&lt;a href="http://ift.tt/2hwIBC3" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2hwIBC3&lt;/a&gt;
ttp://ift.tt/2hwIBC3&lt;/p&gt;</description></item><item><title>Сегоня состоялся большой и очень ожидаемый мной релиз у моих друзей из #NICE Software.</title><link>https://magicdpd.com/posts/2017-11-08-segonya-sostoyalsya-bolshoy-i-ochen-ozhidaem/</link><pubDate>Wed, 08 Nov 2017 09:10:09 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-08-segonya-sostoyalsya-bolshoy-i-ochen-ozhidaem/</guid><description>&lt;p&gt;Эта небольшая но очень крутая итальянская компания (ныне часть #HPC подразделения #AWS) выпустила обновленную версию своего продукта #DCV (Desktop Cloud Visualization) - пожалуй самого эффективного средства доставки сложной инженерной графики на рынке.&lt;/p&gt;
&lt;p&gt;Ключевые фишки DCV:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Возможность совместной работы нескольких человек на одном рабочем столе&lt;/li&gt;
&lt;li&gt;Полностью аппаратное кодирование/декодирование видео потока в H.264&lt;/li&gt;
&lt;li&gt;Поддержка NVIDIA vGPU&lt;/li&gt;
&lt;li&gt;Работках как в физической, так и в виртуальной среде.&lt;/li&gt;
&lt;li&gt;Возможность работы в режиме сжатия без потерь&lt;/li&gt;
&lt;li&gt;Автоматический/ручной выбор степени сжатия потока&lt;/li&gt;
&lt;li&gt;Пробросаться смарт-карт&lt;/li&gt;
&lt;li&gt;Автоматическая подстройка разрешения под клиента&lt;/li&gt;
&lt;li&gt;Как обычный так и HTML5 клиент&lt;/li&gt;
&lt;li&gt;Поддержка Gnome 3 для RHEL 7&lt;/li&gt;
&lt;li&gt;Поддержка Windows 10 и Server 2016&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ну и конечно от себя хочу сказать, что DCV очень прост в установке, настроек и внедрении: поставил и работает. Не надо никаких серверов proxy, авторизации и балансировки нагрузки. Нет завязки на контроллер домена или систему авторизации.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2m7A75V" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2m7A75V&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#HPCMediaMedia🔗 Download DCV 2017 - NICE&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2yFdOtX" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yFdOtX&lt;/a&gt;
&lt;a href="https://www.nice-software.com/download/nice-dcv-2017" target="_blank" rel="noopener noreferrer"&gt;https://www.nice-software.com/download/nice-dcv-2017&lt;/a&gt;&lt;/p&gt;</description></item><item><title>В рамках проекта разработки #python библиотеки qd-cae-python, которая сейма в основном затачивается под работу с #LSDYNA, реализована возможность расширенной работы со стандартными файлами бинарных результатов d3plot - например их конвертация в формат HDF5. Данный формат имеет ряд преимуществ - возможность параллельной обработки на #HPC системах (и это тоже реализовано в библиотеке).</title><link>https://magicdpd.com/posts/2017-11-06-v-ramkah-proekta-razrabotki-python-bibl/</link><pubDate>Mon, 06 Nov 2017 17:05:48 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-06-v-ramkah-proekta-razrabotki-python-bibl/</guid><description>&lt;p&gt;#HDF5&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.qd-eng.de/index.php/2017/11/02/convert-a-d3plot-to-hdf5/" target="_blank" rel="noopener noreferrer"&gt;http://www.qd-eng.de/index.php/2017/11/02/convert-a-d3plot-to-hdf5/&lt;/a&gt; 🔗 Convert a D3plot to HDF5 – qd-eng&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2hfnNyJ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2hfnNyJ&lt;/a&gt;
&lt;a href="http://www.qd-eng.de/index.php/2017/11/02/convert-a-d3plot-to-hdf5/" target="_blank" rel="noopener noreferrer"&gt;http://www.qd-eng.de/index.php/2017/11/02/convert-a-d3plot-to-hdf5/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Больше ядер!</title><link>https://magicdpd.com/posts/2017-11-03-bolshe-yader-ansys-hpc-acum-by-cadfe/</link><pubDate>Fri, 03 Nov 2017 11:32:24 +0000</pubDate><guid>https://magicdpd.com/posts/2017-11-03-bolshe-yader-ansys-hpc-acum-by-cadfe/</guid><description>&lt;p&gt;#ANSYS #HPC #ACUM by #CADFEMMedia&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2A4OolA" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2A4OolA&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2i9AuaT" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2i9AuaT&lt;/a&gt;
&lt;a href="http://ift.tt/2vFXgAG" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vFXgAG&lt;/a&gt;
&lt;a href="http://ift.tt/2zhBgg3" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zhBgg3&lt;/a&gt;
&lt;a href="http://ift.tt/2A4OolA" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2A4OolA&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#TotalCAE хвастают тем, что написали слой интеграции между SLURM и #ANSYS #RSM.</title><link>https://magicdpd.com/posts/2017-10-22-totalcae-hvastayut-tem-chto-napisali-slo/</link><pubDate>Sun, 22 Oct 2017 17:14:25 +0000</pubDate><guid>https://magicdpd.com/posts/2017-10-22-totalcae-hvastayut-tem-chto-napisali-slo/</guid><description>&lt;p&gt;Напомню, ANSYS RSM позволяет без проблем ставить задачи ANSYS на таких высокопроизводительных системах, как #PBS, #LSF, #GridEngine, #Torque, #MOAB и даже Windows HPC Cluster, но не SLURM.&lt;/p&gt;
&lt;p&gt;TotalCAE взяли и написали свой собственный слой интеграции. Это прикольно, но проще было взять стандартный транслятор SLURM-PBS.&lt;/p&gt;
&lt;p&gt;#HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.totalcae.com/learn/slurm-ansys-remote-solver-manager-rsm/" target="_blank" rel="noopener noreferrer"&gt;https://www.totalcae.com/learn/slurm-ansys-remote-solver-manager-rsm/&lt;/a&gt; 🔗 SLURM with ANSYS Remote Solver Manager (RSM) - TotalCAE Blog&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2zt3EbO" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2zt3EbO&lt;/a&gt;
&lt;a href="https://www.totalcae.com/learn/slurm-ansys-remote-solver-manager-rsm/" target="_blank" rel="noopener noreferrer"&gt;https://www.totalcae.com/learn/slurm-ansys-remote-solver-manager-rsm/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Очень крутой технический доклад #Volvo на 7-ой конференции "BEFORE REALITY CONFERENCE", проводимой компанией #BETA #CAE.</title><link>https://magicdpd.com/posts/2017-10-19-ochen-krutoy-tehnicheskiy-doklad-volvo-n/</link><pubDate>Thu, 19 Oct 2017 17:12:40 +0000</pubDate><guid>https://magicdpd.com/posts/2017-10-19-ochen-krutoy-tehnicheskiy-doklad-volvo-n/</guid><description>&lt;p&gt;Конечно Volvo читает в моей любимой #LSDYNA. А вот модели она готовит в #ANSA, на которую они накрутили много собственной автоматизации. Анализ результатов за #Meta.&lt;/p&gt;
&lt;p&gt;Мне больше всего понравился рассказ про рабочий процесс, выработанный на Volvo - ведь они строят полные модели автомобилей для расчетов! И строят их почти автоматически.&lt;/p&gt;
&lt;p&gt;А еще, подробная модель автомобиля у них состоит всего из 10-15 миллионов элементов - это не очень много, а значит инженеры очень грамотно строят сетку и используют кучу упрощений без потери точности.&lt;/p&gt;
&lt;p&gt;И конечно есть пара слайдов про #HPC: 34 800 процессорных ядер! И им не хватает 😊
&lt;a href="https://youtu.be/kfYjxiZaESIMedia" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/kfYjxiZaESIMedia&lt;/a&gt;📼 Comprehensive Safety CAE for the all-new Volvo S90…&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2gw0MXQ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2gw0MXQ&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2gw0LmK" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2gw0LmK&lt;/a&gt;
&lt;a href="http://ift.tt/2yEni7L" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yEni7L&lt;/a&gt;
&lt;a href="http://ift.tt/2vdfLMH" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vdfLMH&lt;/a&gt;
&lt;a href="http://ift.tt/2vlBJYZ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vlBJYZ&lt;/a&gt;
&lt;a href="http://ift.tt/2yfJ8Lg" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yfJ8Lg&lt;/a&gt;
&lt;a href="http://ift.tt/2xkU8aW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2xkU8aW&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="https://youtu.be/kfYjxiZaESI" target="_blank" rel="noopener noreferrer"&gt;https://youtu.be/kfYjxiZaESI&lt;/a&gt;
&lt;a href="http://ift.tt/2yEniVj" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2yEniVj&lt;/a&gt;
&lt;a href="http://ift.tt/2gw0MXQ" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2gw0MXQ&lt;/a&gt;
tp://ift.tt/2gw0MXQ&lt;/p&gt;</description></item><item><title>Доложился на http://ift.tt/2htF57m про #ANSYS на отечественном #HPC интерконнекте #Ангара от #НИЦЭВТMedia</title><link>https://magicdpd.com/posts/2017-09-25-dolozhilsya-na-httpifttt2htf57m-pro/</link><pubDate>Mon, 25 Sep 2017 18:25:18 +0000</pubDate><guid>https://magicdpd.com/posts/2017-09-25-dolozhilsya-na-httpifttt2htf57m-pro/</guid><description>&lt;p&gt;&lt;a href="http://ift.tt/2jVyyXk" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2jVyyXk&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2htF57m" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2htF57m&lt;/a&gt;
&lt;a href="http://ift.tt/2vk2wVv" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2vk2wVv&lt;/a&gt;
&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://ift.tt/2y3mJox" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2y3mJox&lt;/a&gt;
&lt;a href="http://ift.tt/2jWWl9t" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2jWWl9t&lt;/a&gt;
&lt;a href="http://ift.tt/2y3mKsB" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2y3mKsB&lt;/a&gt;
&lt;a href="http://ift.tt/2jVyyXk" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2jVyyXk&lt;/a&gt;&lt;/p&gt;</description></item><item><title>В новой платформе Intel Xeon Scalable появился встроенный 10 GigE, причем iWARP - это низколатентный вариант сети.</title><link>https://magicdpd.com/posts/2017-09-19-v-novoy-platforme-intel-xeon-scalable-po/</link><pubDate>Tue, 19 Sep 2017 04:58:05 +0000</pubDate><guid>https://magicdpd.com/posts/2017-09-19-v-novoy-platforme-intel-xeon-scalable-po/</guid><description>&lt;p&gt;Главное, что он подходит для построения #HPC начального уровня.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://geektimes.ru/company/intel/blog/292747/" target="_blank" rel="noopener noreferrer"&gt;https://geektimes.ru/company/intel/blog/292747/&lt;/a&gt; 🔗 Что такое Intel Xeon Scalable?&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2w0uPxq" target="_blank" rel="noopener noreferrer"&gt;Что такое Intel Xeon Scalable?&lt;/a&gt;
&lt;a href="https://geektimes.ru/company/intel/blog/292747/" target="_blank" rel="noopener noreferrer"&gt;https://geektimes.ru/company/intel/blog/292747/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>На следующей неделе, на конференции "Суперкомпьютерные дни в России", буду рассказывать про то, как мы с НИЦЭВТ заставили #ANSYS работать на отечественном #HPC интерконнекте Ангара - приходите на индустриальную секцию.</title><link>https://magicdpd.com/posts/2017-09-18-na-sleduyuschey-nedele-na-konferentsii-sup/</link><pubDate>Mon, 18 Sep 2017 11:19:40 +0000</pubDate><guid>https://magicdpd.com/posts/2017-09-18-na-sleduyuschey-nedele-na-konferentsii-sup/</guid><description>&lt;p&gt;&lt;a href="http://www.russianscdays.org/agenda/Industrial17" target="_blank" rel="noopener noreferrer"&gt;http://www.russianscdays.org/agenda/Industrial17&lt;/a&gt; 🔗 Индустриальная секция | Russian Supercomputing Days&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://www.russianscdays.org/agenda/Industrial17" target="_blank" rel="noopener noreferrer"&gt;http://www.russianscdays.org/agenda/Industrial17&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Компания AMD не выпускала годных процессоров лет 6, но в этом году она заявила о себе с новой архитектурой, которая должна составить конкуренцию Intel.</title><link>https://magicdpd.com/posts/2017-08-31-kompaniya-amd-ne-vypuskala-godnyh-protsess/</link><pubDate>Thu, 31 Aug 2017 18:42:15 +0000</pubDate><guid>https://magicdpd.com/posts/2017-08-31-kompaniya-amd-ne-vypuskala-godnyh-protsess/</guid><description>&lt;p&gt;Сам я пока бенчмарков сделать не успел, но провел небольшой обзор #HPC литературы.&lt;/p&gt;
&lt;p&gt;Самые вменяемые данные для 16-ти ядерных процессоров #AMD #Ryzen #Threadripper 1950X есть у Toms&amp;rsquo;s Hardware. Сравнение AMD идет с 10 ядерным флагманом #Intel #Core #i9-7900X. Из их тестов нас интересуют #Rodinia - #CFD и #CalculiX - #FEM&lt;/p&gt;
&lt;p&gt;Можно видеть, что по производительности на ядро в плане FEM процессоры AMD сливают почти в 2 раза, а в области CFD наблюдается паритет. На цены железа я не смотрю - цены на лицензии коммерческого #CAE перекрывают стоимость аппаратной платформы в разы. Пока первый вывод - брать AMD рано.&lt;/p&gt;
&lt;p&gt;#tomshardware
&lt;a href="http://www.tomshardware.com/reviews/amd-ryzen-threadripper-1950x-cpu,5167-12.html" target="_blank" rel="noopener noreferrer"&gt;http://www.tomshardware.com/reviews/amd-ryzen-threadripper-1950x-cpu,5167-12.html&lt;/a&gt; 🔗 Ryzen Threadripper: Scientific &amp;amp; Engineering Computations, &amp;amp; HPC Performance&lt;/p&gt;
&lt;p&gt;&lt;a href="http://ift.tt/2emhAvW" target="_blank" rel="noopener noreferrer"&gt;http://ift.tt/2emhAvW&lt;/a&gt;
&lt;a href="http://www.tomshardware.com/reviews/amd-ryzen-threadripper-1950x-cpu,5167-12.html" target="_blank" rel="noopener noreferrer"&gt;http://www.tomshardware.com/reviews/amd-ryzen-threadripper-1950x-cpu,5167-12.html&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#Intel в ближайшее время начнет поставки новых серверных процессоров.</title><link>https://magicdpd.com/posts/2017-08-18-intel-v-blizhayshee-vremya-nachnet-postavki/</link><pubDate>Fri, 18 Aug 2017 17:02:15 +0000</pubDate><guid>https://magicdpd.com/posts/2017-08-18-intel-v-blizhayshee-vremya-nachnet-postavki/</guid><description>&lt;p&gt;Теперь они будут маркироваться не E3, E5, E7, а Bronze, Silver, Gold и Platinum (и все это вместе - Intel® Xeon® Scalable Processors, &lt;a href="http://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors%29" target="_blank" rel="noopener noreferrer"&gt;http://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors)&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;#ANSYS уже подсуетился и замерил производительность новых процессоров в актуальной версии своего ПО. Тут мы видим до 40% прироста производительности. Магии никакой нет, просто код решателей ANSYS умеет использоваться новый набор векторных инструкций Intel® Advanced Vector Extensions 2 (#AVX2) - шах и мат любителям высокой частоты.&lt;/p&gt;
&lt;p&gt;И да, если вы собираетесь подбирать новое железо, то моя инструкция (ее пункт 11) все еще актуальна: https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18.1_tech.pdf&lt;/p&gt;
&lt;p&gt;#HPC &lt;a href="http://www.ansys-blog.com/boost-ansys-performance-intel-technologies/#more-18699" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys-blog.com/boost-ansys-performance-intel-technologies/#more-18699&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors" target="_blank" rel="noopener noreferrer"&gt;Intel® Xeon® Scalable Processors Product Specifications&lt;/a&gt;
&lt;del&gt;&lt;a href="http://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors" target="_blank" rel="noopener noreferrer"&gt;http://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors&lt;/a&gt;&lt;/del&gt; → &lt;a href="http://web.archive.org/web/20181223181135/https://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors" target="_blank" rel="noopener noreferrer"&gt;Сохранённая версия&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Оригинальная ссылка больше не доступна&lt;/em&gt;
&lt;a href="https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18.1_tech.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18.1_tech.pdf&lt;/a&gt;
&lt;a href="http://www.ansys-blog.com/boost-ansys-performance-intel-technologies/#more-18699" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys-blog.com/boost-ansys-performance-intel-technologies/#more-18699&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Dassault Systèmes движется в свое облако</title><link>https://magicdpd.com/posts/2017-07-16-dassault-syst%C3%A8mes-dvizhetsya-v-svoe-oblako/</link><pubDate>Sun, 16 Jul 2017 17:01:08 +0000</pubDate><guid>https://magicdpd.com/posts/2017-07-16-dassault-syst%C3%A8mes-dvizhetsya-v-svoe-oblako/</guid><description>&lt;p&gt;Dassault Systèmes движется в свое облако
&lt;a href="http://www.develop3d.com/blog/dassault-systemes-cloud-tools-3dexperience-Outscale-acquisition" target="_blank" rel="noopener noreferrer"&gt;http://www.develop3d.com/blog/dassault-systemes-cloud-tools-3dexperience-Outscale-acquisition&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Компания #Dassault Systèmes анонсировала покупку французского игрока на рынке облачного #HPC - компанию #Outscale. Видать будут строить свое инженерное облако в рамках их среды #3DExperience&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.develop3d.com/blog/dassault-systemes-cloud-tools-3dexperience-Outscale-acquisition" target="_blank" rel="noopener noreferrer"&gt;DEVELOP3D blog - Dassault Systèmes liked the company running its Cloud tools so much that it bought it&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Делаем кластер в облаке на 60 секунд</title><link>https://magicdpd.com/posts/2017-07-07-delaem-klaster-v-oblake-na-60-sekund/</link><pubDate>Fri, 07 Jul 2017 17:00:50 +0000</pubDate><guid>https://magicdpd.com/posts/2017-07-07-delaem-klaster-v-oblake-na-60-sekund/</guid><description>&lt;p&gt;Делаем кластер в облаке на 60 секунд
&lt;a href="http://PBScloud.io" target="_blank" rel="noopener noreferrer"&gt;http://PBScloud.io&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Очень любопытное видео от #Altair про #PBScloud.io - их новый продукт, способный делать #HPC кластеры на базе публичных облаков вроде #AWS или #Azure.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=jQGMSozUDsI" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=jQGMSozUDsI&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.pbscloud.io/" target="_blank" rel="noopener noreferrer"&gt;High Performance Computing in the Cloud | PBScloud.io&lt;/a&gt;
&lt;a href="http://PBScloud.io" target="_blank" rel="noopener noreferrer"&gt;http://PBScloud.io&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=jQGMSozUDsI" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=jQGMSozUDsI&lt;/a&gt;&lt;/p&gt;</description></item><item><title>OpenSBLI</title><link>https://magicdpd.com/posts/2017-06-11-opensbli/</link><pubDate>Sun, 11 Jun 2017 17:00:37 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-11-opensbli/</guid><description>&lt;p&gt;OpenSBLI
&lt;a href="https://opensbli.github.io/" target="_blank" rel="noopener noreferrer"&gt;https://opensbli.github.io/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Сегодня в меню у нас #python фреймворк разработанный для моделирования процесса взаимодействия скачка уплотнения с пограничным слоем (#SBLI, Shock-Boundary Layer Interactions) в рамках решения уравнения Навье-Стокса с учетом сжимаемости течения. Фреймворк генерирует на выходе код на языке Си, который уже выполняет расчеты. При этом, получаемый код может быть оптимизирован для исполнения на #GPU с #CUDA или #OpenCL, а также он знает про технологии #MPI и #OpenMP.&lt;/p&gt;
&lt;p&gt;Гремучая смесь для тех, кто знает, что делает.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=Ob4NKZgUK3U" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=Ob4NKZgUK3U&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://opensbli.github.io/" target="_blank" rel="noopener noreferrer"&gt;https://opensbli.github.io/&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=Ob4NKZgUK3U" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=Ob4NKZgUK3U&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Приятные поздравления</title><link>https://magicdpd.com/posts/2017-06-09-priyatnye-pozdravleniya/</link><pubDate>Fri, 09 Jun 2017 09:15:33 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-09-priyatnye-pozdravleniya/</guid><description>&lt;p&gt;Приятные поздравления
&lt;a href="https://www.cadfem-cis.ru/list/article/yuranox/" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/list/article/yuranox/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Наконец дошли руки до подтверждения квалификации пом #HPC и #Mellanox #Infiniband&lt;/p&gt;
&lt;p&gt;А за поздравления - большое спасибо!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.cadfem-cis.ru/list/article/yuranox/" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/list/article/yuranox/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>CFD для полетов на Марс</title><link>https://magicdpd.com/posts/2017-06-08-cfd-dlya-poletov-na-mars/</link><pubDate>Thu, 08 Jun 2017 17:00:43 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-08-cfd-dlya-poletov-na-mars/</guid><description>&lt;p&gt;CFD для полетов на Марс
&lt;a href="https://www.nextplatform.com/2015/03/27/rockets-shake-and-rattle-so-spacex-rolls-homegrown-cfd/" target="_blank" rel="noopener noreferrer"&gt;https://www.nextplatform.com/2015/03/27/rockets-shake-and-rattle-so-spacex-rolls-homegrown-cfd/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Если коротко, то #SpacaX Илона Маска (Elon Musk) решили, что существующие #CFD коды плохо справляются задачами, которые надо решать при моделировании ракетных двигателей, особенно для полета на Марс. Команда Илона Маска разрабатывает свой собственный код, решающий задачи гидротехническую-гвзодинамики с учетом сжимаемости потока и химических реакция. И в этом им помогает не только академическое сообщество, но и великие и ужасные Национальные Сандийские лаборатории (#Sandia National Laboratories).&lt;/p&gt;
&lt;p&gt;Подробный рассказ о том, что именно не нравится SpacaX в современном CFD, и как они это исправляют, можно прочитать по ссылке внизу. Если читать лень, то можно посмотреть запись доклада с конференции #NVIDIA #GTC&lt;/p&gt;
&lt;p&gt;Маленькое:
&lt;a href="https://www.youtube.com/watch?v=ozrvfRHvYHA" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=ozrvfRHvYHA&lt;/a&gt;
Большое:
&lt;a href="https://www.youtube.com/watch?v=txk-VO1hzBY" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=txk-VO1hzBY&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.nextplatform.com/2015/03/27/rockets-shake-and-rattle-so-spacex-rolls-homegrown-cfd/" target="_blank" rel="noopener noreferrer"&gt;Rockets Shake And Rattle, So SpaceX Rolls Homegrown CFD&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=ozrvfRHvYHA" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=ozrvfRHvYHA&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=txk-VO1hzBY" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=txk-VO1hzBY&lt;/a&gt;&lt;/p&gt;</description></item><item><title>25 лет технологии MPI</title><link>https://magicdpd.com/posts/2017-06-02-25-let-tehnologii-mpi/</link><pubDate>Fri, 02 Jun 2017 17:00:34 +0000</pubDate><guid>https://magicdpd.com/posts/2017-06-02-25-let-tehnologii-mpi/</guid><description>&lt;p&gt;25 лет технологии MPI&lt;/p&gt;
&lt;p&gt;Message Passing Interface (aka #MPI) - промышленный стандарт создания вычислительного ПО, работающего на системах с распределенной памятью отпраздновал четверть века. Статья по ссылке рассказывает о становлении этого стандарта в мире #HPC.&lt;/p&gt;</description></item><item><title>А что если Fluent на миллион ядер запустить</title><link>https://magicdpd.com/posts/2017-05-14-a-chto-esli-fluent-na-million-yader-zapust/</link><pubDate>Sun, 14 May 2017 17:00:55 +0000</pubDate><guid>https://magicdpd.com/posts/2017-05-14-a-chto-esli-fluent-na-million-yader-zapust/</guid><description>&lt;p&gt;А что если Fluent на миллион ядер запустить
&lt;a href="http://www.ansys-blog.com/hpc/" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys-blog.com/hpc/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ANSYS прикинул, что если они не сбавят темпы разработки #HPC части своего главного #CFD кода #Fluent, то к 2020 году он сможет эффективно распараллеливать на миллион ядер. А что, последний десяток лет им удается сохранять тренд. Challenge accepted, как говориться.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.ansys-blog.com/hpc/" target="_blank" rel="noopener noreferrer"&gt;ANSYS HPC: On to a Million Cores!&lt;/a&gt;&lt;/p&gt;</description></item><item><title>NICE EnginFrame 2017</title><link>https://magicdpd.com/posts/2017-03-29-nice-enginframe-2017/</link><pubDate>Wed, 29 Mar 2017 17:00:25 +0000</pubDate><guid>https://magicdpd.com/posts/2017-03-29-nice-enginframe-2017/</guid><description>&lt;p&gt;NICE EnginFrame 2017
&lt;a href="http://www.nice-software.com/news/-/blogs/nice-enginframe-2017-is-now-available-with-even-simpler-aws-integration" target="_blank" rel="noopener noreferrer"&gt;http://www.nice-software.com/news/-/blogs/nice-enginframe-2017-is-now-available-with-even-simpler-aws-integration&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;На этой неделе наши итальянские друзья и партнеры, компания #Nice Software, выпустили #EngineFrame 2017 - web-портал #HPC системы, диспетчер очереди задач, диспетчер терминальных сессий и много чего еще. Особый прицел сделан на удобную для пользователя работу с виртуальными кластерами в #AWS (#Amazon с прошлого года является владельцем компании).&lt;/p&gt;
&lt;p&gt;Пример работы предыдущего релиза на видео:
&lt;a href="https://www.youtube.com/watch?v=iBGEXDgi5-w" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=iBGEXDgi5-w&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nice-software.com/news/-/blogs/nice-enginframe-2017-is-now-available-with-even-simpler-aws-integration" target="_blank" rel="noopener noreferrer"&gt;http://www.nice-software.com/news/-/blogs/nice-enginframe-2017-is-now-available-with-even-simpler-aws-integration&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=iBGEXDgi5-w" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=iBGEXDgi5-w&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как подружить ANSYS 18 и кластер</title><link>https://magicdpd.com/posts/2017-03-28-kak-podruzhit-ansys-18-i-klaster/</link><pubDate>Tue, 28 Mar 2017 17:02:47 +0000</pubDate><guid>https://magicdpd.com/posts/2017-03-28-kak-podruzhit-ansys-18-i-klaster/</guid><description>&lt;p&gt;Как подружить ANSYS 18 и кластер
&lt;a href="https://quantumhpc.com/en/blog/how-to-configure-ansys-rsm-v18-with-a-pbs-pro-cluster" target="_blank" rel="noopener noreferrer"&gt;https://quantumhpc.com/en/blog/how-to-configure-ansys-rsm-v18-with-a-pbs-pro-cluster&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Отличная статья/комикс о том, как настроить взаимодействие #ANSYS 18 и кластерного #HPC планировщика очереди задач (#workload manager/#scheduler) #Altair #PBS Pro через новый ANSYS #RSM. Все дело в том, что RSM, утилита взаимодействия решателей ANSYS с вычислительными ресурсам, в 18-ой версии сильно изменилась. Хотя, на мой взгляд, это здорово пошло ей на пользу.&lt;/p&gt;
&lt;p&gt;Хоть статья и написана про PBS Pro, но настройка #IBM #LSF, MS HPC Cluster, Grid Engine будет проходить точно также - все настройки унифицированы.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.quantumhpc.com/en/blog/how-to-configure-ansys-rsm-v18-with-a-pbs-pro-cluster" target="_blank" rel="noopener noreferrer"&gt;How to configure ANSYS RSM v18 with a PBS Pro cluster | HPC Cloud Computing&lt;/a&gt;
&lt;a href="https://quantumhpc.com/en/blog/how-to-configure-ansys-rsm-v18-with-a-pbs-pro-cluster" target="_blank" rel="noopener noreferrer"&gt;https://quantumhpc.com/en/blog/how-to-configure-ansys-rsm-v18-with-a-pbs-pro-cluster&lt;/a&gt;&lt;/p&gt;</description></item><item><title>WB LS-DYNA ACT 18.0</title><link>https://magicdpd.com/posts/2017-03-10-wb-ls-dyna-act-180/</link><pubDate>Fri, 10 Mar 2017 09:00:54 +0000</pubDate><guid>https://magicdpd.com/posts/2017-03-10-wb-ls-dyna-act-180/</guid><description>&lt;p&gt;WB LS-DYNA ACT 18.0
&lt;a href="https://appstore.ansys.com/download?prodid=APC-ACTAPP-222" target="_blank" rel="noopener noreferrer"&gt;https://appstore.ansys.com/download?prodid=APC-ACTAPP-222&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ANSYS выложил новую версию #Workbench #LSDYNA #ACT для релиза 18.0&lt;/p&gt;
&lt;p&gt;Сначала бочка меда:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Опция переключения Deformable To Rigid доступна из GUI&lt;/li&gt;
&lt;li&gt;LS-DYNA Named Selections Manager теперь позволяет в явном виде задавать какой ID будет у Named Selections при трансляции его в соответсвующую абстракцию LS-DYNA. Эта функция очень полезна и снимает кучу головной боле при работе с Keyword Snippet.&lt;/li&gt;
&lt;li&gt;Супер недокументированная функция: похоже, что WB LS-DYNA ACT научилась работать с #RSM! И не только с RSM для постановки задач на самого себя в фон в очередь, но и с #ARC и прочими #HPC кластерами. Но это еще надо проверять.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Потом ложка дегтя:
Во-первых, ACT отсутствует в списке доступных для 18-ой версии и находится только поиском.
Во-вторых, ANSYS обещал, что в 18-ой версии они сделают это ACT устанавливающимся по нормальному, а не через отдельный инсталятор - слово не сдержали.
В-третьих, в документации к ACT сказано, что опять ничего нового нет и только багфикс - ан нет, появились новые функции, хотя и без документации.
В-четвертых, из коробки так и не работает ALE - приходится вручную определять правильные настройки *CONTROL_ALE&lt;/p&gt;
&lt;p&gt;&lt;a href="https://appstore.ansys.com/download?prodid=APC-ACTAPP-222" target="_blank" rel="noopener noreferrer"&gt;https://appstore.ansys.com/download?prodid=APC-ACTAPP-222&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Еще один способ упростить расчеты LS-DYNA</title><link>https://magicdpd.com/posts/2017-02-21-esche-odin-sposob-uprostit-raschety-ls-dyn/</link><pubDate>Tue, 21 Feb 2017 17:03:20 +0000</pubDate><guid>https://magicdpd.com/posts/2017-02-21-esche-odin-sposob-uprostit-raschety-ls-dyn/</guid><description>&lt;p&gt;Еще один способ упростить расчеты LS-DYNA
&lt;a href="http://www.lsdyna-tutorials.com/k-runner" target="_blank" rel="noopener noreferrer"&gt;http://www.lsdyna-tutorials.com/k-runner&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;На сайте &lt;a href="http://www.lsdyna-tutorials.com/" target="_blank" rel="noopener noreferrer"&gt;http://www.lsdyna-tutorials.com/&lt;/a&gt; появился еще один интересный ланчер для расчетов в #LSDYNA. Он позволяет построить настоящую расчетную сеть с клиентами и серверами приложений - прямо как #ANSYS #RSM. Я бы такой развернул на работе, правда, боюсь, что эта штука окажется платной.
#HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=TraTYWyLf0s" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=TraTYWyLf0s&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://lsdyna-tutorials.com/k-runner" target="_blank" rel="noopener noreferrer"&gt;http://lsdyna-tutorials.com/k-runner&lt;/a&gt;
&lt;a href="http://www.lsdyna-tutorials.com/k-runner" target="_blank" rel="noopener noreferrer"&gt;http://www.lsdyna-tutorials.com/k-runner&lt;/a&gt;
&lt;a href="http://www.lsdyna-tutorials.com/" target="_blank" rel="noopener noreferrer"&gt;http://www.lsdyna-tutorials.com/&lt;/a&gt;
&lt;a href="https://www.youtube.com/watch?v=TraTYWyLf0s" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=TraTYWyLf0s&lt;/a&gt;&lt;/p&gt;</description></item><item><title>CFD для миссии на Марс</title><link>https://magicdpd.com/posts/2017-02-18-cfd-dlya-missii-na-mars/</link><pubDate>Sat, 18 Feb 2017 12:00:12 +0000</pubDate><guid>https://magicdpd.com/posts/2017-02-18-cfd-dlya-missii-na-mars/</guid><description>&lt;p&gt;CFD для миссии на Марс
&lt;a href="https://www.youtube.com/watch?v=vYA0f6R5KAI" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=vYA0f6R5KAI&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Компания #SpaceX имеет в своих планах полет на Марс в обозримом будущем. Будучи крайне прогрессивной организацией, они, естественно, придают огромное значение математическому моделированию физических процессов. В предлагаемом вебинаре они рассказывают о проблемах #CFD расчетом двигателей для космических кораблей, о том как важно учитывать химические реакции, какие подходы использовать при создании сетки&amp;hellip; и конечно про свой код, который считает все это на #GPU для пущего #HPC.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=vYA0f6R5KAI" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=vYA0f6R5KAI&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=vYA0f6R5KAI" target="_blank" rel="noopener noreferrer"&gt;GPUs to Mars: Full-Scale Simulation of SpaceX&amp;rsquo;s Mars Rocket Engine&lt;/a&gt;&lt;/p&gt;</description></item><item><title>ANSYS RSM 18.0 для Windows HPC</title><link>https://magicdpd.com/posts/2017-02-16-ansys-rsm-180-dlya-windows-hpc/</link><pubDate>Thu, 16 Feb 2017 17:00:59 +0000</pubDate><guid>https://magicdpd.com/posts/2017-02-16-ansys-rsm-180-dlya-windows-hpc/</guid><description>&lt;p&gt;ANSYS RSM 18.0 для Windows HPC
&lt;a href="http://www.padtinc.com/blog/the-focus/how-to-ansys-18-rsm-client-setup-on-windows-2012-r2-hpc" target="_blank" rel="noopener noreferrer"&gt;http://www.padtinc.com/blog/the-focus/how-to-ansys-18-rsm-client-setup-on-windows-2012-r2-hpc&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ANSYS #RSM 18 принципиально отличается от всех предыдущих версий RSM. Теперь он легче связывается в кластерными менеджерами очереди задач или сам может быть таким менеджером, благодаря ANSYS RSM Cluster (#ARC).&lt;/p&gt;
&lt;p&gt;#PADT Inc подготовили небольшую брошюру по настройке и работе RSM совместно с кластером на базе #Windows #Server 2012 R2 и Microsoft #HPC #Cluster Pack.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.padtinc.com/blog/the-focus/how-to-ansys-18-rsm-client-setup-on-windows-2012-r2-hpc" target="_blank" rel="noopener noreferrer"&gt;How-To: ANSYS 18 RSM CLIENT SETUP on Windows 2012 R2 HPC&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как делать HPC для ANSYS 18</title><link>https://magicdpd.com/posts/2017-02-09-kak-delat-hpc-dlya-ansys-18/</link><pubDate>Thu, 09 Feb 2017 17:02:27 +0000</pubDate><guid>https://magicdpd.com/posts/2017-02-09-kak-delat-hpc-dlya-ansys-18/</guid><description>&lt;p&gt;Как делать HPC для ANSYS 18
&lt;a href="https://www.cadfem-cis.ru/products/ansys/ansys-update/" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/products/ansys/ansys-update/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Коллеги, рад поделиться ссылкой на опубликованный недавно материал, по тематике #HPC для #ANSYS и построения правильно IT инфраструктуры для расчетов.&lt;/p&gt;
&lt;p&gt;Вот в этом документе вы найдете очень много интересного и нового, чего иногда даже нет и в официальной документации - &lt;a href="https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18_tech.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18_tech.pdf&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Главные фишки релиза 18.0 с точки зрения HPC:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;поддержка #CentOS 7&lt;/li&gt;
&lt;li&gt;cобственный встроенный бесплатный кластерный планировщик (aka workload manager, aka scheduler) для Windows и Linux - ANSYS #RSM Cluster (aka #ARC)&lt;/li&gt;
&lt;li&gt;ANSYS #CFD теперь считает на 4-х ядрах из коробки&lt;/li&gt;
&lt;li&gt;ANSYS #Explicit STR теперь считает на 2-х ядрах из коробки&lt;/li&gt;
&lt;li&gt;ANSYS #Maxwell теперь умеет использовать #GPGPU #NVIDIA&lt;/li&gt;
&lt;li&gt;Первый ANSYS HPC Pack это 10, а не 8 ядре&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;a href="https://www.cadfem-cis.ru/products/ansys/ansys-update/" target="_blank" rel="noopener noreferrer"&gt;Обновления ANSYS 19 – CADFEM&lt;/a&gt;
&lt;a href="https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18_tech.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.cadfem-cis.ru/fileadmin/data/file/content_prod/ansys/18/ANSYS18_tech.pdf&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Deploying HPC Cluster with Mellanox InfiniBand Interconnect Solutions</title><link>https://magicdpd.com/posts/2017-01-18-deploying-hpc-cluster-with-mellanox-infi/</link><pubDate>Wed, 18 Jan 2017 17:02:06 +0000</pubDate><guid>https://magicdpd.com/posts/2017-01-18-deploying-hpc-cluster-with-mellanox-infi/</guid><description>&lt;p&gt;&lt;a href="https://vk.com/doc11568_441185555" target="_blank" rel="noopener noreferrer"&gt;https://vk.com/doc11568_441185555&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;В очередной раз убедился, что нет лучше пособия по отладке true #HPC кластеров чем эта небольшая брошюрка от #Mellanox. #Infiniband рули, а ссылка на документ чуть ниже в посте.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://vk.com/doc11568_441185555" target="_blank" rel="noopener noreferrer"&gt;https://vk.com/doc11568_441185555&lt;/a&gt;&lt;/p&gt;</description></item><item><title>LS-DYNAcloud</title><link>https://magicdpd.com/posts/2016-12-28-ls-dynacloud/</link><pubDate>Wed, 28 Dec 2016 17:02:05 +0000</pubDate><guid>https://magicdpd.com/posts/2016-12-28-ls-dynacloud/</guid><description>&lt;p&gt;LS-DYNAcloud
&lt;a href="http://www.ls-dynacloud.com/" target="_blank" rel="noopener noreferrer"&gt;http://www.ls-dynacloud.com/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Знали ли вы, что у #LSTC есть собственное облако, для выполнения расчетов в #LSDYNA? Аппаратная часть облака размазана по 3-м крупным #cloud игрокам: CPU24/7, #Gompute и #Rescale, а поддержкой занимается сам #LSTC и #DYNAmore. Только введите ваш номер кредитки :-) #HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.ls-dynacloud.com/" target="_blank" rel="noopener noreferrer"&gt;http://www.ls-dynacloud.com/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>ANSYS Fluent опять сожрал все ресурсы</title><link>https://magicdpd.com/posts/2016-12-05-ansys-fluent-opyat-sozhral-vse-resursy/</link><pubDate>Mon, 05 Dec 2016 17:00:19 +0000</pubDate><guid>https://magicdpd.com/posts/2016-12-05-ansys-fluent-opyat-sozhral-vse-resursy/</guid><description>&lt;p&gt;ANSYS Fluent опять сожрал все ресурсы
&lt;a href="http://investors.ansys.com/press-releases/2016/15-Nov-16-121021132" target="_blank" rel="noopener noreferrer"&gt;http://investors.ansys.com/press-releases/2016/15-Nov-16-121021132&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;ANSYS Inc, High Performance Computing Center (#HLRS) Штутгартского университета (University of Stuttgart) и компания #Cray Inc собрались и посчитали #CFD задачу в #ANSYS #Fluent на 172032 ядер!&lt;/p&gt;
&lt;p&gt;Немного об использованном кластере: 9-ое место в #TOP500, 7 Петафлопс, 185088 процессорных ядер, 7712 двухсокетных сервера на базе Intel Xeon E5-2680 v3.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://investors.ansys.com/press-releases/2016/15-Nov-16-121021132" target="_blank" rel="noopener noreferrer"&gt;http://investors.ansys.com/press-releases/2016/15-Nov-16-121021132&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Когда MPI заболел</title><link>https://magicdpd.com/posts/2016-11-27-kogda-mpi-zabolel/</link><pubDate>Sun, 27 Nov 2016 12:00:11 +0000</pubDate><guid>https://magicdpd.com/posts/2016-11-27-kogda-mpi-zabolel/</guid><description>&lt;p&gt;Когда MPI заболел
&lt;a href="https://software.intel.com/en-us/node/561777" target="_blank" rel="noopener noreferrer"&gt;https://software.intel.com/en-us/node/561777&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;На днях мне довелось собирать кластер из &amp;ldquo;того, что было&amp;rdquo; на коленке: без планировщика, без серверной операционки, без #Infiniband. Так вот, во время отладки работы #Intel #MPI я наткнулся на очень интересную статью на портале поддержки Intel: &amp;ldquo;Examples of MPI Failures&amp;rdquo;. В статье разобраны 7 ситуаций, когда Intel MPI не MPI и как его починить. #HPC на коленке заработало&lt;/p&gt;
&lt;p&gt;&lt;a href="https://software.intel.com/en-us/node/561777" target="_blank" rel="noopener noreferrer"&gt;Examples of MPI Failures | Intel® Software&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Wolfram On-Demand</title><link>https://magicdpd.com/posts/2016-11-20-wolfram-on-demand/</link><pubDate>Sun, 20 Nov 2016 17:02:09 +0000</pubDate><guid>https://magicdpd.com/posts/2016-11-20-wolfram-on-demand/</guid><description>&lt;p&gt;Wolfram On-Demand
&lt;a href="https://blog.rescale.com/mathematica-on-the-cloud/" target="_blank" rel="noopener noreferrer"&gt;https://blog.rescale.com/mathematica-on-the-cloud/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#Wolfram анонсировал запуск облачных лицензий на #Mathematica в облаке #Rescale. Теперь для сложных аналитических расчетов моно использовать этот #HPC #Cloud&lt;/p&gt;
&lt;p&gt;&lt;a href="https://blog.rescale.com/mathematica-on-the-cloud/" target="_blank" rel="noopener noreferrer"&gt;https://blog.rescale.com/mathematica-on-the-cloud/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Интерконнект на 20 Гбит</title><link>https://magicdpd.com/posts/2016-11-18-interkonnekt-na-20-gbit/</link><pubDate>Fri, 18 Nov 2016 17:01:22 +0000</pubDate><guid>https://magicdpd.com/posts/2016-11-18-interkonnekt-na-20-gbit/</guid><description>&lt;p&gt;Интерконнект на 20 Гбит
&lt;a href="https://www.youtube.com/watch?v=bSLhvTbOT_g" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=bSLhvTbOT_g&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Интерконнект на 200 Гбит
На прошедшей неделе компания #Mellanox анонсировала выпуск нового поколения их #HPC интерконнекта #Infiniband - IB HDR. Infiniband дефакто является стандартом для суперкомпьютеров - более 70% всех систем такого класса собраны с использованием IB. Теперь же он может работать на скоростях 200 Гбит/с с задержками менее 90 нано секунд.
&lt;a href="https://www.youtube.com/watch?v=bSLhvTbOT_g" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=bSLhvTbOT_g&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=bSLhvTbOT_g" target="_blank" rel="noopener noreferrer"&gt;Mellanox Announces 200Gb/s HDR InfiniBand Solutions&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Немного занудства про СЛАУ</title><link>https://magicdpd.com/posts/2016-11-01-nemnogo-zanudstva-pro-slau/</link><pubDate>Tue, 01 Nov 2016 18:10:18 +0000</pubDate><guid>https://magicdpd.com/posts/2016-11-01-nemnogo-zanudstva-pro-slau/</guid><description>&lt;p&gt;Немного занудства про СЛАУ
&lt;a href="https://www.youtube.com/watch?v=mg4ewvceBqM" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=mg4ewvceBqM&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;На самом деле, лекция совсем даже не занудная. Просто Джек Донгара (Jack Dongarra), один из титров #HPC, рассказывает от особенностях решения #СЛАУ (система линейных алгебраических уравнений), о библиотеках решения подобных задач и о современных проблемах решения больших задач.
&lt;a href="https://www.youtube.com/watch?v=mg4ewvceBqM" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=mg4ewvceBqM&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=mg4ewvceBqM" target="_blank" rel="noopener noreferrer"&gt;Adaptive Linear Solvers and Eigensolvers | Jack Dongarra, University of Tennessee&lt;/a&gt;&lt;/p&gt;</description></item><item><title>True CFD из Питера!</title><link>https://magicdpd.com/posts/2016-10-29-true-cfd-iz-pitera/</link><pubDate>Sat, 29 Oct 2016 17:00:34 +0000</pubDate><guid>https://magicdpd.com/posts/2016-10-29-true-cfd-iz-pitera/</guid><description>&lt;p&gt;True CFD из Питера!
&lt;a href="http://www.spbstu.ru/media/news/nauka_i_innovatsii/andrey-garbaruk-about-trends-supercomputer-development/" target="_blank" rel="noopener noreferrer"&gt;http://www.spbstu.ru/media/news/nauka_i_innovatsii/andrey-garbaruk-about-trends-supercomputer-development/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;В свое время мне посчастливилось работать в смежной с Андреем Викторовичем Гарабаруком лаборатории, и я до сих пор горжусь знакомством с ним и с питерской лабораторией НТС (#NTS, Numerical Turbulence Simulation) из #СПбГПУ. Мне было очень приятно узнать, что доклад Андрея Викторовича &amp;ldquo;Опыт прямого численного моделирования турбулентности на суперкомпьютерах&amp;rdquo; был признан лучшим на конференции &amp;ldquo;Суперкомпьютерные дни в России&amp;rdquo; (Russian Supercomputing Days). Я был на этом докладе, и могу сказать, что рассказ о прямом моделировании турбулентности (aka #DNS) сделанный без формул и занудства - это что-то! У коллег уже несколько десятилетий разрабатывается свой код - NTS CFD Code - который легко может уделать и #Fluent и #StarCCM. Чего только стоят их 19 000 000 000 (миллиардов) ячеек в модели!&lt;/p&gt;
&lt;p&gt;От души поздравляю Андрея Викторовича и лабораторию NTS!
#cfd #legendpeople #HPC&lt;/p&gt;
&lt;p&gt;Для заинтересованных - тезисы к докладу: &lt;a href="http://russianscdays.org/files/pdf16/357.pdf" target="_blank" rel="noopener noreferrer"&gt;http://russianscdays.org/files/pdf16/357.pdf&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.spbstu.ru/media/news/nauka_i_innovatsii/andrey-garbaruk-about-trends-supercomputer-development/" target="_blank" rel="noopener noreferrer"&gt;Андрей Гарбарук – о трендах развития суперкомпьютерной отрасли&lt;/a&gt;
&lt;a href="http://russianscdays.org/files/pdf16/357.pdf" target="_blank" rel="noopener noreferrer"&gt;http://russianscdays.org/files/pdf16/357.pdf&lt;/a&gt;&lt;/p&gt;</description></item><item><title>HPC от HPE</title><link>https://magicdpd.com/posts/2016-10-21-hpc-ot-hpe/</link><pubDate>Fri, 21 Oct 2016 17:00:37 +0000</pubDate><guid>https://magicdpd.com/posts/2016-10-21-hpc-ot-hpe/</guid><description>&lt;p&gt;HPC от HPE
&lt;a href="https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;У компании #HPE (Hewlett Packard Enterprise), последнего из титанов железного рынка, есть очень полезный документ, описывающий основные правила построения настоящей #HPC системы для расчетов в #ANSYS. Документ находится по ссылке:
&lt;a href="https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;В документе приведены полезные прикидки конфигураций для #CFX, #Fluent и #Mechanical/#APDL, есть информация по #RSM, и все это написано довольно простым языком без воды.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf" target="_blank" rel="noopener noreferrer"&gt;https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf&lt;/a&gt;&lt;/p&gt;</description></item><item><title>GPGPU для Fluent</title><link>https://magicdpd.com/posts/2016-10-07-gpgpu-dlya-fluent/</link><pubDate>Fri, 07 Oct 2016 17:01:09 +0000</pubDate><guid>https://magicdpd.com/posts/2016-10-07-gpgpu-dlya-fluent/</guid><description>&lt;p&gt;GPGPU для Fluent
&lt;a href="https://www.youtube.com/watch?v=9YH9p2KbRls" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=9YH9p2KbRls&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#ANSYS #Fluent был первым #CFD кодом общего назначения, который смог задействовать #GPGPU #NVIDIA #Tesla для ускорения расчетов. Сейчас во Fluent есть много мест, где можно ускориться благодаря таким технологиям. ANSYS подготовил отличную видеоинструкцию по применению и настройке ускорителей под расчет.
#HPC&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=9YH9p2KbRls" target="_blank" rel="noopener noreferrer"&gt;https://www.youtube.com/watch?v=9YH9p2KbRls&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=9YH9p2KbRls" target="_blank" rel="noopener noreferrer"&gt;ANSYS Fluent: Overview of GPU Capabilities&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Несколько слов про доставку инженерной графики</title><link>https://magicdpd.com/posts/2016-09-29-neskolko-slov-pro-dostavku-inzhenernoy-g/</link><pubDate>Thu, 29 Sep 2016 17:00:58 +0000</pubDate><guid>https://magicdpd.com/posts/2016-09-29-neskolko-slov-pro-dostavku-inzhenernoy-g/</guid><description>&lt;p&gt;Несколько слов про доставку инженерной графики
&lt;a href="https://blogs.technet.microsoft.com/enterprisemobility/2016/09/22/new-ms-mechanics-video-with-the-latest-updates-to-rds-for-windows-server-2016/" target="_blank" rel="noopener noreferrer"&gt;https://blogs.technet.microsoft.com/enterprisemobility/2016/09/22/new-ms-mechanics-video-with-the-latest-updates-to-rds-for-windows-server-2016/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#Microsoft продолжает хвастаться новыми возможностями по работе с #GPU, которые она реализует в #Windows #Server 2016. Нас ожидает поддержка нужного #OpenGL 4.4+ как в сценариях с #RDSH, так и при построении #VDI. При этом, в качестве средства доставки будет выступать привычный и понятный #RDP, а видеопоток будет полностью аппаратно кодироваться и декодироваться на GPU сервера и клиента. Аналогичные возможности ожидаются в #Azure #Cloud.&lt;/p&gt;
&lt;p&gt;Неужели скоро все инженеры получат достойные системы доставки инженерной графики практически за так?&lt;/p&gt;
&lt;p&gt;&lt;a href="https://blogs.technet.microsoft.com/enterprisemobility/2016/09/22/new-ms-mechanics-video-with-the-latest-updates-to-rds-for-windows-server-2016/" target="_blank" rel="noopener noreferrer"&gt;New MS Mechanics video with the latest updates to RDS for Windows Server 2016&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Силикон ускоряет ANSYS</title><link>https://magicdpd.com/posts/2016-09-24-silikon-uskoryaet-ansys/</link><pubDate>Sat, 24 Sep 2016 17:00:47 +0000</pubDate><guid>https://magicdpd.com/posts/2016-09-24-silikon-uskoryaet-ansys/</guid><description>&lt;p&gt;Силикон ускоряет ANSYS
&lt;a href="http://www.ansys-blog.com/sgi-ansys-new-world-record-hpc" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys-blog.com/sgi-ansys-new-world-record-hpc&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Очередные заоблачные цифры ускорения расчета #ANSYS #Fluent: 145152 ядер на расчет, решение задачи на 830 миллионов ячеек (химические реакции, турбулентность) за 13 секунд. Да у меня такая задача ни на одном компьютере даже не откроется, да она на самом мощном из доступных мне кластеров минуты 3 будет только с #GPFS читаться!&lt;/p&gt;
&lt;p&gt;Причиной такого ускорения расчетов стала комбинация двух факторов: железо компании #SGI и самая новая версия решателя R17.2. Надеюсь, что SGI, вошедший в состав #HPE будте только больше наращивать темпы!&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.ansys-blog.com/sgi-ansys-new-world-record-hpc/" target="_blank" rel="noopener noreferrer"&gt;SGI and ANSYS Achieve New World Record in HPC&lt;/a&gt;
&lt;a href="http://www.ansys-blog.com/sgi-ansys-new-world-record-hpc" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys-blog.com/sgi-ansys-new-world-record-hpc&lt;/a&gt;&lt;/p&gt;</description></item><item><title>PBS Cloud Manager</title><link>https://magicdpd.com/posts/2016-09-18-pbs-cloud-manager/</link><pubDate>Sun, 18 Sep 2016 17:01:02 +0000</pubDate><guid>https://magicdpd.com/posts/2016-09-18-pbs-cloud-manager/</guid><description>&lt;p&gt;PBS Cloud Manager
&lt;a href="http://web2.altairhyperworks.com/pbs-cloud-manager-webinar" target="_blank" rel="noopener noreferrer"&gt;http://web2.altairhyperworks.com/pbs-cloud-manager-webinar&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Компания #Altair приглашает всех на вебиран по их новому продукту. #PBS #Cloud Manager предназначен для быстрого и эффективного развертывания #HPC систем на базе публичных облаков. Тема очень интересная, и возможно мы увидим становление еще одного игрока на рынке облачного HPC.&lt;/p&gt;
&lt;p&gt;Вебинар состоится 21 сентября&lt;/p&gt;
&lt;p&gt;&lt;a href="http://web2.altairhyperworks.com/pbs-cloud-manager-webinar" target="_blank" rel="noopener noreferrer"&gt;http://web2.altairhyperworks.com/pbs-cloud-manager-webinar&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Централизованное управление GPU вашего датацентра</title><link>https://magicdpd.com/posts/2016-09-01-tsentralizovannoe-upravlenie-gpu-vashego-d/</link><pubDate>Thu, 01 Sep 2016 06:30:07 +0000</pubDate><guid>https://magicdpd.com/posts/2016-09-01-tsentralizovannoe-upravlenie-gpu-vashego-d/</guid><description>&lt;p&gt;Централизованное управление GPU вашего датацентра
&lt;a href="https://devblogs.nvidia.com/parallelforall/nvidia-data-center-gpu-manager-cluster-administration/" target="_blank" rel="noopener noreferrer"&gt;https://devblogs.nvidia.com/parallelforall/nvidia-data-center-gpu-manager-cluster-administration/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#NVIDIA объявила о выходе Data Center GPU Manager (#DCGM) предназанвенного для централизованного мониторинга и управления #GPU и #GPGPU вашего датацентра или кластера (у кого что). ПО имеет интерфейсы к основным игрокам #HPC рынка: Bright Custer Manager (#BCM), #Altair #PBS Works и #IBM Spectrum #LSF и позволяет производить низкоуровневую диагностику аппаратной части, конфигурирование драйверов и прочие низкоуровневые фишки.&lt;/p&gt;
&lt;p&gt;Nvidia DCGM 1.0 Release Candidate доступен для скачивания по регистрации (&lt;a href="https://developer.nvidia.com/data-center-gpu-manager-dcgm-access%29" target="_blank" rel="noopener noreferrer"&gt;https://developer.nvidia.com/data-center-gpu-manager-dcgm-access)&lt;/a&gt;. О том, будет ли данное ПО бесплано, или потребуется приобретение лицензий пока не сообщается, но что-то мне подсказывает, что с учетом последних действий NVIDIA нам всем придется раскошелиться.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://devblogs.nvidia.com/parallelforall/nvidia-data-center-gpu-manager-cluster-administration/" target="_blank" rel="noopener noreferrer"&gt;NVIDIA Data Center GPU Manager Simplifies Cluster Administration&lt;/a&gt;
&lt;a href="https://developer.nvidia.com/data-center-gpu-manager-dcgm-access" target="_blank" rel="noopener noreferrer"&gt;https://developer.nvidia.com/data-center-gpu-manager-dcgm-access&lt;/a&gt;&lt;/p&gt;</description></item><item><title>PyFR для решения прикладных задач CFD</title><link>https://magicdpd.com/posts/2016-08-30-pyfr-dlya-resheniya-prikladnyh-zadach-cfd/</link><pubDate>Tue, 30 Aug 2016 06:30:30 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-30-pyfr-dlya-resheniya-prikladnyh-zadach-cfd/</guid><description>&lt;p&gt;PyFR для решения прикладных задач CFD
&lt;a href="http://phys.org/news/2016-08-industry.html" target="_blank" rel="noopener noreferrer"&gt;http://phys.org/news/2016-08-industry.html&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Я уже как-то писал про #PyFR: #Python-фреймворк с открытым исходным кодом, предназначенный для решения #CFD задачи. Так мне на глаза попался один из недавних примеров его использования, причем сразу на суперкомпьютерах.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://phys.org/news/2016-08-industry.html" target="_blank" rel="noopener noreferrer"&gt;Streamlining accelerated computing for industry&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Cray, LSTC и Rolls-Royce соберутся на одном вебинаре</title><link>https://magicdpd.com/posts/2016-08-28-cray-lstc-i-rolls-royce-soberutsya-na-od/</link><pubDate>Sun, 28 Aug 2016 12:00:44 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-28-cray-lstc-i-rolls-royce-soberutsya-na-od/</guid><description>&lt;p&gt;Cray, LSTC и Rolls-Royce соберутся на одном вебинаре
&lt;a href="http://web.cray.com/CAE_webinar_series_LSTC" target="_blank" rel="noopener noreferrer"&gt;http://web.cray.com/CAE_webinar_series_LSTC&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Компании #Cray, #LSTC и #RollsRoyce 13 сентября проведут совместный вебинар. На вебинаре будут показаны их достижения в области #HPC для расчетов, выполняемых в #LSDYNA&lt;/p&gt;
&lt;p&gt;&lt;a href="http://web.cray.com/CAE_webinar_series_LSTC" target="_blank" rel="noopener noreferrer"&gt;http://web.cray.com/CAE_webinar_series_LSTC&lt;/a&gt;&lt;/p&gt;</description></item><item><title>EDEM 2017</title><link>https://magicdpd.com/posts/2016-08-25-edem-2017/</link><pubDate>Thu, 25 Aug 2016 06:30:13 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-25-edem-2017/</guid><description>&lt;p&gt;EDEM 2017
&lt;del&gt;&lt;a href="http://www.edemsimulation.com/blog/simulate-faster-new-edem-gpu-solver/" target="_blank" rel="noopener noreferrer"&gt;http://www.edemsimulation.com/blog/simulate-faster-new-edem-gpu-solver/&lt;/a&gt;&lt;/del&gt; → &lt;a href="http://web.archive.org/web/20170705034649/https://www.edemsimulation.com/blog/simulate-faster-new-edem-gpu-solver/" target="_blank" rel="noopener noreferrer"&gt;Сохранённая версия&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Оригинальная ссылка больше не доступна&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Август выдался особенно удачный на новые релизы. #EDEM, один из лидирующих пакетов для моделирования сыпучих сред в #DEM постановке, вышел в новом релизе. Основное нововведение EDEM 2017 - это долгожданная поддержка #GPU, которая наконец появилась в след за #Rocky (не прошло и 2-х дет :-)).&lt;/p&gt;
&lt;p&gt;Примечательно, что вместо поддержки #CUDA, разработчики выбрали более универсальный стандарт #OpenCL, что позволит им использовать GPU и математические сопроцессоры не только от #NVIDIA, но и от #AMD и #Intel (#Phi). Обещается ускорение до 10 раз в сравнение с обычными #CPU.&lt;/p&gt;
&lt;p&gt;&lt;del&gt;&lt;a href="http://www.edemsimulation.com/blog/simulate-faster-new-edem-gpu-solver/" target="_blank" rel="noopener noreferrer"&gt;Simulate faster with the new EDEM GPU solver&lt;/a&gt;&lt;/del&gt; → &lt;a href="http://web.archive.org/web/20170705034649/https://www.edemsimulation.com/blog/simulate-faster-new-edem-gpu-solver/" target="_blank" rel="noopener noreferrer"&gt;Сохранённая версия&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Оригинальная ссылка больше не доступна&lt;/em&gt;&lt;/p&gt;</description></item><item><title>Запущена тестовая эксплуатация GPU в Azure</title><link>https://magicdpd.com/posts/2016-08-18-zapuschena-testovaya-ekspluatatsiya-gpu-v-azu/</link><pubDate>Thu, 18 Aug 2016 06:30:46 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-18-zapuschena-testovaya-ekspluatatsiya-gpu-v-azu/</guid><description>&lt;p&gt;Запущена тестовая эксплуатация GPU в Azure
&lt;a href="https://channel9.msdn.com/Shows/Azure-Friday/Leveraging-NVIDIA-GPUs-in-Azure" target="_blank" rel="noopener noreferrer"&gt;https://channel9.msdn.com/Shows/Azure-Friday/Leveraging-NVIDIA-GPUs-in-Azure&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Тестовая демонстрация работы #GPU #NVIDIA инстансов в облаке #Azure началась в зоне South Central US. При этом, как говорят сами MS, они используют технологию прямого проброса устройстви (Discrete Device Assignment, #DDA), заложенную в ожидаемый #Windows #Server 2016 Hyper-V.&lt;/p&gt;
&lt;p&gt;Итак, в облаке Azure теперь есть все для построения виртуального #HPC кластера!&lt;/p&gt;
&lt;p&gt;#cloud #tesla #k80 #m60 #hyperv #teradici&lt;/p&gt;
&lt;p&gt;Небольшое интевью по поводу события от #Channel9
&lt;a href="https://channel9.msdn.com/Shows/Azure-Friday/Leveraging-NVIDIA-GPUs-in-Azure" target="_blank" rel="noopener noreferrer"&gt;https://channel9.msdn.com/Shows/Azure-Friday/Leveraging-NVIDIA-GPUs-in-Azure&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://channel9.msdn.com/Shows/Azure-Friday/Leveraging-NVIDIA-GPUs-in-Azure" target="_blank" rel="noopener noreferrer"&gt;Leveraging NVIDIA GPUs in Azure (Channel 9)&lt;/a&gt;&lt;/p&gt;</description></item><item><title>HPE прикупила себе SGI</title><link>https://magicdpd.com/posts/2016-08-13-hpe-prikupila-sebe-sgi/</link><pubDate>Sat, 13 Aug 2016 06:30:40 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-13-hpe-prikupila-sebe-sgi/</guid><description>&lt;p&gt;HPE прикупила себе SGI
&lt;a href="https://www.hpcwire.com/2016/08/11/hpe-gobbles-sgi-larger-slice-11b-hpc-pie/" target="_blank" rel="noopener noreferrer"&gt;https://www.hpcwire.com/2016/08/11/hpe-gobbles-sgi-larger-slice-11b-hpc-pie/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Компания #HPE (которая Hewlett Packard Enterprise) на днях анонсировала сделку по приобретению легендарной #SGI (которая Silicon Graphics Inc., воспетая Виктором Пелевиным в «Generation „П“»).&lt;/p&gt;
&lt;p&gt;Напомню, что SGI, несмотря на несколько кризисов за время своей жизни, сделала огромный вклад в 3D графику и стандарт #OpenGL. На счету компании также разработка собственного коннекта #NUMAlink, позволяющего сделать из кластера машину с общей памятью на аппаратном уровне и высокопроизводительная файловая система #XFS.&lt;/p&gt;
&lt;p&gt;Мы стали свидетелями конца еще одной легенды мира #HPC.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.hpcwire.com/2016/08/11/hpe-gobbles-sgi-larger-slice-11b-hpc-pie/" target="_blank" rel="noopener noreferrer"&gt;HPE Gobbles SGI for Larger Slice of $11B HPC Pie&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Новый Bright Cluster Manager уже доступен для закачки</title><link>https://magicdpd.com/posts/2016-08-11-novyy-bright-cluster-manager-uzhe-dostupe/</link><pubDate>Thu, 11 Aug 2016 06:30:55 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-11-novyy-bright-cluster-manager-uzhe-dostupe/</guid><description>&lt;p&gt;Новый Bright Cluster Manager уже доступен для закачки
&lt;a href="http://www.brightcomputing.com/blog/the-new-release-of-bright-cluster-manager-is-now-shipping" target="_blank" rel="noopener noreferrer"&gt;http://www.brightcomputing.com/blog/the-new-release-of-bright-cluster-manager-is-now-shipping&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Лидер рынка независимых (от вендоров железа) систем управления #HPC кластерами Bright Cluster Manager (#BCM) от голландской компании Bright Comuting обновился до версии 7.3.&lt;/p&gt;
&lt;p&gt;В новой версии расширена поддержка Amazon Web Services (#AWS) для автоматического разворачивания кластера в облаке, улучшена поддержка технологий контейнеризации #Docker. Еще есть куча всяких улучшений для коллеги, занимающихся #BigData.&lt;/p&gt;
&lt;p&gt;Всем обязательно советую сходить по ссылке и посмотреть небольшой демонстрационный видео ролик о том, как должен выглядеть правильный кластер-менеджер.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.brightcomputing.com/blog/the-new-release-of-bright-cluster-manager-is-now-shipping" target="_blank" rel="noopener noreferrer"&gt;The new release of Bright Cluster Manager is now shipping!&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Молния: открыта очередь на тестирование GPU NVIDIA в облаке AZURE</title><link>https://magicdpd.com/posts/2016-08-05-molniya-otkryta-ochered-na-testirovanie/</link><pubDate>Fri, 05 Aug 2016 12:30:08 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-05-molniya-otkryta-ochered-na-testirovanie/</guid><description>&lt;p&gt;&lt;a href="http://gpu.azure.com/" target="_blank" rel="noopener noreferrer"&gt;http://gpu.azure.com/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Вчера компания #Microsoft выдала очередной анонс запуска #GPU инстансов в #Azure. Примерно год назад компания уже писала о своих планах в блоке, но видимо разработка идет не так гладко, как хотелось бы. Сейчас, вместе с анонсом компания разместила страницу регистрации на тестирование нового продукта. Лично я уже заказал сете на тест машинку с 2-мя #NVIDIA #Tesla #K80, 224 Гб RAM и 1.5 Тб SSD.&lt;/p&gt;
&lt;p&gt;Еще Microsoft говори о партнерстве с компанией #Teradici для использования технологии #PCoIP доставляющей удаленные рабочие столы со сложной графикой. Это немного странно для меня. Во-первых Teradici - это решение заклятого конкурента #VMWare. Во-вторых, где обещанный ранее #DDS и новый #RemoteFX с поддержкой #OpenGL 4+ (заявлено для #Windows #Server 2016)? Неужели MS отказывает использовать свои серверные операционные систем и технологии в своем же облаке?&lt;/p&gt;
&lt;p&gt;#VDI #Cloud #HPC
&lt;a href="https://azure.microsoft.com/en-us/blog/azure-n-series-preview-availability/" target="_blank" rel="noopener noreferrer"&gt;https://azure.microsoft.com/en-us/blog/azure-n-series-preview-availability/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://gpu.azure.com/" target="_blank" rel="noopener noreferrer"&gt;Virtual machine sizes overview - Azure Virtual Machines&lt;/a&gt;
&lt;a href="http://gpu.azure.com/" target="_blank" rel="noopener noreferrer"&gt;http://gpu.azure.com/&lt;/a&gt;
&lt;a href="https://azure.microsoft.com/en-us/blog/azure-n-series-preview-availability/" target="_blank" rel="noopener noreferrer"&gt;https://azure.microsoft.com/en-us/blog/azure-n-series-preview-availability/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#CFD расчета для спорта</title><link>https://magicdpd.com/posts/2016-08-03-cfd-rascheta-dlya-sporta/</link><pubDate>Wed, 03 Aug 2016 06:30:19 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-03-cfd-rascheta-dlya-sporta/</guid><description>&lt;p&gt;#CFD расчета для спорта&lt;/p&gt;
&lt;p&gt;Команда Land Rover BAR рассказывает о том как CFD расчеты помогают им в совершенствовании скоростного спортивного катамарана на подводных крыльях. Для своих расчетов они используют #StarCCM+ и все стандартные фишки #CAE для подобных задач: параметризация, вложенные сетки, #HPC.&lt;/p&gt;
&lt;p&gt;Мне показалось очень странным, что для удаленной работы на кластере они используют #TurboVNC (а значит еще и #VirtualGL). По моим замерам в случае StarCCM удаленная визуализация VirtualGL уступает по производительности #NICE #DCV разва в 3.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=ygg3NQGZWUU" target="_blank" rel="noopener noreferrer"&gt;Land Rover BAR, CD-adapco and Auld Mug&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Учим новые слова:#HPI</title><link>https://magicdpd.com/posts/2016-08-02-uchim-novye-slovahpi/</link><pubDate>Tue, 02 Aug 2016 06:30:49 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-02-uchim-novye-slovahpi/</guid><description>&lt;p&gt;Учим новые слова:#HPI
&lt;a href="http://www.nextplatform.com/2016/07/14/ranking-high-performance-interconnects/amp/" target="_blank" rel="noopener noreferrer"&gt;http://www.nextplatform.com/2016/07/14/ranking-high-performance-interconnects/amp/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Прочитал легкий ликбез на тему интерконнекта для #HPC расчетов. Если вы действительно хотите HPC систему, а не Эн-Эр-Эс, то вам тоже стоит узнать об различиях работы таких High Performance Interconnect (HPI) как:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Mellanox Infiniband&lt;/li&gt;
&lt;li&gt;Intel Omni-Path&lt;/li&gt;
&lt;li&gt;Cray “Aries” XC&lt;/li&gt;
&lt;li&gt;SGI’s NUMALink.&lt;/li&gt;
&lt;li&gt;Ethernet (ну это уже совсем не HPI)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;a href="http://www.nextplatform.com/2016/07/14/ranking-high-performance-interconnects/amp/" target="_blank" rel="noopener noreferrer"&gt;http://www.nextplatform.com/2016/07/14/ranking-high-performance-interconnects/amp/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nextplatform.com/2016/07/14/ranking-high-performance-interconnects/amp/" target="_blank" rel="noopener noreferrer"&gt;http://www.nextplatform.com/2016/07/14/ranking-high-performance-interconnects/amp/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Полноценное #HPC в облаке</title><link>https://magicdpd.com/posts/2016-08-01-polnotsennoe-hpc-v-oblake/</link><pubDate>Mon, 01 Aug 2016 07:03:57 +0000</pubDate><guid>https://magicdpd.com/posts/2016-08-01-polnotsennoe-hpc-v-oblake/</guid><description>&lt;p&gt;Полноценное #HPC в облаке
&lt;a href="http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/12777/ANSYS-CFD-Sees-Scalability-to-1024-Cores-on-Microsoft-Azure.aspx" target="_blank" rel="noopener noreferrer"&gt;http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/12777/ANSYS-CFD-Sees-Scalability-to-1024-Cores-on-Microsoft-Azure.aspx&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Инфоповод по сообщению во множестве блогов: #ANSYS #CFD распараллелился почти линейно на 1024 ядра в облаке #Azure. Новость эта несет в себе сразу две морали.&lt;/p&gt;
&lt;p&gt;Первая мораль: ANSYS начинает рассматривать Azure как дополнение к #AWS - и это очень хорошо. Конкуренция облаков - это всегда хорошо для пользователя.&lt;/p&gt;
&lt;p&gt;Вторая мораль: если дать CFD коду нормальный интерконнект, то он полетит даже в облаке. Как я уже много раз говорил, у Microsoft в Azure есть полноценный #Infiniband с поддержкой #RDMA. Infiniband = HPC, а значит можно очень хорошо посчитать.&lt;/p&gt;
&lt;p&gt;А еще я очень жду, когда же у AWS тоже будет интреконнект.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/12777/ANSYS-CFD-Sees-Scalability-to-1024-Cores-on-Microsoft-Azure.aspx" target="_blank" rel="noopener noreferrer"&gt;ANSYS CFD Sees Scalability to 1024 Cores on Microsoft Azure&lt;/a&gt;
&lt;a href="http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/12777/ANSYS-CFD-Sees-Scalability-to-1024-Cores-on-Microsoft-Azure.aspx" target="_blank" rel="noopener noreferrer"&gt;http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/12777/ANSYS-CFD-Sees-Scalability-to-1024-Cores-on-Microsoft-Azure.aspx&lt;/a&gt;&lt;/p&gt;</description></item><item><title>В рамках рублрики #legendpeople отличная статья на #GeekTimes про великого Сеймура Крея. Он дал свое имя компьютерам #CARY и, посути, начал делать настоящее #HPC в эпоху, когда и компьютеров-то не было!</title><link>https://magicdpd.com/posts/2016-07-29-v-ramkah-rublriki-legendpeople-otlichnaya/</link><pubDate>Fri, 29 Jul 2016 06:30:04 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-29-v-ramkah-rublriki-legendpeople-otlichnaya/</guid><description>&lt;p&gt;&lt;a href="http://lnk.al/1WYf" target="_blank" rel="noopener noreferrer"&gt;http://lnk.al/1WYf&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://lnk.al/1WYf" target="_blank" rel="noopener noreferrer"&gt;Сеймур Крей и его машины&lt;/a&gt;&lt;/p&gt;</description></item><item><title>AMD Radeon Pro SSG - графическая карта с 1TB SSD</title><link>https://magicdpd.com/posts/2016-07-28-amd-radeon-pro-ssg-graficheskaya-karta-s/</link><pubDate>Thu, 28 Jul 2016 20:44:57 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-28-amd-radeon-pro-ssg-graficheskaya-karta-s/</guid><description>&lt;p&gt;AMD Radeon Pro SSG - графическая карта с 1TB SSD
&lt;a href="https://semiaccurate.com/2016/07/25/amd-puts-massive-ssds-gpus-calls-ssg/?sf31777054=1" target="_blank" rel="noopener noreferrer"&gt;https://semiaccurate.com/2016/07/25/amd-puts-massive-ssds-gpus-calls-ssg/?sf31777054=1&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;#AMD анонсировала новую топовую профессиональную видеокарту. Ее изюминка - наличие сразу двух разъемов для M.2 для установки #SSD в качестве дополнительного буфера хранения обрабатываемой информации. И это на случай, если вам не хватит 32 Гб памяти, что и так есть на борту этого #GPU. Жаль, что GPU от AMD практически не поддерживаются #CAE софтом.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://semiaccurate.com/2016/07/25/amd-puts-massive-ssds-gpus-calls-ssg/?sf31777054=1" target="_blank" rel="noopener noreferrer"&gt;AMD puts massive SSDs on GPUs and calls it SSG - SemiAccurate&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Готовая инстукция по запуску #OpenFOAM на мощностях #Amazon Web Services (aka #AWS).</title><link>https://magicdpd.com/posts/2016-07-28-gotovaya-instuktsiya-po-zapusku-openfoam-n/</link><pubDate>Thu, 28 Jul 2016 06:30:04 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-28-gotovaya-instuktsiya-po-zapusku-openfoam-n/</guid><description>&lt;p&gt;Делаем все по шагам и получаем #CFD в облаке.&lt;/p&gt;
&lt;p&gt;#HPC #Cloud
&lt;a href="http://lnk.al/1WXy" target="_blank" rel="noopener noreferrer"&gt;http://lnk.al/1WXy&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://lnk.al/1WXy" target="_blank" rel="noopener noreferrer"&gt;CFD Direct From the Cloud: OpenFOAM Computing on AWS&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Совсем недавно #NIMBIX (один из самых крутых владельцев облачных ресурсво для численного моделирования физических процессов) объявил, что в их облаке со знакомым все фанатам Железного человека названием #JARVICE повился #MATLAB.</title><link>https://magicdpd.com/posts/2016-07-24-sovsem-nedavno-nimbix-odin-iz-samyh-kr/</link><pubDate>Sun, 24 Jul 2016 13:00:03 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-24-sovsem-nedavno-nimbix-odin-iz-samyh-kr/</guid><description>&lt;p&gt;Теперь по запросу можно использовать его на всей предоставляемой мощи, включая #GPU.
#HPC #Cloud
&lt;a href="http://lnk.al/1U4g" target="_blank" rel="noopener noreferrer"&gt;http://lnk.al/1U4g&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://lnk.al/1U4g" target="_blank" rel="noopener noreferrer"&gt;MATLAB is now available on demand on JARVICE!&lt;/a&gt;&lt;/p&gt;</description></item><item><title>На прошедшей в Германии #HPC конференции #NVIDIA выкатила свою новую числодробилку.</title><link>https://magicdpd.com/posts/2016-07-04-na-proshedshey-v-germanii-hpc-konferentsii/</link><pubDate>Mon, 04 Jul 2016 06:30:56 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-04-na-proshedshey-v-germanii-hpc-konferentsii/</guid><description>&lt;p&gt;На смену двухчиповой #K80 приходит #P100. А для полной неразберихи еще есть #Tesla M60 которая конечно имеет бренд Теслы, но предназначена для #VDI, так как вычислитель из нее совсем никакой (ядро #Maxwell имеет очень низкую производительность в операциях с двойной точностью)&lt;/p&gt;
&lt;p&gt;Приведу характеристики для наглядности
K80: 24Gb RAM, 2912 GFLOPS (двойная точность)
M60: 16Gb RAM,   302 GFLOPS (двойная точность)
P100: 16Gb RAM, 4700 GFLOPS (двойная точность)&lt;/p&gt;
&lt;p&gt;Как можно видеть, новинка получилась на 60% мощнее в теории, но вот памяти для расчетов пожалели. А мы ждем первые тестовые экземпляра для проверки быстродействия в наших #CAE задачах. &lt;a href="http://www.nvidia.ru/object/tesla-p100-pcie-20160620-ru.html" target="_blank" rel="noopener noreferrer"&gt;http://www.nvidia.ru/object/tesla-p100-pcie-20160620-ru.html&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nvidia.ru/object/tesla-p100-pcie-20160620-ru.html" target="_blank" rel="noopener noreferrer"&gt;NVIDIA Tesla P100 ускоряет HPC приложения более чем в 30 раз |NVIDIA&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Когда вы увидите данное сообщение пойдет вторая минута второго года работы канала Magic Driven Product Development.</title><link>https://magicdpd.com/posts/2016-07-03-kogda-vy-uvidite-dannoe-soobschenie-poydet/</link><pubDate>Sun, 03 Jul 2016 11:55:08 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-03-kogda-vy-uvidite-dannoe-soobschenie-poydet/</guid><description>&lt;p&gt;Знала посвящен обзору волшебных технологий движущих #CAD, #CAE и #HPC. За год, что прошел, было публиковано 700+ постов, а число подписчиков перевалило за 270 человек. В конце первого года удалось запустить параллельные ветки сообщества во всех основных социальных сетях: Вконтакте, Facebook и Twitter.&lt;/p&gt;
&lt;p&gt;Я очень благодарен всем, кто терпит мои бесконечные опечатки и ошибки - по русскому у меня всегда была тройка, и я не уверен, что мне по карману найм штатного редактора :-)&lt;/p&gt;
&lt;p&gt;Год спустя я понимаю, что для проекта Magic Driven Product Development все только начинается!&lt;/p&gt;</description></item><item><title>Компания #Rescale - #HPC облако для #CAE смогла привлечь $14 000 000 долларов инвестиций для своего дальнейшего развития.</title><link>https://magicdpd.com/posts/2016-07-02-kompaniya-rescale-hpc-oblako-dlya-cae/</link><pubDate>Sat, 02 Jul 2016 08:04:22 +0000</pubDate><guid>https://magicdpd.com/posts/2016-07-02-kompaniya-rescale-hpc-oblako-dlya-cae/</guid><description>&lt;p&gt;Если посмотреть на список партнеров компании в области CAE, то все сразу становится понятно - там есть практически все разработчики научного и прикладного ПО для численного моделирования. &lt;a href="http://oraresearch.com/2016/06/latest-signal-for-cloud-hpcs-role-in-caes-future-rescale-14-million-funding-round/" target="_blank" rel="noopener noreferrer"&gt;http://oraresearch.com/2016/06/latest-signal-for-cloud-hpcs-role-in-caes-future-rescale-14-million-funding-round/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://oraresearch.com/2016/06/latest-signal-for-cloud-hpcs-role-in-caes-future-rescale-14-million-funding-round/" target="_blank" rel="noopener noreferrer"&gt;http://oraresearch.com/2016/06/latest-signal-for-cloud-hpcs-role-in-caes-future-rescale-14-million-funding-round/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Компания #Calyos показала безжидкостные системы охлаждения на проходящей #HPC выставке #ISC 2016. Тепловые трубки и грамотное размножение радиаторов позволяет компании не только обходиться без воды в серверах, но и собирать рабочие станции с полностью пассивным охлаждениям, т.е. вообще безумные и без подвижных частей!</title><link>https://magicdpd.com/posts/2016-06-28-kompaniya-calyos-pokazala-bezzhidkostnye/</link><pubDate>Tue, 28 Jun 2016 11:02:04 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-28-kompaniya-calyos-pokazala-bezzhidkostnye/</guid><description>&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=cNqQe8EKDNs" target="_blank" rel="noopener noreferrer"&gt;Calyos Demonstrates Water Free Cooling at ISC 2016&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Нам надо больше бесплатной топологической оптимизации!</title><link>https://magicdpd.com/posts/2016-06-22-nam-nado-bolshe-besplatnoy-topologichesko/</link><pubDate>Wed, 22 Jun 2016 12:02:28 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-22-nam-nado-bolshe-besplatnoy-topologichesko/</guid><description>&lt;p&gt;!!&lt;/p&gt;
&lt;p&gt;Компания Virtual.PYXIS совместно с #ESSS выкатила бесплатное #ACT для #topology #optimization прямо в #ANSYS ACT Applications Store! На первый взгляд, данное расширение сдано несколько более качественно чем родное расширение от ANSYS, оно лучше выводит статистику по процессу оптимизации, позволяет задавать веса условиям нагружения. И да, чуть не забыл, у него есть возможность использовать #HPC в отличие от родного ACT - процесс оптимизации требует раз 10 - 20 прогнать решение вашей задачи, так что оперативной ресурсы потребуются.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/channel/UC7bw4WFjofGiPig50xuE-BA/featured" target="_blank" rel="noopener noreferrer"&gt;Virtual.PYXIS&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Свершилось!</title><link>https://magicdpd.com/posts/2016-06-22-svershilos-vchera-stala-dostupna-otkryta/</link><pubDate>Wed, 22 Jun 2016 11:02:13 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-22-svershilos-vchera-stala-dostupna-otkryta/</guid><description>&lt;p&gt;Вчера стала доступна открытая версия #Altair #PBS Pro. Вместе с открытием исходных текстов стала доступна и бесплатная версия. Все идем на &lt;a href="https://www.pbspro.org" target="_blank" rel="noopener noreferrer"&gt;www.pbspro.org&lt;/a&gt; за #HPC.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://innovationintelligence.com/open-source-licensing-altairs-pbs-professional-now-available/" target="_blank" rel="noopener noreferrer"&gt;Open Source Licensing for Altair&amp;rsquo;s PBS Professional Now Available! - Altair Innovation Intelligence&lt;/a&gt;&lt;/p&gt;</description></item><item><title>"А неведома зверушка"</title><link>https://magicdpd.com/posts/2016-06-21-a-nevedoma-zverushka/</link><pubDate>Tue, 21 Jun 2016 10:58:31 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-21-a-nevedoma-zverushka/</guid><description>&lt;p&gt;&amp;ldquo;А неведома зверушка&amp;rdquo;
Китайцы опять возглавили #TOP500 суперкомпьютеров по версии #HPL (High Perfomance #LINPACK). На этот раз это своя ОС и свои 260 ядерные #RISC процессоры. Вот как надо делать #HPC.&lt;/p&gt;
&lt;p&gt;P.S. Интересно, смогу ли специалистов смогут перебрать свой код под такую экзотическую архитектуру?!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://geektimes.ru/post/277478/" target="_blank" rel="noopener noreferrer"&gt;Опубликован рейтинг суперкомпьютеров Top500 на июнь 2016 года, Китай представил 100 ПФлопс суперкомпьютер&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Большой вебинар по работе #XFlow в облаке #Rescale.</title><link>https://magicdpd.com/posts/2016-06-19-bolshoy-vebinar-po-rabote-xflow-v-oblak/</link><pubDate>Sun, 19 Jun 2016 07:20:11 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-19-bolshoy-vebinar-po-rabote-xflow-v-oblak/</guid><description>&lt;p&gt;Рассказывают о масштабируемости #CFD кода и показывают полный рабочий процесс при расчете модели в облаке.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=ceYK8Oo30pI" target="_blank" rel="noopener noreferrer"&gt;Accelerate XFlow Analysis on Rescale&amp;rsquo;s Cloud Simulation Platform&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Не очень отечественный #CFD код #FlowVision пересобрали для процессоров отечественных #Эльбрус разработанных #МЦСТ. Отечественное #HPC однако!</title><link>https://magicdpd.com/posts/2016-06-18-ne-ochen-otechestvennyy-cfd-kod-flowvis/</link><pubDate>Sat, 18 Jun 2016 07:00:29 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-18-ne-ochen-otechestvennyy-cfd-kod-flowvis/</guid><description>&lt;p&gt;&lt;a href="http://www.cnews.ru/news/top/2016-06-10_na_protsessorah_elbrus_poyavilas_pervaya_sistema" target="_blank" rel="noopener noreferrer"&gt;На процессорах «Эльбрус» появилась первая система для инженерных расчетов&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#Altair сказал - Altair сделал.</title><link>https://magicdpd.com/posts/2016-06-16-altair-skazal-altair-sdelal-na-sayte/</link><pubDate>Thu, 16 Jun 2016 07:00:06 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-16-altair-skazal-altair-sdelal-na-sayte/</guid><description>&lt;p&gt;На сайте появилась информация о том, что в середине 2016 года будут открыты коды #PBS Pro, и каждый желающий сможет собрать себе этот Workload Manager бесплатно.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.pbsworks.com/opensource/" target="_blank" rel="noopener noreferrer"&gt;PBS Professional Open Source&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Что лучше: переохлажденные или недоохлажденные #HPC сервера?</title><link>https://magicdpd.com/posts/2016-06-14-chto-luchshe-pereohlazhdennye-ili-nedoohlazh/</link><pubDate>Tue, 14 Jun 2016 12:02:47 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-14-chto-luchshe-pereohlazhdennye-ili-nedoohlazh/</guid><description>&lt;p&gt;Что лучше: переохлажденные или недоохлажденные #HPC сервера?&lt;/p&gt;</description></item><item><title>С удивлением для себя узнал, что у #Platform #LSF (Load Sharing Facility) принадлежащего компании #IBM теперь есть бесплатная версия выходящая под брендом IBM #Spectrum LSF #Community Edition.</title><link>https://magicdpd.com/posts/2016-06-12-s-udivleniem-dlya-sebya-uznal-chto-u-plat/</link><pubDate>Sun, 12 Jun 2016 07:00:45 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-12-s-udivleniem-dlya-sebya-uznal-chto-u-plat/</guid><description>&lt;p&gt;Ограничения есть, но они не такие критичные, как может показаться.&lt;/p&gt;
&lt;p&gt;IBM бесплатно предоставляет данную версию HPC Clustre Meanager + Workload Manage + Platfrom MPI + Web UI которая может использоваться на кластерах с 10 узлами. Система способна управлять 1000 заданий!&lt;/p&gt;
&lt;p&gt;Между прочим 20 узлов - это от 256 до 1024 ядер процессоров в зависимости от архитектуры узлов!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.ibm.com/developerworks/servicemanagement/sdi/spectrum-lsf/downloads.html" target="_blank" rel="noopener noreferrer"&gt;Service Management Connect - IBM Spectrum LSF Product Family - Downloads&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Это не хентай - это презентация #ANSYS #Enterprise #Cloud на японском!</title><link>https://magicdpd.com/posts/2016-06-09-eto-ne-hentay-eto-prezentatsiya-ansys/</link><pubDate>Thu, 09 Jun 2016 08:38:51 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-09-eto-ne-hentay-eto-prezentatsiya-ansys/</guid><description>&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=yR9Vplo9Ukk" target="_blank" rel="noopener noreferrer"&gt;ANSYS Enterprise Cloud デモ&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Сегодня в Питере провели небольшой семинар на пол дня по #ANSYS 17. Небольшого семинара не получилось: зарегистрировалось под 200 человек, пришло более 150 человек. Несколько раз менять планировку залов, что бы вместить всех желающих. Свободные места для опоздавших находились с трудом (см фото с доказательствами)!</title><link>https://magicdpd.com/posts/2016-06-02-segodnya-v-pitere-proveli-nebolshoy-semin/</link><pubDate>Thu, 02 Jun 2016 13:58:36 +0000</pubDate><guid>https://magicdpd.com/posts/2016-06-02-segodnya-v-pitere-proveli-nebolshoy-semin/</guid><description>&lt;p&gt;11 докладов по #Mechanical, #Explicit, #CFX, #Fluent, #DesignXplorer, #SpaceClaim, #HPC, #RBD, #ACP, #ACCS и конечно же #AIM!&lt;/p&gt;
&lt;p&gt;А еще состоялся анонс проекта под рабочим названием #CADFEM #Haze!&lt;/p&gt;</description></item><item><title>Хотите начать немного разбираться в #HPC и быть в курсе современных разработок?</title><link>https://magicdpd.com/posts/2016-05-25-hotite-nachat-nemnogo-razbiratsya-v-hpc/</link><pubDate>Wed, 25 May 2016 07:00:12 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-25-hotite-nachat-nemnogo-razbiratsya-v-hpc/</guid><description>&lt;p&gt;Мои друзья из #BCM или Bright Computing разместили у себя обзор лучших HPC блогов.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.brightcomputing.com/blog/bid/193564/8-best-hpc-blogs-to-follow" target="_blank" rel="noopener noreferrer"&gt;8 Best HPC Blogs To Follow&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Еще только на прошлой неделе #NVIDIA #Tesla на процессорах #Maxwell приехали в Россию, а за рубежом #IBM стала первым облачным провайдером, у которого уже есть эти #GPGPU. #SoftLayer рулит!</title><link>https://magicdpd.com/posts/2016-05-23-esche-tolko-na-proshloy-nedele-nvidia-te/</link><pubDate>Mon, 23 May 2016 11:00:24 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-23-esche-tolko-na-proshloy-nedele-nvidia-te/</guid><description>&lt;p&gt;&lt;a href="http://insidehpc.com/2016/05/ibm-cloud-first-to-offer-latest-nvidia-grid-with-tesla-m60-gpu-speeding-up-virtual-desktop-applications/" target="_blank" rel="noopener noreferrer"&gt;Nvidia M60 GPU to Speed Virtual Desktops on IBM Cloud&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Я как-то умудрился пропустить облачный сервис для #CAE расчетов от команды #Fidesys.</title><link>https://magicdpd.com/posts/2016-05-23-ya-kak-to-umudrilsya-propustit-oblachnyy-s/</link><pubDate>Mon, 23 May 2016 07:00:27 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-23-ya-kak-to-umudrilsya-propustit-oblachnyy-s/</guid><description>&lt;p&gt;Однако теперь вижу, что он есть, и, судя по скриншотам, он даже не страшный. Проект называется #SimForDesign&lt;/p&gt;
&lt;p&gt;Первый отечественный настоящий #cloud!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.sim4design.com/en/index" target="_blank" rel="noopener noreferrer"&gt;Sim Streamlined For Design: structural simulation and analysis in the cloud&lt;/a&gt;&lt;/p&gt;</description></item><item><title>19 мая #ANSYS объявил о своей новой технологии ANSYS #SeaScape (http://www.ansys.com/Products/Semiconductors/ANSYS-SeaScape) для работы с большими данными (ака #BigData).</title><link>https://magicdpd.com/posts/2016-05-21-19-maya-ansys-obyavil-o-svoey-novoy-tehn/</link><pubDate>Sat, 21 May 2016 17:02:18 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-21-19-maya-ansys-obyavil-o-svoey-novoy-tehn/</guid><description>&lt;p&gt;Первым продуктом на базе данной технологии становиться ANSYS #SeaHawk (&lt;a href="http://www.ansys.com/products/semiconductors/ansys-seahawk" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys.com/products/semiconductors/ansys-seahawk&lt;/a&gt;) предназначенный для проектирования микрочипов. Из пресс-релизов удалось выяснить, что софт оптимизирован под Intel #MIC Xeon #Phi.&lt;/p&gt;
&lt;p&gt;Пока во всех новостях по данной теме больше маркетинговых buzzword&amp;rsquo;ов и чепухи, чем сути. Будем следить за развитием событий.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/12177/Big-Data-Analytics-Comes-to-ANSYS-Simulation-Technology.aspx" target="_blank" rel="noopener noreferrer"&gt;Big Data Analytics Comes to ANSYS&amp;rsquo; Simulation Technology &amp;gt; ENGINEERING.com&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Новость по железу: #NVIDIA начинает массово выкатывать на рынок новые профессиональные решения на базе #Maxwell.</title><link>https://magicdpd.com/posts/2016-05-19-novost-po-zhelezu-nvidia-nachinaet-mass/</link><pubDate>Thu, 19 May 2016 07:00:53 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-19-novost-po-zhelezu-nvidia-nachinaet-mass/</guid><description>&lt;p&gt;Теперь у них есть #Tesla M60/M6 которая может быть как визуализатором, так и числодробилкой - это хорошо. Однако, теперь для использования #vGPU требуется приобретать лицензии от NVIDIA - это не хорошо. Подробно о новой технологии хорошо написано в блоке Poppelgaard. Вчера мои друзья уже получили первый экземпляр Tesla M60. Скоро можно будет узнать подробности.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.poppelgaard.com/nvidia-grid-2-0" target="_blank" rel="noopener noreferrer"&gt;Poppelgaard – blog about Remote Graphics (Citrix, VMware, Microsoft) » NVIDIA GRID 2.0&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Вот так, в одном проекте удалось совместить все лучшие практики #HPC: тут и #infiniband, и #tesla для ускорения расчетов, и #SSD для локального кэширования данных. На системное ПО тоже не поскупились: #Altair #PBS Pro, #NICE #DCV и #EnginFrame, #HP #CMU. Вот такой вот best practice вживую!</title><link>https://magicdpd.com/posts/2016-05-18-vot-tak-v-odnom-proekte-udalos-sovmest/</link><pubDate>Wed, 18 May 2016 07:03:34 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-18-vot-tak-v-odnom-proekte-udalos-sovmest/</guid><description>&lt;p&gt;Мы это сделали!&lt;/p&gt;
&lt;p&gt;&lt;a href="http://multiphysics.ru/stati/proekty/proektirovanie-vychislitelnogo-klastera-bgtu-voenmekh-im-d-f-ustinova.htm" target="_blank" rel="noopener noreferrer"&gt;Проектирование вычислительного кластера БГТУ «ВОЕНМЕХ» им. Д.Ф.Устинова | Инженерные расчеты&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Интересные новости происходят между праздниками. Команда #Altair #PBS Pro открывает исходные коды своего планировщика в рамках инициативы #OpenHPC. Итак, один из самых зубастых менеджеров очереди задач кластера разработанных когда-то в NASA c 14-ой версии станет open sourse!</title><link>https://magicdpd.com/posts/2016-05-05-interesnye-novosti-proishodyat-mezhdu-praz/</link><pubDate>Thu, 05 May 2016 11:08:16 +0000</pubDate><guid>https://magicdpd.com/posts/2016-05-05-interesnye-novosti-proishodyat-mezhdu-praz/</guid><description>&lt;p&gt;&lt;a href="http://insidehpc.com/2016/05/an-open-letter-to-the-hpc-community/" target="_blank" rel="noopener noreferrer"&gt;An Open Letter to the HPC Community&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Нашел на просторах интернета хорошую статью про программное обеспечения для создания #vSMP систем на базе #HPC кластеров.</title><link>https://magicdpd.com/posts/2016-04-12-nashel-na-prostorah-interneta-horoshuyu-sta/</link><pubDate>Tue, 12 Apr 2016 07:21:34 +0000</pubDate><guid>https://magicdpd.com/posts/2016-04-12-nashel-na-prostorah-interneta-horoshuyu-sta/</guid><description>&lt;p&gt;Про #ScaleMP я знал давно, а вот про #3Leaf Systems и #RNA Networks узнал впервые. Будем и дальше самообучаться.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.osp.ru/os/2010/04/13002410/" target="_blank" rel="noopener noreferrer"&gt;Обратная виртуализация - № 04, 2010 | Открытые системы | Издательство «Открытые системы»&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Мои знакомые #IMMERS делают погружные #HPC кластеры - выглядит очень жестоко, когда систему заливают "водой".</title><link>https://magicdpd.com/posts/2016-04-07-moi-znakomye-immers-delayut-pogruzhnye-h/</link><pubDate>Thu, 07 Apr 2016 13:17:49 +0000</pubDate><guid>https://magicdpd.com/posts/2016-04-07-moi-znakomye-immers-delayut-pogruzhnye-h/</guid><description>&lt;p&gt;За качество не отвечаю, ибо зам я такие системы не тестировал.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=vprpGaRgmfg" target="_blank" rel="noopener noreferrer"&gt;Immers selects Mellanox&lt;/a&gt;&lt;/p&gt;</description></item><item><title>С удовольствием нашел родной #Политех (#СПбГПУ) на третьей строчке #TOP50 рейтинга суперкомпьютеров России.</title><link>https://magicdpd.com/posts/2016-04-06-s-udovolstviem-nashel-rodnoy-politeh/</link><pubDate>Wed, 06 Apr 2016 07:00:51 +0000</pubDate><guid>https://magicdpd.com/posts/2016-04-06-s-udovolstviem-nashel-rodnoy-politeh/</guid><description>&lt;p&gt;&lt;a href="http://top50.supercomputers.ru/?page=rating" target="_blank" rel="noopener noreferrer"&gt;TOP 50 | Суперкомпьютеры&lt;/a&gt;&lt;/p&gt;</description></item><item><title>От читателей: подробный разбор #HPC возможностей математического сопроцессора Intel Xeon Phi.</title><link>https://magicdpd.com/posts/2016-04-05-ot-chitateley-podrobnyy-razbor-hpc-vozm/</link><pubDate>Tue, 05 Apr 2016 07:00:24 +0000</pubDate><guid>https://magicdpd.com/posts/2016-04-05-ot-chitateley-podrobnyy-razbor-hpc-vozm/</guid><description>&lt;p&gt;Жаль, что я не люблю LINPAC, так как он ничего о реальной производительности не говорит.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.team.ru/lab/xeon_phi_test.shtml" target="_blank" rel="noopener noreferrer"&gt;Тестирование производительности вычислительного модуля Intel Xeon Phi | Тим Компьютерс&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#HPC в подвале</title><link>https://magicdpd.com/posts/2016-04-03-hpc-v-podvale/</link><pubDate>Sun, 03 Apr 2016 13:21:46 +0000</pubDate><guid>https://magicdpd.com/posts/2016-04-03-hpc-v-podvale/</guid><description>&lt;p&gt;#HPC в подвале&lt;/p&gt;</description></item><item><title>ANSYS успел до 1 апреля анонсировать свой принципиально новый тип лицензирования - #ANSYS #Elastic #Licensing.</title><link>https://magicdpd.com/posts/2016-03-31-ansys-uspel-do-1-aprelya-anonsirovat-svo/</link><pubDate>Thu, 31 Mar 2016 18:01:46 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-31-ansys-uspel-do-1-aprelya-anonsirovat-svo/</guid><description>&lt;p&gt;Эластичные лицензии работают так: вы приобретаете мешок жетончиков и далее можете тратить его по вашему усмотрению на любое ПО ANSYS. Тут и препосты, и #HPC, и решатели любой физики, но все они стоят разное количество жетончиков. Главное правильно распределить ваш мешок 😊&lt;/p&gt;
&lt;p&gt;Сегодня такой тип лицензирования стал доступен для для основных облачных партнеров ANSYS:Bull Atos Technologies, CPU 24/7, Gompute, Nimbix и Penguin Computing. Есть шанс, что в версии 17.1 такой тип лицензирования станет доступен всем.&lt;/p&gt;
&lt;p&gt;За подробностями регестрируйтесь на бесплатные вебинары 14 апреля (по ссылке в конце поста блога).&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.ansys-blog.com/pay-per-use-licensing-cloud-computing-2/" target="_blank" rel="noopener noreferrer"&gt;Pay-Per-Use Licensing for Cloud Computing&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как правильно приготовить #HPC кластер для #LSDYNA и что влияет на скорость расчета. 40-ка минутный доклад "Best Practices: Applications Performance Optimizations" от HPC Advisory Council в рамках HPC Advisory Council Switzerland Conference 2016.</title><link>https://magicdpd.com/posts/2016-03-29-kak-pravilno-prigotovit-hpc-klaster-d/</link><pubDate>Tue, 29 Mar 2016 07:00:57 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-29-kak-pravilno-prigotovit-hpc-klaster-d/</guid><description>&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=rDAnbam6VPQ" target="_blank" rel="noopener noreferrer"&gt;Best Practices: Applications Performance Optimizations&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#HPC Advisory Council Best Practices - это архив данных по масштабируемости более 140 вычислительных кодов!</title><link>https://magicdpd.com/posts/2016-03-26-hpc-advisory-council-best-practices-e/</link><pubDate>Sat, 26 Mar 2016 07:00:39 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-26-hpc-advisory-council-best-practices-e/</guid><description>&lt;p&gt;Отчеты об оптимизации и построении правильных кластеров от признанных экспертов своего дела.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.hpcadvisorycouncil.com/best_practices.php" target="_blank" rel="noopener noreferrer"&gt;HPC Advisory Council - Best Practices&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Встречаем Akselos - программное обеспечения для решения задач механики деформируемого твердого тела при помощи метода конечных элементов с приведенным базисом (Reduced Basis Finite Element Method, RB-FEM).</title><link>https://magicdpd.com/posts/2016-03-20-vstrechaem-akselos-programmnoe-obespeche/</link><pubDate>Sun, 20 Mar 2016 07:00:54 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-20-vstrechaem-akselos-programmnoe-obespeche/</guid><description>&lt;p&gt;RB-FEM - это основная фишка решателя, эксклюзивно разработанная в #MIT. Она позволяет, по заявлениям разработчиков, сократить время расчета в тысячи раз по сравнению с классическими методом конечных элементов. Кроме того, становится возможным без проблем решать задачи с размерностью более 100 MDOF.&lt;/p&gt;
&lt;p&gt;Еще фишки ПО:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;работа с неподготовленной геометрией&lt;/li&gt;
&lt;li&gt;моделирования роста трещин&lt;/li&gt;
&lt;li&gt;использование открытых библиотек для работы с сеткой и решения СЛАУ: PETSc, libMesh&lt;/li&gt;
&lt;li&gt;использование GCE (Google Compute Engine) для #HPC&lt;/li&gt;
&lt;li&gt;и т.д.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Некоторые брошюры по RB-FEM во вложении.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.akselos.com" target="_blank" rel="noopener noreferrer"&gt;Akselos - Simulation Technology&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Вот такие ноутбуки можно получить в #CADFEM если ты ведаешь #HPC</title><link>https://magicdpd.com/posts/2016-03-18-vot-takie-noutbuki-mozhno-poluchit-v-cad/</link><pubDate>Fri, 18 Mar 2016 17:03:15 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-18-vot-takie-noutbuki-mozhno-poluchit-v-cad/</guid><description/></item><item><title>4 марта 1976 года (40 лет назад) Лос-Аламосская национальная лаборатория получила свой долгожданный суперкомпьютер Cray-1. 5.5 тонн вычислительной мощи!</title><link>https://magicdpd.com/posts/2016-03-06-4-marta-1976-goda-40-let-nazad-los-ala/</link><pubDate>Sun, 06 Mar 2016 09:55:20 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-06-4-marta-1976-goda-40-let-nazad-los-ala/</guid><description>&lt;p&gt;А вы все еще считаете на &amp;ldquo;персоналках&amp;rdquo;?!&lt;/p&gt;
&lt;p&gt;&lt;a href="https://ru.wikipedia.org/wiki/Cray-1" target="_blank" rel="noopener noreferrer"&gt;Cray-1&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#ANSYS не просто посчитал, но и добавил в систему почти 1 Гб памяти!</title><link>https://magicdpd.com/posts/2016-03-03-ansys-ne-prosto-poschital-no-i-dobavil/</link><pubDate>Thu, 03 Mar 2016 12:59:29 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-03-ansys-ne-prosto-poschital-no-i-dobavil/</guid><description>&lt;p&gt;#HPC&lt;/p&gt;</description></item><item><title>Суровое боевое #HPC</title><link>https://magicdpd.com/posts/2016-03-02-surovoe-boevoe-hpc/</link><pubDate>Wed, 02 Mar 2016 11:57:22 +0000</pubDate><guid>https://magicdpd.com/posts/2016-03-02-surovoe-boevoe-hpc/</guid><description>&lt;p&gt;Суровое боевое #HPC&lt;/p&gt;</description></item><item><title>#Altair продолжает наращивать свое партнерство с #Microsoft.</title><link>https://magicdpd.com/posts/2016-02-29-altair-prodolzhaet-naraschivat-svoe-partn/</link><pubDate>Mon, 29 Feb 2016 08:25:00 +0000</pubDate><guid>https://magicdpd.com/posts/2016-02-29-altair-prodolzhaet-naraschivat-svoe-partn/</guid><description>&lt;p&gt;#Altair продолжает наращивать свое партнерство с #Microsoft. Очередным этапом стал запуска решателя #RADDIOSS (явная динамика) на мощностях #Azure для выполнения #HPC расчетов. Надо отметить, что до этого шага Altair и Microsoft начали дружить в рамках Altair #PBS Pro - одного лидеров среди систем планирования очереди задач. И вот теперь RADDIOSS покажет всем, что такое #Infiniband в публичном облаке (а ведь он есть только у Microsoft Azure).&lt;/p&gt;
&lt;p&gt;&lt;a href="https://azure.microsoft.com/en-us/blog/availability-of-altair-radioss-rdma-on-microsoft-azure/" target="_blank" rel="noopener noreferrer"&gt;Altair® RADIOSS® now supported on Microsoft Azure&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Немного про #HPC в выходные.</title><link>https://magicdpd.com/posts/2016-02-22-nemnogo-pro-hpc-v-vyhodnye-komanda-so/</link><pubDate>Mon, 22 Feb 2016 19:23:24 +0000</pubDate><guid>https://magicdpd.com/posts/2016-02-22-nemnogo-pro-hpc-v-vyhodnye-komanda-so/</guid><description>&lt;p&gt;Команда, создающая уникальное программное обеспечение ScaleMP, рассказал о своих очередных успехах. #ScaleMP - это система относящаяся к классу #vSMP - система виртуализации, которая не разделяет, а объединяет ресурсы. ScaleMP позволяет построить виртуозную машину с общей памятью на базе кластера машин.&lt;/p&gt;
&lt;p&gt;Коллегам удалось при помощи своего ПО объединить 64 двухсокетных сервера в одну виртуальную машину с 1536-ю ядрами и 16-ю ТБ общей памяти. Данный виртуальный монстр порвал всех в тестах SPEC® CPU2006. При чем, среди этих всех была и конкурирующая аппаратная NUMA система SGI UV, которую удалось обойти на треть!&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.scalemp.com/media-hub-item/scalemp-ranks-no-1-standard-performance-evaluation/" target="_blank" rel="noopener noreferrer"&gt;ScaleMP Announces version 6.5&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#ANSYS в 17 версии все делает с 10-ти кратным размахом. Судя по данной публикации, специалисты ANSYS наконец-то смогли научить #Maxwell работать на системах с распределенной памятью. До сих пор данный продукт, предназначенный для решения задач низкочастотного электромагнетизма (в основном электродвигатели и трансформаторы), мог работать только на машинах с общей памятью. Ни о каких кластерах речь не шла, да и параллелился код не очень. А вот теперь #HPC жизнь наладиться!</title><link>https://magicdpd.com/posts/2016-02-15-ansys-v-17-versii-vse-delaet-s-10-ti-kr/</link><pubDate>Mon, 15 Feb 2016 07:00:09 +0000</pubDate><guid>https://magicdpd.com/posts/2016-02-15-ansys-v-17-versii-vse-delaet-s-10-ti-kr/</guid><description>&lt;p&gt;&lt;a href="http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/11375/Magic-or-Patentable-ANSYS-170-Adds-10x-Faster-Electromagnetics-Solver.aspx" target="_blank" rel="noopener noreferrer"&gt; Magic or Patentable? ANSYS 17.0 Adds 10x Faster Electromagnetics Solver &amp;gt; ENGINEERING.com &lt;/a&gt;&lt;/p&gt;</description></item><item><title>Новость дня: для наших старых друзей, компании #NICE #Software начинается новая эпоха.</title><link>https://magicdpd.com/posts/2016-02-12-novost-dnya-dlya-nashih-staryh-druzey-ko/</link><pubDate>Fri, 12 Feb 2016 17:36:00 +0000</pubDate><guid>https://magicdpd.com/posts/2016-02-12-novost-dnya-dlya-nashih-staryh-druzey-ko/</guid><description>&lt;p&gt;Сегодня их компания была куплена, и не кем-то, а самими #Amazon Web Services (#AWS).&lt;/p&gt;
&lt;p&gt;Это очень хорошая поддержка для небольшой итальянской компании менее чем из 100 человек.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nice-software.com/news/-/blogs/nice-to-join-forces-with-amazon-web-services" target="_blank" rel="noopener noreferrer"&gt;NICE to join forces with Amazon Web Services - News &amp;amp; Events - NICE&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Когда меня спрашивают, как сделать #HPC кластер, что бы там нормально работал #ANSYS, я шлю всех изучать Bright Cluster Manager.</title><link>https://magicdpd.com/posts/2016-01-22-kogda-menya-sprashivayut-kak-sdelat-hpc/</link><pubDate>Fri, 22 Jan 2016 13:43:31 +0000</pubDate><guid>https://magicdpd.com/posts/2016-01-22-kogda-menya-sprashivayut-kak-sdelat-hpc/</guid><description>&lt;p&gt;Обзор нового релиза ниже по ссылке. Конкурентов этой штуке (кроме фирменного HP CMU) я не знаю.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=OufTnzOKpX0" target="_blank" rel="noopener noreferrer"&gt;What&amp;rsquo;s New In Bright Cluster Manager 7.2?&lt;/a&gt;&lt;/p&gt;</description></item><item><title>И еще одна новость прошедших каникул: компания #ESI, знаменитая своими нелинейными решателями и специализирующаяся на моделировании технологических процессов обработки материалов запустила свое облако (это ужен не смешно).</title><link>https://magicdpd.com/posts/2016-01-14-i-esche-odna-novost-proshedshih-kanikul-ko/</link><pubDate>Thu, 14 Jan 2016 06:30:07 +0000</pubDate><guid>https://magicdpd.com/posts/2016-01-14-i-esche-odna-novost-proshedshih-kanikul-ko/</guid><description>&lt;p&gt;ESI #Cloud, как и многоногие другие подобные решения, базируется на мощностях #Amazon #AWS. Кроме своих собственных наработок в решении задач, ESI также предлагает #OpenFOAM в качестве решения для #CFD. Удаленная визуализация и #HPC прилагаются.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.esi-group.com/company/press/news-releases/cae-now-available-demand-esi-cloud" target="_blank" rel="noopener noreferrer"&gt;CAE Now Available On Demand with ESI Cloud&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#CADFEM CIS - магия численного моделирования для всех желающих. #ANSYS #Fluent #CFX #Mechanical #LSDYNA #AUTODYN #HFSS #Maxwell #HPC и многое другое из #CAE.</title><link>https://magicdpd.com/posts/2016-01-13-cadfem-cis-magiya-chislennogo-modelirov/</link><pubDate>Wed, 13 Jan 2016 09:24:51 +0000</pubDate><guid>https://magicdpd.com/posts/2016-01-13-cadfem-cis-magiya-chislennogo-modelirov/</guid><description/></item><item><title>#CFD от NASA</title><link>https://magicdpd.com/posts/2016-01-09-cfd-ot-nasa/</link><pubDate>Sat, 09 Jan 2016 08:49:23 +0000</pubDate><guid>https://magicdpd.com/posts/2016-01-09-cfd-ot-nasa/</guid><description>&lt;p&gt;#CFD от NASA&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=x1SgmFa0r04" target="_blank" rel="noopener noreferrer"&gt;NASA | A Year in the Life of Earth&amp;rsquo;s CO2&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Как включить #HPC в #ANSYS #Mechanical, #Fluent, #CFX, #HFSS - в основных средствах численного моделирования.</title><link>https://magicdpd.com/posts/2015-12-26-kak-vklyuchit-hpc-v-ansys-mechanical/</link><pubDate>Sat, 26 Dec 2015 06:00:05 +0000</pubDate><guid>https://magicdpd.com/posts/2015-12-26-kak-vklyuchit-hpc-v-ansys-mechanical/</guid><description>&lt;p&gt;Наглядная инструкция в картинках по ссылке.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.padtinc.com/blog/the-focus/activating-hyperdrive-in-ansys-simulations" target="_blank" rel="noopener noreferrer"&gt;Activating Hyperdrive in ANSYS Simulations&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Суровый маркетинг облаков от #Numbix: взять старый iMac с OS X, вклеит в интерфейс скриншот от клиента TigerVNC запущенного под Windows 8.х который подключен к удаленному серверу с CentOS.</title><link>https://magicdpd.com/posts/2015-12-24-surovyy-marketing-oblakov-ot-numbix-vz/</link><pubDate>Thu, 24 Dec 2015 06:00:21 +0000</pubDate><guid>https://magicdpd.com/posts/2015-12-24-surovyy-marketing-oblakov-ot-numbix-vz/</guid><description>&lt;p&gt;И это все еще и продается наверно. Кривой #HPC маркетинг.&lt;/p&gt;</description></item><item><title>Trampo обещает в своем рекламном видео, что #CFD специалисты теперь начнут приходить домой вовремя!</title><link>https://magicdpd.com/posts/2015-12-14-trampo-obeschaet-v-svoem-reklamnom-video/</link><pubDate>Mon, 14 Dec 2015 06:01:31 +0000</pubDate><guid>https://magicdpd.com/posts/2015-12-14-trampo-obeschaet-v-svoem-reklamnom-video/</guid><description>&lt;p&gt;А все это потому, что #Trampo дает вам возможность пользоваться решателями CD-adapco в облаке.
+1 в облаке 😊&lt;/p&gt;
&lt;p&gt;&lt;a href="http://trampocfd.com" target="_blank" rel="noopener noreferrer"&gt;Welcome to Trampo&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Что бы вы сказали, если бы я предложил вам хороший #FEM или #CFD софт бесплатно?</title><link>https://magicdpd.com/posts/2015-12-11-chto-by-vy-skazali-esli-by-ya-predlozhil-v/</link><pubDate>Fri, 11 Dec 2015 14:56:22 +0000</pubDate><guid>https://magicdpd.com/posts/2015-12-11-chto-by-vy-skazali-esli-by-ya-predlozhil-v/</guid><description>&lt;p&gt;А если бы я дал вам к нему в придачу наглядные учебные примеры? И большой-при-большой правильно настроенный и удобный #HPC кластер с системой удаленной визуализации? Наверно, вы бы не отказались.
Компания #Simscale сделал очень сильный ход. Теперь вы можете бесплатно воспользоваться их сервисом инженерных расчетов в облаке. Вам становится доступно 500 Гб дискового пространства и квота на 3000 процессорных часов в год. Вы имеет право на техническую поддержку (даже по телефону!). Единственное ограничение - все ваши проекты должны быть опубликованы на портале компании.
А вот за приватный репозиторий для проектов придется заплатить.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.engineering.com/DesignSoftware/DesignSoftwareArticles/ArticleID/11121/SimScale-Brings-the-Price-of-Computer-Aided-Engineering-Down-to-Zero.aspx" target="_blank" rel="noopener noreferrer"&gt; SimScale Brings the Price of Computer-Aided Engineering Down to Zero &amp;gt; ENGINEERING.com &lt;/a&gt;&lt;/p&gt;</description></item><item><title>Интересно, что нам расскажут HP по итогам прошедшей конференции SC'15. Регистрируемся на утро вторника, 8 декабря.</title><link>https://magicdpd.com/posts/2015-12-02-interesno-chto-nam-rasskazhut-hp-po-itoga/</link><pubDate>Wed, 02 Dec 2015 18:01:17 +0000</pubDate><guid>https://magicdpd.com/posts/2015-12-02-interesno-chto-nam-rasskazhut-hp-po-itoga/</guid><description>&lt;p&gt;P.S. После разделения HP корпоративную часть компании называют Hewlett Packard Enterprise (HPE)&lt;/p&gt;
&lt;p&gt;&lt;a href="https://p.brighttalk.com/hp/ru/?commid=175597" target="_blank" rel="noopener noreferrer"&gt;HP® Россия | Корпоративные решения Hewlett Packard Enterprise&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Один из самых зубастых планировщиков (aka Workload Manager) - #Altair #PBS Pro открывает свой код!</title><link>https://magicdpd.com/posts/2015-11-28-odin-iz-samyh-zubastyh-planirovschikov-ak/</link><pubDate>Sat, 28 Nov 2015 07:00:51 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-28-odin-iz-samyh-zubastyh-planirovschikov-ak/</guid><description>&lt;p&gt;Вот это #HPC бомба. Ждем бесплатных сборок 😊&lt;/p&gt;
&lt;p&gt;Еще в видео есть немого рекламы яблочного решения Altair для решения инженерных задач.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=njnViLkwjhk" target="_blank" rel="noopener noreferrer"&gt;PBS Pro Goes Open Source&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Обзор #SOLIDWORKS Simulation 2016. Много всего по интерфейсу, но мало по технологиям решателей.</title><link>https://magicdpd.com/posts/2015-11-27-obzor-solidworks-simulation-2016-mnogo/</link><pubDate>Fri, 27 Nov 2015 06:30:27 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-27-obzor-solidworks-simulation-2016-mnogo/</guid><description>&lt;p&gt;Вообще ничего про #HPC.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=36pikVjuT7o" target="_blank" rel="noopener noreferrer"&gt;What&amp;rsquo;s New in SOLIDWORKS Simulation 2016&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Nor-Tech, один из крупнейших в США системных интеграторов специализирующихся на #HPC, запустил демонстрационных кластер, на котором вы можете свободно проверить, что конкретно вам даст настоящий высокопроизводительный ресурс.</title><link>https://magicdpd.com/posts/2015-11-23-nor-tech-odin-iz-krupneyshih-v-ssha-siste/</link><pubDate>Mon, 23 Nov 2015 06:00:37 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-23-nor-tech-odin-iz-krupneyshih-v-ssha-siste/</guid><description>&lt;p&gt;Уже сейчас на классе доступны следующие программные продукты:&lt;/p&gt;
&lt;p&gt;CAE:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;ANSYS: ANSYS Fluent – CFD,&lt;/li&gt;
&lt;li&gt;ANSYS: Mechanical – FEA,&lt;/li&gt;
&lt;li&gt;ANSYS: CFX – CFD&lt;/li&gt;
&lt;li&gt;LS-DYNA – FEA,&lt;/li&gt;
&lt;li&gt;Altair: Hyperworks – Suite of CAE software&lt;/li&gt;
&lt;li&gt;CEI Software: Ensight&lt;/li&gt;
&lt;li&gt;Convergent Science: Converge CFD – Meshless CFD&lt;/li&gt;
&lt;li&gt;Cradle-CDF: scSTREAM, scTetra&lt;/li&gt;
&lt;li&gt;Dassault Systemes – Simulia: Abaqus – FEA&lt;/li&gt;
&lt;li&gt;Lumerical: FDTD Solutions – Photonic Design Tools&lt;/li&gt;
&lt;li&gt;MSC Software: Marc Nonlinear – FEA MSC Nastran&lt;/li&gt;
&lt;li&gt;Moldex3D: eDesign – Plastic Injection Molding Simulation&lt;/li&gt;
&lt;li&gt;COMSOL: COMSOL Multiphysics&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Системное кластерное ПО:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Rocks Cluster Management Suite&lt;/li&gt;
&lt;li&gt;NICE: DCV Remote Visualization&lt;/li&gt;
&lt;li&gt;NICE: EnginFrame GUI for Job Scheduler &amp;amp; Resource Mgr&lt;/li&gt;
&lt;li&gt;Ganglia&lt;/li&gt;
&lt;li&gt;IPMI management&lt;/li&gt;
&lt;li&gt;OGS/GE based on (Sun Grid Engine), Torque&lt;/li&gt;
&lt;li&gt;Bright Cluster Manager&lt;/li&gt;
&lt;li&gt;Windows Server 2012/HPC&lt;/li&gt;
&lt;li&gt;Intel: Compilers &amp;amp; Libraries&lt;/li&gt;
&lt;li&gt;Altair PBS Pro, Compute Manager &amp;amp; Display Manager и другеи продукты&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Жаль, что у нас пока нет таких же бравых системных интеграторов.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nor-tech.com/solutions/hpc/demo-cluster/" target="_blank" rel="noopener noreferrer"&gt;Try our free demo cluster&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Насчет недавней новости про #OpenHPC - а вы заметили, что в состав данного альянса вошел и #ANSYS, и Altair, и #MSC. Все знакомые лица!</title><link>https://magicdpd.com/posts/2015-11-20-naschet-nedavney-novosti-pro-openhpc-a/</link><pubDate>Fri, 20 Nov 2015 18:00:05 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-20-naschet-nedavney-novosti-pro-openhpc-a/</guid><description>&lt;p&gt;#HPC
&lt;a href="http://www.openhpc.community/about-us/participants/" target="_blank" rel="noopener noreferrer"&gt;http://www.openhpc.community/about-us/participants/&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Поздравляем компанию #NICE Software: ее продукты заняли все места в номинации "Best HPC Visualization Product or Technology" журнала #HPCwire (одного из самых авторитетных изданий в области #HPC).</title><link>https://magicdpd.com/posts/2015-11-18-pozdravlyaem-kompaniyu-nice-software-ee/</link><pubDate>Wed, 18 Nov 2015 06:30:18 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-18-pozdravlyaem-kompaniyu-nice-software-ee/</guid><description>&lt;p&gt;Итак, #DCV получил награду и &amp;ldquo;Выбор читателей&amp;rdquo; и &amp;ldquo;Выбор редакции&amp;rdquo;. Вторая награда им пришла через #SGI VizServer, основанный на коде DCV. Конкурентов нет 😊&lt;/p&gt;
&lt;p&gt;NICE - отличные ребята!&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nice-software.com/news/-/blogs/nice-receives-honors-in-2015-hpcwire-awards" target="_blank" rel="noopener noreferrer"&gt;NICE Receives Honors in 2015 HPCwire Awards - News &amp;amp; Events - NICE&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Вот так новость: Cray, Dell, Fujitsu, Hewlett Packard, Intel Lenovo, NEC и SUSE будут делать проект OpenHPC Collaborative Project.</title><link>https://magicdpd.com/posts/2015-11-15-vot-tak-novost-cray-dell-fujitsu-he/</link><pubDate>Sun, 15 Nov 2015 18:00:08 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-15-vot-tak-novost-cray-dell-fujitsu-he/</guid><description>&lt;p&gt;Посмотрим, что у них получится, и как с этим будет работаться.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.opennet.ru/opennews/art.shtml?num=43317" target="_blank" rel="noopener noreferrer"&gt;OpenNews: Организация Linux Foundation представила OpenHPC, фреймворк для оснащения Linux-кластеров&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Всем строителям облаков, и тем, кто в них хочет переехать читать обязательно.</title><link>https://magicdpd.com/posts/2015-11-14-vsem-stroitelyam-oblakov-i-tem-kto-v-ni/</link><pubDate>Sat, 14 Nov 2015 18:00:21 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-14-vsem-stroitelyam-oblakov-i-tem-kto-v-ni/</guid><description>&lt;p&gt;Большой ликбез по виртуализации для #CAD и #CAE.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.develop3d.com/workstations/beginners-guide-to-workstation-virtualisation-CAD-3D-CAM-CAE" target="_blank" rel="noopener noreferrer"&gt;DEVELOP3D - A beginner’s guide to workstation virtualisation&lt;/a&gt;&lt;/p&gt;</description></item><item><title>#Mellanox, израильский производитель самого правильно #Infiniband для #HPC, вчера анонсировал новое поколение коммутаторов для EDR Infiniband. Мы наконец попадаем в эру сетей с пропускной способностью 100 Гигабит в секунду!</title><link>https://magicdpd.com/posts/2015-11-13-mellanox-izrailskiy-proizvoditel-sam/</link><pubDate>Fri, 13 Nov 2015 06:30:55 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-13-mellanox-izrailskiy-proizvoditel-sam/</guid><description>&lt;p&gt;Но это еще не все! Подробности в прилагаемом вбинаре.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.mellanox.com/page/press_release_item?id=1627" target="_blank" rel="noopener noreferrer"&gt;Mellanox Technologies&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Компания #Numbix - явно компания с юмором.</title><link>https://magicdpd.com/posts/2015-11-11-kompaniya-numbix-yavno-kompaniya-s-yumoro/</link><pubDate>Wed, 11 Nov 2015 06:30:00 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-11-kompaniya-numbix-yavno-kompaniya-s-yumoro/</guid><description>&lt;p&gt;Их обновленное облако для #HPC расчетов, в том числе и в #ANSYS, носит гордое имя JARVICE 2.0 (привет всем фанатам Железного человека). Что приятно, у #JARVICE есть нормальная удаленная визуализация.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.nimbix.net/blog/2015/11/10/nimbix-upgrades-high-performance-computing-jarvice-2-platform/" target="_blank" rel="noopener noreferrer"&gt;Nimbix Improves High-Performance Computing With New JARVICE 2.0 Platform&lt;/a&gt;&lt;/p&gt;</description></item><item><title>На конференции AWS re:Invent ANSYS расскзал об архитектуре своего облачного решения ANSYS Enterprise Cloud в AWS.</title><link>https://magicdpd.com/posts/2015-11-09-na-konferentsii-aws-reinvent-ansys-rassk/</link><pubDate>Mon, 09 Nov 2015 06:30:19 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-09-na-konferentsii-aws-reinvent-ansys-rassk/</guid><description>&lt;p&gt;Всю магию по созданию виртуального кластера для них делает Cycle Computing. Графикой естественно завидует NICE Software. Управление конфигурациями через Chef. Метаданные пишутся в базу Amazon RDS (наверно они приделали к ней аналог ANSYS EKM).&lt;/p&gt;
&lt;p&gt;Однако проблемы, на которые я всегда обращаю внимание, остались открытыми:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;нет RDMA - большой кластер тормозит даже для CFD&lt;/li&gt;
&lt;li&gt;очень кривая организация виртуальных рабочих станций для постпроцессинга из-за ограничений на объем оперативной памяти.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Есть и замечательные, доселе невиданные возможности: вы получаете готовый к расчетами HPC кластер менее чем за 3 (три!!!) часа, и вы можете изменять его размер по запросу. Обычно проектирование и пуск кластера занимает месяцы :)&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=0EPnnKqs5TM" target="_blank" rel="noopener noreferrer"&gt;AWS re:Invent 2015 | (CMP202) Engineering Simulation and Analysis in the Cloud&lt;/a&gt;&lt;/p&gt;</description></item><item><title>В честь воскресного вечера позволю себе очень любопытный оффтопик. На днях мне попалась очень интересная презентация от Walt Disney Animation Studios, рассказывающая об их опыте использование AWS для рендеринга анимации. Диснеевские спецы собирают виртуальные катера порядка 50 000 ядер!</title><link>https://magicdpd.com/posts/2015-11-08-v-chest-voskresnogo-vechera-pozvolyu-sebe/</link><pubDate>Sun, 08 Nov 2015 18:00:27 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-08-v-chest-voskresnogo-vechera-pozvolyu-sebe/</guid><description>&lt;p&gt;!!&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.slideshare.net/AmazonWebServices/cmp404-cloud-rendering-at-walt-disney-animation-studios" target="_blank" rel="noopener noreferrer"&gt;(CMP404) Cloud Rendering at Walt Disney Animation Studios&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Компания NuScale Power, LLC (http://www.nuscalepower.com/), компания занимающаяся малыми модульными атомными реакторами (small modular reactor, SMR), подписала стратегическое соглашение с ANSYS.</title><link>https://magicdpd.com/posts/2015-11-06-kompaniya-nuscale-power-llc-httpwww/</link><pubDate>Fri, 06 Nov 2015 06:30:23 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-06-kompaniya-nuscale-power-llc-httpwww/</guid><description>&lt;p&gt;В рамках данного соглашения компании будут взаимодействовать по расчетам механики и гидродинамики, а также в области HPC.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://investors.ansys.com/press-releases/2015/05-Nov-15-123056227.aspx" target="_blank" rel="noopener noreferrer"&gt;NuScale Power Leverages ANSYS In Design Of Nuclear Power Plants&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Запись доклада компании #NICE по их продукту #DCV - лидеру рынка высокопроизводительной визуализации для научных и инженерных приложений.</title><link>https://magicdpd.com/posts/2015-11-05-zapis-doklada-kompanii-nice-po-ih-prod/</link><pubDate>Thu, 05 Nov 2015 06:30:41 +0000</pubDate><guid>https://magicdpd.com/posts/2015-11-05-zapis-doklada-kompanii-nice-po-ih-prod/</guid><description>&lt;p&gt;Особая фишка DCV - полностью аппаратное кодирование всех передаваемых данных на GPU. Этого больше немеет никто. Доклад с конференции NVIDIA этого года. Демонстрация работы на примере #ANSYS Mechanical.&lt;/p&gt;
&lt;p&gt;Знали бы вы, что NICE Software покажет в рамках проекта DCV в этом году на грядущем SC2015&amp;hellip; Я вот уже знаю и пользуюсь в рамках партнерской программы тестирования, но рассказать не могу. Могу только намекнуть, что Citrix XenApp/XenDesktop и VMWare View будут плакать.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://on-demand.gputechconf.com/gtc/2015/video/S5415.html" target="_blank" rel="noopener noreferrer"&gt;GPU Technology Conference 2015&lt;/a&gt;&lt;/p&gt;</description></item><item><title>NX Nastran тоже ударился в облака. Скоро будет проще сказать, кого из CAE вендоров там нет. Siemens PLM для своего облако выдрали Rescale. Насколько мне известно, Rescale не умеет делать удаленную визуализацию. И в презентации про нее тоже ни слова. Только про вычислительные мощности. А как же обработать результаты?</title><link>https://magicdpd.com/posts/2015-10-17-nx-nastran-tozhe-udarilsya-v-oblaka-skoro/</link><pubDate>Sat, 17 Oct 2015 07:01:49 +0000</pubDate><guid>https://magicdpd.com/posts/2015-10-17-nx-nastran-tozhe-udarilsya-v-oblaka-skoro/</guid><description>&lt;p&gt;Все домой качать?&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=LxPdS1g_KLs" target="_blank" rel="noopener noreferrer"&gt;NX Nastran Cloud Solutions: SaaS or BYOL&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Это не совсем про расчеты, но это то, чем мы все скоро будем пользоваться.</title><link>https://magicdpd.com/posts/2015-10-11-eto-ne-sovsem-pro-raschety-no-eto-to-che/</link><pubDate>Sun, 11 Oct 2015 06:30:15 +0000</pubDate><guid>https://magicdpd.com/posts/2015-10-11-eto-ne-sovsem-pro-raschety-no-eto-to-che/</guid><description>&lt;p&gt;Спецы рассказывают, о работе NVIDIA Tesla K80 и Quadro M60 в облако Azure. Более того, у Microsoft наконец-то появилась технология проброски физического железа в виртуальную среду под названием DDA (Discrete Devices Assignment). А если учесть, что в основе Azure находятся технологии Hyper-V, то скоро нас ждет еще и очень сильная конкурентная борьба с VMware.&lt;/p&gt;
&lt;p&gt;Лично я не могу дождаться, когда инстансы N-типа будут доступны нам - очень хочется проверить задержки при удаленной визуализации через DCV.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://azure.microsoft.com/en-us/documentation/videos/azurecon-2015-applications-that-scale-using-gpu-compute/" target="_blank" rel="noopener noreferrer"&gt;Applications that scale using GPU Compute&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Запущенный на Cary XC40TM код ANSYS Fluent помог очень красивому автомобилю Alfa Romeo Giulietta издавать меньше аэродинамических шумов.</title><link>https://magicdpd.com/posts/2015-10-07-zapuschennyy-na-cary-xc40tm-kod-ansys-flue/</link><pubDate>Wed, 07 Oct 2015 18:00:00 +0000</pubDate><guid>https://magicdpd.com/posts/2015-10-07-zapuschennyy-na-cary-xc40tm-kod-ansys-flue/</guid><description>&lt;p&gt;Дальше остаться только завидовать показателям: сетка на 62 миллионов ячеек, 8192 ядра суперкомпьютера. CARY MPI и Cary Linux делают свое дело в плане эффективности.&lt;/p&gt;
&lt;p&gt;Иллюстрации от FCA Italy.&lt;/p&gt;
&lt;p&gt;Пресс релиз доступен по ссылке:
&lt;a href="http://www.ansys.com/staticassets/ANSYS/staticassets/partner/Cray/ApplicationBrief-Cray-ANSYS-Fluent-Vehicle-Noise.pdf" target="_blank" rel="noopener noreferrer"&gt;http://www.ansys.com/staticassets/ANSYS/staticassets/partner/Cray/ApplicationBrief-Cray-ANSYS-Fluent-Vehicle-Noise.pdf&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Со всей этой рутинной я чуть пропустил абсолютно сногсшибательную новость!</title><link>https://magicdpd.com/posts/2015-10-05-so-vsey-etoy-rutinnoy-ya-chut-propustil-a/</link><pubDate>Mon, 05 Oct 2015 06:30:16 +0000</pubDate><guid>https://magicdpd.com/posts/2015-10-05-so-vsey-etoy-rutinnoy-ya-chut-propustil-a/</guid><description>&lt;p&gt;NVIDIA анонсировала планы по использованию ее графических процессоров и процессоров общего назначения в облаке Microsoft Azure. То, что раз или поздно это произойдет стало понятно в тот момент, когда MS реализовали нормальную поддержку vGPU в Hyper-V для Server 2016.&lt;/p&gt;
&lt;p&gt;Теперь же мы можем наблюдать очень интересную направленность Azure в HPC направление. Тут и честный Infiniband (чего нет даже у Amazon AWS), и несколько HPC планировщиков, в числе которых есть лидер рынка Altair PBS Pro, и, наконец, недостающее звено - гибридные вычисления и поддержка удаленной визуализации!!! Мне кажется, что сейчас Azure дал крепкую затрещину AWS.&lt;/p&gt;
&lt;p&gt;#Azure #AWS #Cloud #HPC #NVIDIA
&lt;a href="http://nvidianews.nvidia.com/news/nvidia-gpus-to-accelerate-microsoft-azure" target="_blank" rel="noopener noreferrer"&gt;http://nvidianews.nvidia.com/news/nvidia-gpus-to-accelerate-microsoft-azure&lt;/a&gt;
&lt;a href="http://www.nvidia.ru/object/nvidia-grid-microsoft-azure-29-sep-2015-ru.html" target="_blank" rel="noopener noreferrer"&gt;http://www.nvidia.ru/object/nvidia-grid-microsoft-azure-29-sep-2015-ru.html&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="http://nvidianews.nvidia.com/news/nvidia-gpus-to-accelerate-microsoft-azure" target="_blank" rel="noopener noreferrer"&gt;NVIDIA GPUs to Accelerate Microsoft Azure &lt;/a&gt;&lt;/p&gt;</description></item><item><title>Altair с новой версией своего решателя явной динамики RADIOSS 14 и Cray с хорошей системой XC40 приглашают всех на ведена посвященный их новым результатам п области HPC. Дело в том, что этим компаниям удалось эффективно распараллелить краштест модель на примерно 100 миллионов элементов на 16 тысяч ядер. Неплохой показатель!</title><link>https://magicdpd.com/posts/2015-10-03-altair-s-novoy-versiey-svoego-reshatelya-ya/</link><pubDate>Sat, 03 Oct 2015 18:00:00 +0000</pubDate><guid>https://magicdpd.com/posts/2015-10-03-altair-s-novoy-versiey-svoego-reshatelya-ya/</guid><description>&lt;p&gt;&lt;a href="http://innovationintelligence.com/new-results-in-crash-testing-with-cray-and-altair-radioss-14/" target="_blank" rel="noopener noreferrer"&gt;New Results in Crash Testing with Cray and Altair RADIOSS 14 - Altair Innovation Intelligence&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Издание HPCWire начало голосование за лучшие HPC 2015 года.</title><link>https://magicdpd.com/posts/2015-09-30-izdanie-hpcwire-nachalo-golosovanie-za-lu/</link><pubDate>Wed, 30 Sep 2015 06:30:13 +0000</pubDate><guid>https://magicdpd.com/posts/2015-09-30-izdanie-hpcwire-nachalo-golosovanie-za-lu/</guid><description>&lt;p&gt;Среди множества дисциплин засветились следующие важные для нас игроки: NICE Software, ANSYS Cloud, ANSYS Fluent, Abaqus, Altair HyperWorks, Star-CD и многое другое.&lt;/p&gt;
&lt;p&gt;Голосование будет проходить до 9 Октября 23:59 по тихоокеанскому времени.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.hpcwire.com/2015-hpcwire-readers-choice-awards/" target="_blank" rel="noopener noreferrer"&gt;2015 Annual HPCwire Readers&amp;rsquo; Choice Awards - HPCwire&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Довольно часто пользователи ANSYS жалуются, что у них долго обрабатываются результаты расчетов весом под 100 Гб, что RSM сбоит при передаче больших объемов по локальной сети.</title><link>https://magicdpd.com/posts/2015-09-25-dovolno-chasto-polzovateli-ansys-zhaluyut/</link><pubDate>Fri, 25 Sep 2015 06:30:10 +0000</pubDate><guid>https://magicdpd.com/posts/2015-09-25-dovolno-chasto-polzovateli-ansys-zhaluyut/</guid><description>&lt;p&gt;Steve Legensky из Intelligent Light расскажет, как жить, когда результаты ваших расчетов измеряются петабайтами (1.0E+6 Гб)! В конце презентации шикарная визуализация посадки вертолета на корабль.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=tkW-nAPx1v4" target="_blank" rel="noopener noreferrer"&gt;Intelligent Light: Breaking the Disk IO Bottleneck in CFD by Eliminating It&lt;/a&gt;&lt;/p&gt;</description></item><item><title>Молния!</title><link>https://magicdpd.com/posts/2015-09-10-molniya-segodnya-stalo-izvestno-o-novyh-r/</link><pubDate>Thu, 10 Sep 2015 11:19:32 +0000</pubDate><guid>https://magicdpd.com/posts/2015-09-10-molniya-segodnya-stalo-izvestno-o-novyh-r/</guid><description>&lt;p&gt;Сегодня стало известно о новых рекордах ANSYS в области HPC. Рекордсменом в очередной раз стал ANSYS Fluent - основной CFD код из набора решателей ANSYS. ANSYS в сотрудничестве с Cray удалось практически в 4 раза увеличить количество эффективно используемых ядре для расчета. Компании заявляют, что для решателя были достигнуты показатели эффективности в 90% при работе на 129 000 ядер. Для расчета использовалась система Cray XC3&lt;/p&gt;
&lt;p&gt;&lt;a href="http://www.prnewswire.com/news-releases/ansys-and-cray-smash-supercomputing-records-300139525.html" target="_blank" rel="noopener noreferrer"&gt;ANSYS and Cray Smash Supercomputing Records&lt;/a&gt;&lt;/p&gt;</description></item><item><title>На прошедшей неделе Rescale, создатель одной из крупнейших облачных #HPC платформ для #CAE и один из ключевых партнеров #ANSYS в области облачных вычислений на рынке США официально пришла в Европу.</title><link>https://magicdpd.com/posts/2015-08-29-na-proshedshey-nedele-rescale-sozdatel-o/</link><pubDate>Sat, 29 Aug 2015 17:00:38 +0000</pubDate><guid>https://magicdpd.com/posts/2015-08-29-na-proshedshey-nedele-rescale-sozdatel-o/</guid><description>&lt;p&gt;Для пользователей это означает существенное снижение задержек при работе с вычислительным облаком, так как оборудование теперь будет размещаться и в Европе.
Надо отметить, что из игроков на рынке HPC #Cloud в Европе до сего момента уже присутствовали такие компании как ClusterVision, #CADFEM GmbH, CPU 24/7, Gompute. Возможности по HPC также предоставляет и Azure, но там нет изначальной заточки под CAE использование.
Посмотрим как опыт гораздо более жесткого развитого HPC рынка США поможет #Rescale работать в Старом свете.&lt;/p&gt;
&lt;p&gt;&lt;a href="http://insidehpc.com/2015/08/rescale-launches-cloud-hpc-platform-in-europe/" target="_blank" rel="noopener noreferrer"&gt;Rescale Launches Cloud HPC Platform in Europe&lt;/a&gt;&lt;/p&gt;</description></item></channel></rss>