Перейти к основному контенту

Тег: Hpc

Интерконнект на 20 Гбит

Mellanox Announces 200Gb/s HDR InfiniBand Solutions In this slidecast, Gilad Shainer from Mellanox announces the world’s first HDR 200Gb/s data center interconnect solutions. “The ability to effectively utiliz... www.youtube.com

https://www.youtube.com/watch?v=bSLhvTbOT_g

Интерконнект на 200 Гбит На прошедшей неделе компания #Mellanox анонсировала выпуск нового поколения их #HPC интерконнекта #Infiniband - IB HDR. Infiniband дефакто является стандартом для суперкомпьютеров - более 70% всех систем такого класса собраны с использованием IB. Теперь же он может работать на скоростях 200 Гбит/с с задержками менее 90 нано секунд. https://www.youtube.com/watch?v=bSLhvTbOT_g

Mellanox Announces 200Gb/s HDR InfiniBand Solutions

Немного занудства про СЛАУ

Adaptive Linear Solvers and Eigensolvers | Jack Dongarra, University of Tennessee Presented at the Argonne Training Program on Extreme-Scale Computing, Summer 2016.Slides for this presentation are available here: http://extremecomputingtra... www.youtube.com

https://www.youtube.com/watch?v=mg4ewvceBqM

На самом деле, лекция совсем даже не занудная. Просто Джек Донгара (Jack Dongarra), один из титров #HPC, рассказывает от особенностях решения #СЛАУ (система линейных алгебраических уравнений), о библиотеках решения подобных задач и о современных проблемах решения больших задач. https://www.youtube.com/watch?v=mg4ewvceBqM

Adaptive Linear Solvers and Eigensolvers | Jack Dongarra, University of Tennessee

True CFD из Питера!

Андрей Гарбарук – о трендах развития суперкомпьютерной отрасли Санкт-Петербургский Политехнический Университет Петра Великого. Peter the Great St.Petersburg Polytechnic University www.spbstu.ru

http://www.spbstu.ru/media/news/nauka_i_innovatsii/andrey-garbaruk-about-trends-supercomputer-development/

В свое время мне посчастливилось работать в смежной с Андреем Викторовичем Гарабаруком лаборатории, и я до сих пор горжусь знакомством с ним и с питерской лабораторией НТС (#NTS, Numerical Turbulence Simulation) из #СПбГПУ. Мне было очень приятно узнать, что доклад Андрея Викторовича “Опыт прямого численного моделирования турбулентности на суперкомпьютерах” был признан лучшим на конференции “Суперкомпьютерные дни в России” (Russian Supercomputing Days). Я был на этом докладе, и могу сказать, что рассказ о прямом моделировании турбулентности (aka #DNS) сделанный без формул и занудства - это что-то! У коллег уже несколько десятилетий разрабатывается свой код - NTS CFD Code - который легко может уделать и #Fluent и #StarCCM. Чего только стоят их 19 000 000 000 (миллиардов) ячеек в модели!

HPC от HPE

https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf

У компании #HPE (Hewlett Packard Enterprise), последнего из титанов железного рынка, есть очень полезный документ, описывающий основные правила построения настоящей #HPC системы для расчетов в #ANSYS. Документ находится по ссылке: https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf

В документе приведены полезные прикидки конфигураций для #CFX, #Fluent и #Mechanical/#APDL, есть информация по #RSM, и все это написано довольно простым языком без воды.

https://www.hpe.com/h20195/v2/GetPDF.aspx/4AA4-8082ENW.pdf

GPGPU для Fluent

ANSYS Fluent: Overview of GPU Capabilities This video demonstrates various GPU capabilities in ANSYS Fluent. This includes setting up Fluent to utilize a GPU and running various calculations with a G... www.youtube.com

https://www.youtube.com/watch?v=9YH9p2KbRls

#ANSYS #Fluent был первым #CFD кодом общего назначения, который смог задействовать #GPGPU #NVIDIA #Tesla для ускорения расчетов. Сейчас во Fluent есть много мест, где можно ускориться благодаря таким технологиям. ANSYS подготовил отличную видеоинструкцию по применению и настройке ускорителей под расчет. #HPC

https://www.youtube.com/watch?v=9YH9p2KbRls

ANSYS Fluent: Overview of GPU Capabilities

Несколько слов про доставку инженерной графики

Sign in to your account blogs.technet.microsoft.com

https://blogs.technet.microsoft.com/enterprisemobility/2016/09/22/new-ms-mechanics-video-with-the-latest-updates-to-rds-for-windows-server-2016/

#Microsoft продолжает хвастаться новыми возможностями по работе с #GPU, которые она реализует в #Windows #Server 2016. Нас ожидает поддержка нужного #OpenGL 4.4+ как в сценариях с #RDSH, так и при построении #VDI. При этом, в качестве средства доставки будет выступать привычный и понятный #RDP, а видеопоток будет полностью аппаратно кодироваться и декодироваться на GPU сервера и клиента. Аналогичные возможности ожидаются в #Azure #Cloud.

Неужели скоро все инженеры получат достойные системы доставки инженерной графики практически за так?

Силикон ускоряет ANSYS

http://www.ansys-blog.com/sgi-ansys-new-world-record-hpc

Очередные заоблачные цифры ускорения расчета #ANSYS #Fluent: 145152 ядер на расчет, решение задачи на 830 миллионов ячеек (химические реакции, турбулентность) за 13 секунд. Да у меня такая задача ни на одном компьютере даже не откроется, да она на самом мощном из доступных мне кластеров минуты 3 будет только с #GPFS читаться!

Причиной такого ускорения расчетов стала комбинация двух факторов: железо компании #SGI и самая новая версия решателя R17.2. Надеюсь, что SGI, вошедший в состав #HPE будте только больше наращивать темпы!

PBS Cloud Manager

Design and Simulation Platform | Altair HyperWorks Altair Hyperworks is a platform for every engineer, offering a comprehensive suite of CAE software for design and simulation, including FEA, CFD, multi-body dynamics, optimization, electromagnetic analysis, electronic system design, and more. web2.altairhyperworks.com

http://web2.altairhyperworks.com/pbs-cloud-manager-webinar

Компания #Altair приглашает всех на вебиран по их новому продукту. #PBS #Cloud Manager предназначен для быстрого и эффективного развертывания #HPC систем на базе публичных облаков. Тема очень интересная, и возможно мы увидим становление еще одного игрока на рынке облачного HPC.

Вебинар состоится 21 сентября

http://web2.altairhyperworks.com/pbs-cloud-manager-webinar

Централизованное управление GPU вашего датацентра

NVIDIA Data Center GPU Manager Simplifies Cluster Administration | NVIDIA Technical Blog Today’s data centers demand greater agility, resource uptime and streamlined administration to deal with the ever-increasing computational requirements of HPC, hyperscale and enterprise workloads. devblogs.nvidia.com

https://devblogs.nvidia.com/parallelforall/nvidia-data-center-gpu-manager-cluster-administration/

#NVIDIA объявила о выходе Data Center GPU Manager (#DCGM) предназанвенного для централизованного мониторинга и управления #GPU и #GPGPU вашего датацентра или кластера (у кого что). ПО имеет интерфейсы к основным игрокам #HPC рынка: Bright Custer Manager (#BCM), #Altair #PBS Works и #IBM Spectrum #LSF и позволяет производить низкоуровневую диагностику аппаратной части, конфигурирование драйверов и прочие низкоуровневые фишки.

Nvidia DCGM 1.0 Release Candidate доступен для скачивания по регистрации (https://developer.nvidia.com/data-center-gpu-manager-dcgm-access). О том, будет ли данное ПО бесплано, или потребуется приобретение лицензий пока не сообщается, но что-то мне подсказывает, что с учетом последних действий NVIDIA нам всем придется раскошелиться.

PyFR для решения прикладных задач CFD

Streamlining accelerated computing for industry Scientists and engineers striving to create the next machine-age marvel—whether it be a more aerodynamic rocket, a faster race car, or a higher-efficiency jet engine—depend on reliable analysis and feedback to improve their designs. phys.org

http://phys.org/news/2016-08-industry.html

Я уже как-то писал про #PyFR: #Python-фреймворк с открытым исходным кодом, предназначенный для решения #CFD задачи. Так мне на глаза попался один из недавних примеров его использования, причем сразу на суперкомпьютерах.

Streamlining accelerated computing for industry