ИСТИНА |
Войти в систему Регистрация |
|
ИСТИНА ИНХС РАН |
||
Целью данного проекта является выведение на качественно новый уровень функциональности Центра коллективного пользования (ЦКП) сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В. Ломоносова (“Суперкомпьютерного комплекса”) для повышения уровня сложности и значительного расширения перечня выполняемых междисциплинарных исследований и разработок по всем приоритетным направлениям развития науки и технологий Российской Федерации. Указанная цель будет достигнута за счет дооснащения ЦКП современным научным оборудованием, внедрения новых прецизионных методик обеспечения контроля и качества работы пользователей ЦКП, формирования инфраструктуры специализированного программного обеспечения, развитие нормативно-методической и информационной составляющих работы ЦКП. Целями выполнения работ являются: - развитие Центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В. Ломоносова для обеспечения поддержки реализации приоритетов научно-технологического развития, в том числе в кооперации с ведущими мировыми научными центрами; - расширение перечня и комплексности оказываемых услуг, а также круга пользователей для обеспечения максимальной загрузки оборудования ЦКП и обеспечения эффективного участия в реализации приоритетов научно-технологического развития Российской Федерации. - обеспечение внедрения упрощенной модели доступа и использования оборудования ЦКП научными и образовательными организациями вне зависимости от их ведомственной принадлежности и формы собственности.
В ходе выполнения работы должны быть получены следующие результаты: Реализованы мероприятия по развитию ЦКП, в том числе: − обеспечен доступ к оборудованию ЦКП для выполнения научных и (или) научно-технических проектов по заявкам третьих лиц; − внедрена упрощенная модель доступа и использования оборудования ЦКП научными и образовательными организациями вне зависимости от их ведомственной принадлежности и формы собственности путем подачи заявки через сайт. − дооснащена приборно-аналитическая база ЦКП современным дорогостоящим научным и (или) метрологическим оборудованием (стоимостью свыше 1 млн рублей) в объеме не менее 80% стоимости проекта, в том числе комплектующих необходимых для сборки и (или) изготовления такого оборудования; − существенно расширен перечень оказываемых услуг; − осуществлено нормативно-методическое, метрологическое и информационное обеспечение деятельности ЦКП; − осуществлена подготовка кадров ЦКП; Достигнуты значения индикаторов и показателей выполнения работ; Выполнены работы и оказаны услуги для проведения научных исследований, а также осуществления экспериментальных разработок, в том числе в интересах третьих лиц; Реализован комплекс мероприятий, направленных на обеспечение максимальной загрузки оборудования ЦКП и привлечение третьих лиц (в соответствии с приказом Минобрнауки России от 27 октября 2011 г № 2561). Обеспечена загрузка в интересах внешних внерегиональных пользователей на уровне не менее 20%. Должен быть обеспечен двукратный рост числа публикаций в российских и зарубежных журналах, индексируемых в международных базах Web of Science и (или) Scopus, а также иных охраняемых результатов интеллектуальной деятельности, полученных с использованием оборудования ЦКП.
Московский государственный университет имени М.В.Ломоносова является крупнейшим классическим университетом Российской Федерации. В университетской фундаментальной и прикладной науке занято 5 тыс. научных работников, ведущих в настоящее время исследования по 310 приоритетным научным направлениям и программам. Одной из наиболее значимых задач, выполняемых коллективом исполнителей, является работа по сопровождению и обеспечению эффективной эксплуатации Центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова, в который на данный момент входит уникальная научная установка (УНУ) суперкомпьютерный комплекс «Ломоносов-2» с суммарной пиковой производительностью 2.96 PFlops, являющийся первым по мощности на территории стран СНГ и Восточной Европы. Организация работ в масштабах большого суперкомпьютерного комплекса сопряжена с необходимостью постоянного решения ряда ключевых задач, вот лишь некоторые из них: мониторинг состояния программно-аппаратной среды, учет пользователей, управление доступом и квотами, исследование и оптимизация структуры потока задач, анализ характера использования выделенных ресурсов пользователями и пользовательскими приложениями, обеспечение бесперебойной работы и сохранности оборудования. Все эти и многие другие задачи успешно решаются благодаря использованию комплекса специально разработанных в МГУ профильных инструментов в каждодневной практике ЦКП. Полученные в ходе работ результаты полностью соответствуют основным направлениям технологического развития (исследований и разработок), поддерживаемых в рамках Национальной суперкомпьютерной технологической платформы. Все ранее полученные результаты интеллектуальной деятельности вовлечены в хозяйственный оборот, повышая эффективность использования ресурсов суперкомпьютерного комплекса Московского университета.
ФЦП: Федеральная целевая программа, Федеральная целевая программа «Исследования и разработки по приоритетным направлениям развития научно-технологического комплекса России на 2014 - 2020 годы» |
# | Сроки | Название |
1 | 28 августа 2017 г.-29 декабря 2017 г. | Этап 1 |
Результаты этапа: В соответствии с Техническим заданием и Планом-графиком исполнения обязательств на первом этапе выполнены следующие работы и получены следующие результаты. Первая группа работ в соответствии с Планом-графиком проведена за счет средств субсидии. 1. Организована закупка современного дорогостоящего научного оборудования. В рамках выполнения работ по Соглашению были проведены конкурсные процедуры, по результатам которых заключён контракт № 1090-2017 от 21 декабря 2017 г. между МГУ имени М.В.Ломоносова и АО «Т-Платформы» на закупку комплекта оборудования для расширения центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова. Стоимость контракта составляет 60 000 000 (шестьдесят миллионов) рублей. Контракт обеспечивает поставку следующего высокотехнологичного перечисленного оборудования во исполнение Соглашения: система хранения данных Panasas, система хранения данных Dell/EMC, 4-узловой экспериментальный кластер на базе процессоров Intel Xeon Phi 7230, комплекс мониторинга и сбора статистики, система резервного копирования и архивации. 2. Обеспечено внедрение новых услуг. Внедрение новых услуг состоит в закупке и последующем предоставлении доступа к востребованному специализированному программному обеспечению. Для подготовки установки закупаемого ПО был проведён комплекс мероприятий. Все технические требования были проверены и удовлетворены. По части закупки ПО Schrodinger, Small molecule drug discovery suite и MATLAB стартовали конкурсные процедуры в форме открытого аукциона: номер извещения – 31705936921, способ размещения закупки – СБ-АСТ: Открытый аукцион в электронной форме. По части закупки ПО MOLPRO заключен договор №1097-2017 от 22 декабря 2017 года между Федеральным государственным бюджетным образовательным учреждением высшего образования «Московский государственный университет имени М.В.Ломоносова» и Акционерным обществом «СофтЛайн Трейд», суммой 1 064 000 (один миллион шестьдесят четыре тысячи) рублей, на поставку пакета MOLPRO как от единственного поставщика. Выполнение поставки и установка программного обеспечения по Договору подтверждено Актом от 25 декабря 2017 года. По части закупки ПО FlowVision заключен договор №1099-2017 от 25 декабря 2017 года между Федеральным государственным бюджетным образовательным учреждением высшего образования «Московский государственный университет имени М.В.Ломоносова» и Обществом с ограниченной ответственностью «ТЕСИС», суммой 900 000 (девятьсот тысяч) рублей, на поставку пакета FlowVision собственного производства ООО «ТЕСИС». Выполнение поставки и установка программного обеспечения по Договору подтверждено Актом от 25 декабря 2017 года. 3. Проведены мероприятия, направленные на методическое и метрологическое обеспечение деятельности ЦКП. Система Octotron была введена в тестовую эксплуатацию на суперкомпьютере «Ломоносов-2» МГУ. Ввод в тестовую эксплуатацию состоял из построения базовой модели суперкомпьютера, верификации этой модели, установки и разворачивания системы на суперкомпьютере, организации системного мониторинга, подключения банка типичных неисправностей и адаптацию детекторов сбойных ситуаций к архитектуре суперкомпьютера. Система Octotron установлена на одном из служебных серверов суперкомпьютера в отдельной виртуальной машине. Информация о сбойных ситуациях в суперкомпьютере «Ломоносов-2» в настоящее время передается администраторам суперкомпьютерного комплекса в формате дайджеста – сводки событий с наведенной классификацией (новые/повторяющиеся и т.д. события) по категориям важности. Последние пополнения банка неисправностей касались контроля серверов и сервисов файловой системы Lustre. Были реализованы проверки работы серверов метаданных Lustre, статуса разделов, количества свободного места, количества доступных файловых дескрипторов. Проверки были описаны в формате триггеров. Изначально это было сделано на экземпляре системы Octotron, контролирующем суперкомпьютер "Ломоносов". Далее триггеры были внесены в состав банка неисправностей. В настоящее время эти проверки используются и на «Ломоносов-2». Проведена установка на суперкомпьютере “Ломоносов-2” системы DiMMon, созданной для глубокого мониторинга работы программно-аппаратной среды суперкомпьютеров. Установка и локализация данных системы обеспечит постоянный оперативный контроль работоспособности тысяч компонент суперкомпьютерного комплекса, повышая надежность и качество его работы. Проведено развертывание агентов системы DiMMon на вычислительных узлах в ручном режиме с малым набором датчиков, развертывание серверной части, интеграция с менеджером ресурсов SLURM. Система JobDigest установлена на суперкомпьютере "Ломоносов-2", проведена первичная интеграция системы с планировщиком задач SLURM и подключён сбор данных от системы мониторинга с вычислительных узлов суперкомпьютера. Система успешно анализирует задачи. Ведётся подготовка к запуску системы на всём суперкомпьютере для контроля всего потока задач. Система представления и обработки данных установлена, настроена и доступна через сеть интернет. Сторонние сервисы могут получать данные и взаимодействовать с системой через API по протоколу https. В настоящий момент система JobDigest в реальном времени собирает и анализирует данные обо всех считающихся на суперкомпьютере задачах. С помощью разработанного программного обеспечения данные из системы мониторинга DiMMon, системы обеспечения автономного функционирования и активной самодиагностики суперкомпьютеров Octotron и системы анализа динамических характеристик суперкомпьютерных приложений JobDigest объединяются в единую базу данных и далее могут быть обработаны совместно. Так как все источники могут поставлять данные по протоколу HTTP/HTTPS, то именно он был выбран как основной для получения данных. Данные из систем Octotron, DiMMon и JobDigest получаются по протоколу HTTP/HTTPS и переводятся в унифицированный формат, после чего сохраняются в базу данных для дальнейшей обработки и/или отображения. С помощью разработанного подхода можно расширять набор источников данных, а также гибко подстраиваться под расширение функциональности систем DiMMon, Octotron и JobDigest. 4. Проведены мероприятия, направленные на повышение открытости, доступности и востребованности ЦКП/УНУ для третьих лиц. Для системы разработан модуль расширения, позволяющий добавить к проектам, пользователям и задачам в системе дополнительную информацию, такую как текст, тег или произвольный файл. Данный модуль позволяет отмечать необходимые данные и в дальнейшем получить статистику по отмеченной информации. Модуль представляет собой исключительно важный инструмент для обработки данных обо всех содержащихся в системе объектах. Модуль имеет набор функций (API), доступных из любого другого модуля Octoshell, что позволяет добавлять, удалять и обрабатывать метаданные. Вторая группа работ в соответствии с Планом графиком проведена за счет собственных средств из внебюджетных источников. 5. Проведены мероприятия по подготовке кадров для ЦКП. В рамках международной конференции “Суперкомпьютерные дни в России” (25-26 сентября, 2017 года) были проведены три тренинга: «Суперкомпьютерные вычисления на архитектуре Эльбрус» (16 участников), «Лабораторные работы по глубокому обучению от NVIDIA» (20 участников), «Ускорение вычислений по стандарту OpenCL на ПЛИС IntelFPGA» (14 участников). В рамках деятельности кафедры “Суперкомпьютеры и квантовая информатика” факультета ВМК МГУ для бакалавров читаются курсы «Системы и средства параллельного программирования» (OpenMP и MPI), «Высокопроизводительная и распределенная обработка данных». В течение 2-х лет (на 3-м и 4-м курсах) бакалавры кафедры выполняют научные проекты в рамках курсовых и выпускных работ по различным научным направлениям, связанным с использованием ресурсов Центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В. Ломоносова. На кафедре проводится обучение по магистерской программе «Суперкомпьютерные системы и приложения». Кафедра поддерживает чтение нескольких вариативных дисциплин по тематике параллельных вычислений: «Параллельные высокопроизводительные вычисления», «Параллельные методы решения задач», «Естественные модели параллельных вычислений», «Администрирование суперкомпьютеров». На кафедре СКИ читались следующие спецкурсы: «Параллельное программирование для многопроцессорных вычислительных систем», «Introduction to parallel programming with CUDA”, “Accelerated Computing with OpenCL on Altera FPGA”, “Neural Networks and their practical applications”. В рамках спецсеминара «Параллельные вычисления» в осеннем семестре 2017 года состоялись 5 заседаний. В рамках работы междисциплинарного научно-методического семинара МГУ “Суперкомпьютерные технологии в науке, образовании и промышленности” (руководитель семинара - ректор МГУ академик В.А.Садовничий) состоялись пять заседаний с докладами по темам: "Трехмерное моделирование зарядового обмена между ионными пучками и поверхностью металла", "Моделирование структур из темной материи", "Применение суперкомпьютерных технологий для решения задач гетерогенного катализа с участием наночастиц переходных металлов", "Эффективное моделирование сильнонелинейной динамики распространения фронтов пламен с помощью оболочечного подхода", "Расчет ван-дер-ваальсовых взаимодействий в наносистемах с применением суперкомпьютерных комплексов", "Вычислительный комбинаторный подход для создания фермента", "Полноатомное и крупнозернистое молекулярное моделирование микротрубочки - основного двигателя хромосом во время митоза", "Моделирование взаимодействия лазерного излучения экстремальной интенсивности с пространственно-неоднородной плазмой", "Многомасштабное компьютерное моделирование в материаловедении", "Суперкомпьютерное моделирование нелинейной динамики ультракоротких лазерных импульсов". 6. Осуществлено создание междисциплинарного учебно-научного высокопроизводительного комплекса: параллельные вычисления, большие данные, глубокое обучение. Во исполнение обязательств по обеспечению внебюджетного софинансирования данного Соглашения на базе факультета ВМК МГУ создан Междисциплинарный учебно-научный высокопроизводительный комплекс “Параллельные вычисления, большие данные, глубокое обучение”. Руководителем комплекса назначен заведующий кафедрой Суперкомпьютеров и квантовой информатики ВМК МГУ, чл.-корр. РАН, профессор Вл.В.Воеводин, ответственным за эксплуатацию комплекса назначен заместитель декана по ИТ факультета ВМК МГУ А.В. Гуляев. В данный момент спроектирована компьютерная основа комплекта, составлено Техническое задание, проведены необходимые конкурсные процедуры (аукцион), объявлен победитель, с победителем заключен контракт на поставку оборудования на сумму 49,5 миллионов рублей. В состав комплекта входят три составляющие: высокопроизводительный кластер, распределенное хранилище и кластер для поддержки распределенных вычислений. Высокопроизводительный кластер построен на базе процессоров NVidia P100 и IBM POWER8 с использованием коммуникационной технологии NVLINK. 7. В рамках работ по разработке новых методик измерения были разработаны 2 методики измерения: методика выполнения измерений средней загрузки системы при выполнении параллельной программы; методика выполнения измерений средней загрузки процессора выполнением кода пользователя при выполнении параллельной программы. Указанные методики используют систему JobDigest, предназначенную для обеспечения гарантированного контроля эффективности работы всех суперкомпьютерных приложений пользователей, на новых серверах для исследования динамических характеристик задач, выполняемых на суперкомпьютере «Ломоносов-2». В ходе выполнения работ производилась публикация полученных результатов по адресу http://parallel.ru/cluster/about. По результатам проведенных работ подготовлен «Отчет о выполненных работах» по первому этапу, отражающий полученные в ходе работ результаты в соответствии с Техническим заданием. Все задачи первого этапа выполнены в полном объеме и в установленный срок в соответствии с Соглашением. В результате выполнения работ по проекту, полученные результаты позволяют перейти к выполнению следующего, второго этапа работ. | ||
2 | 1 января 2018 г.-31 декабря 2018 г. | Этап 2 |
Результаты этапа: В соответствии с Техническим заданием и Планом-графиком исполнения обязательств на втором этапе выполнены следующие работы и получены следующие результаты. Первая группа работ в соответствии с Планом-графиком проведена за счет средств субсидии. 1. Организована закупка современного дорогостоящего научного оборудования. В рамках выполнения работ по Соглашению стартовали конкурсные процедуры в форме открытого аукциона: номер извещения – 31807378443, способ размещения закупки – СБ-АСТ: Открытый аукцион в электронной форме. Закупка 2-го комплекса оборудования для расширения центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова. Начальная (максимальная) цена договора составляет 60 000 000 рублей. Лот обеспечивает закупку следующего высокотехнологичного оборудования во исполнение Соглашения: • система хранения данных Panasas, • система хранения данных Dell/EMC, • система резервного копирования и архивации. 2. Обеспечено внедрение новых услуг. Внедрение новых услуг состоит в закупке и последующем предоставлении доступа к востребованному специализированному программному обеспечению. Для подготовки установки закупаемого ПО был проведён комплекс мероприятий. Все технические требования были проверены и удовлетворены. По части закупки ПО Crystal 14 стартовали конкурсные процедуры в форме открытого аукциона: номер извещения – 31807378427, способ размещения закупки – СБ-АСТ: Открытый аукцион в электронной форме. Закупка программного обеспечения для центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова. Начальная (максимальная) цена договора составляет 248 000 рублей. По части закупки ПО TeraChem стартовали конкурсные процедуры в форме открытого аукциона: номер извещения – 31807378424, способ размещения закупки – СБ-АСТ: Открытый аукцион в электронной форме. Закупка программы для центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова. Начальная (максимальная) цена договора составляет 448 086,67 рублей. По части закупки ПО TotalView стартовали конкурсные процедуры в форме открытого аукциона: номер извещения – 31807378441, способ размещения закупки – СБ-АСТ: Открытый аукцион в электронной форме. Закупка программ для центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова. Начальная (максимальная) цена договора составляет 1 506 333,67 рублей. Запланированное к покупке ПО BIOVIA Materials Studio в минимальной конфигурации, включающей необходимые к установке компоненты, выходит за рамки бюджета закупок ПО в рамках данного Соглашения, поэтому не может быть приобретено по соответствующией статье сметы. Но, принимая во внимание важность и востребованность данного ПО для пользователей Центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В. Ломоносова, было принято решение направить на покупку ПО BIOVIA Materials Studio часть средств по статье «Накладные расходы.». По части закупки ПО BIOVIA Materials Studio стартовали конкурсные процедуры в форме открытого аукциона: номер извещения – 31807378436, способ размещения закупки – СБ-АСТ: Открытый аукцион в электронной форме. Закупка неисключительных прав использования программного обеспечения (простая неисключительная лицензия) для центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В.Ломоносова. Начальная (максимальная) цена договора составляет 6 000 000 рублей. Анализ рынка показал невозможность приобретения запланированного программного обеспечения ПО CHARMM и ПО Amber за счет средств субсидии, в виду того, что эксклюзивные поставщики данного ПО CHARMM и ПО Amber не являются резидентами РФ, не имеют торговых представителей в России и не имеют счетов в банках на территории России. Таким образом, закупка указанного ПО возможна только путем перечисления средств на счета в зарубежные банки, что противоречит условиям расходования предоставленных по субсидии средств. 3. Проведены мероприятия, направленные на методическое и метрологическое обеспечение деятельности ЦКП. Система Octotron была введена в полномасштабную эксплуатацию на суперкомпьютере «Ломоносов-2» МГУ. Ранее система Octotron была развернута в пробном режиме, был организован базовый мониторинг основных системных компонентов суперкомпьютера, был подключен банк типичных неисправностей, а триггеры системы были адаптированы к архитектуре суперкомпьютера. Дальнейшая полномасштабная эксплуатация заключалась в корректировке модели суперкомпьютера, служащей одним из основных входных наборов данных для Octotron, добавлении данных мониторинга вычислительных узлов, и точной настройке параметров срабатывания триггеров, определяющих аварийные ситуации. Проведена автоматизация запуска агентов системы DiMMon на вычислительных узлах и отслеживания их состояния. Для этого разработан сценарий системного эпилога менеджера ресурсов SLURM. Этот сценарий выполняется при завершении работы вычислительных задач на всех узлах, выделенных этим задачам. При этом проверяется корректность текущей конфигурации агента системы DiMMon, и, в случае выявления некорректности, осуществляется перезапуск агента. Также поддерживается перезапуск по требованию, например, для изменения конфигурации. Была выполнена оптимизация базы данных и веб-сервера для параллельной обработки множества пользовательских запросов системы JobDigest для исследования динамических характеристик задач, выполняемых на суперкомпьютере «Ломоносов-2». Были разработаны методы визуализации аварийных ситуаций на суперкомпьютерах. Результатом стала разработка системы, способной отображать на трехмерной модели суперкомпьютера местоположение аварийных ситуаций (ошибок, сбоев и т.д.) в режиме реального времени. Проведено расширение набора датчиков системы DiMMon на основе модуля, использующего библиотеку PAPI. Для использования стало доступно 206 новых датчиков. В связи с аппаратными ограничениями одновременно возможно использовать только небольшое количество, поэтому был определен набор датчиков, который используется по умолчанию. Была проведена настройка средств автоматической ротации результатов работы системы DiMMon. Автоматически удаляются более неиспользуемые данные по выполненным задачам и файлы журналов агентов системы мониторинга, работающих на вычислительных узлах. Выполнен совместный анализ всего комплекса получаемых данных от разрабатываемых систем, что позволило найти и устранить узкие места в конфигурациях суперкомпьютерных систем, повышая эффективность обработки всего потока приложений. 4. Проведены мероприятия, направленные на повышение открытости, доступности и востребованности ЦКП/УНУ для третьих лиц. Была внедрена упрощенная модель доступа и использования оборудования ЦКП, в том числе на основании договора присоединения. Информация о об этом размещена на веб-странице ЦКП по адресу https://parallel.ru/cluster/about. Выполнено расширение спектра объектов управления системы управления доступом к Суперкомпьютерному комплексу МГУ имени М.В. Ломоносова Octoshell, таких как программные пакеты и аппаратное обеспечение. Для более тесной интеграции комплекса Octoshell с суперкомпьютерами МГУ были разработаны новые функциональные модули. Первый модуль нацелен на учёт программного обеспечения, установленного на суперкомпьютерах. Другой важный модуль системы Octoshell — учёт аппаратного обеспечения. Вторая группа работ в соответствии с Планом графиком проведена за счет собственных средств из внебюджетных источников. 5. Проведены мероприятия по подготовке кадров для ЦКП. Московский Государственный Университет имени М.В. Ломоносова, Суперкомпьютерный Консорциум университетов России, факультет ВМК МГУ, НИВЦ МГУ провели с 22 по 29 сентября 2018 года международную Летнюю Суперкомпьютерную Академию. В 2018 году на летней суперкомпьютерной Академии были представлены следующие учебные треки: "Технологии параллельного программирования MPI и OpeMP" (руководитель: А.С. Антонов), "Возможности открытых пакетов" (руководитель: С.В. Стрижак), "Квантовая информатика" (руководители: Ю.И. Ожигов и С.П. Кулик), "Высокопроизводительные вычисления на кластерах с использованием графических ускорителей NVIDIA", "Технологические вызовы на пути к экзаскейлу" (руководители: И.О. Одинцов, Г. Мармузов и Е. Тютляева) "Применение платформы Python для высокопроизводительных вычислений" (руководитель: А.В. Русол). В рамках международной конференции “Суперкомпьютерные дни в России” (24-25 сентября 2018 года) были проведены три тренинга: «Программные инструменты Интел для высокопроизводительных систем - практические приемы повышения масштабируемости» (22 участника), «Администрирование суперкомпьютеров» (32 участника), «Использование ПЛИС Xilinx в облачном сервисе Amazon на примере кодирования видео» (20 участников). В рамках деятельности кафедры “Суперкомпьютеры и квантовая информатика” факультета ВМК МГУ для бакалавров читаются курсы «Системы и средства параллельного программирования» (OpenMP и MPI), «Высокопроизводительная и распределенная обработка данных». В течение 2-х лет (на 3-м и 4-м курсах) бакалавры кафедры выполняют научные проекты в рамках курсовых и выпускных работ по различным научным направлениям, связанным с использованием ресурсов Центра коллективного пользования сверхвысокопроизводительными вычислительными ресурсами МГУ имени М.В. Ломоносова. На кафедре проводится обучение по магистерской программе «Суперкомпьютерные системы и приложения». Кафедра поддерживает чтение нескольких вариативных дисциплин по тематике параллельных вычислений: «Параллельные высокопроизводительные вычисления», «Параллельные методы решения задач», «Естественные модели параллельных вычислений», «Администрирование суперкомпьютеров». На кафедре СКИ читались следующие спецкурсы: «Параллельное программирование для многопроцессорных вычислительных систем», «Introduction to parallel programming with CUDA”, “Accelerated Computing with OpenCL on Altera FPGA”, “Neural Networks and their practical applications”. В рамках спецсеминара «Параллельные вычисления» в весеннем и осеннем семестрах 2018 года состоялись 8 заседаний. В рамках работы междисциплинарного научно-методического семинара МГУ “Суперкомпьютерные технологии в науке, образовании и промышленности” (руководитель семинара – ректор МГУ академик В.А.Садовничий) состоялись 13 заседаний с докладами по темам: "Моделирование процессов эмиссии с поверхности монокристалла и исследования эффектов фокусировки", "Моделирование процессов в наноразмерных атомных структурах под действием частиц низких энергий методом молекулярной динамики", "Региональное моделирование климата и экстремальных явлений погоды - использование суперкомпьютерных технологий", "Применение суперкомпьютерных расчетов в исследовании молекулярного механизма цинк-зависимой агрегации белка бета-амилоида при развитии болезни Альцгеймера", "Параллельное конечно-разностное электроразведочное 3D моделирование на основе специального преобразования, приводящего к системе со сжимающим оператором", "Численное моделирование турбулентности в астрофизических сдвиговых потоках", "Численное моделирование трехмерных волновых аттракторов во вращающихся средах", "Моделирование травления тренчей для межслойных соединений СБИС", "Метод событийного молекулярно-динамического моделирования для решения задач динамики разреженного газа", "Изучение взаимодействия антибиотиков с рибосомой методом моделирования молекулярной динамики", "Молекулярное моделирование биологических систем: от интерпретации к прогнозированию", "Системы с сопряженными ковалентными и водородными связями: особенности моделирования", "Модельные оценки переноса массы в Южной и центральной Атлантике с учетом данных наблюдений и применением гибридных методов усвоения данных", "Молекулярно-динамическое моделирование бактериальной рибосомы: методы и особенности", "Взаимодействие на "hard matter - soft matter" интерфейсе: молекулярная динамика", "Насколько хорошо можно предсказывать макроскопические свойства (макро)молекулярных систем с помощью мезоскопического компьютерного моделирования?", "Универсальная многосеточная технология для численного решения краевых и начально-краевых задач для уравнений математической физики", "Расчет структурных и термодинамических характеристик водных растворов биополимеров методом Монте-Карло. Проблемы и перспективы", "Мезоскопическое моделирование полимерных систем: от биологии до материаловедения", "Глобальная модель прогноза погоды ПЛАВ на системе Cray XC40", "Применение суперкомпьютеров для решения задач проектирования ракетно-космической техники", "Моделирование струйных течений на неструктурированных сетках с использование схем повышенной точности", "Реконструкция изображения глубинных неоднородностей земной среды по сейсмическим данным ("сейсмическая миграция")", "Квантово-химическое моделирование координационных соединений", "Технологии блокчейн: от науки до бизнеса". 6. Осуществлена вторая фаза создания междисциплинарного учебно-научного высокопроизводительного комплекса: параллельные вычисления, большие данные, глубокое обучение. Во исполнение обязательств по обеспечению внебюджетного софинансирования данного Соглашения на базе факультета ВМК МГУ создан Междисциплинарный учебно-научный высокопроизводительный комплекс “Параллельные вычисления, большие данные, глубокое обучение”. Руководителем комплекса назначен заведующий кафедрой Суперкомпьютеров и квантовой информатики ВМК МГУ, чл.-корр. РАН, профессор Вл.В.Воеводин, ответственным за эксплуатацию комплекса назначен заместитель декана по ИТ факультета ВМК МГУ А.В. Гуляев. На втором этапе выполнения проекта в 2018 году была выполнена поставка 2 этапа 2 дополнительного комплекта первой очереди вычислительного оборудования для суперкомпьютерного комплекса МГУ имени М.В.Ломоносова. Оплата данного комплекта оборудования произведена в два этапа согласно платёжным поручениям N 861222 от 30.03.2018 на сумму 97 000 000 руб. и N 39989 от 10.04.2018 на сумму 251 021 995 руб. 75 коп., суммарно на 348 021 995 руб. 75 коп. Поставка оборудования Акционерным обществом «Т-Платформы» подтверждена Актом сдачи-приемки поставленных товаров от 20 марта 2018 года. 7. В рамках работ по разработке новых методик измерения были разработаны 5 методик измерения: • методика выполнения измерений средней загрузки графических ускорителей при выполнении параллельной программы. • методика выполнения измерений использования сети ввода-вывода при выполнении параллельной программы. • методика выполнения измерений использования коммуникационной сети при выполнении параллельной программы. • методика выполнения измерений среднего использования памяти графического ускорителя при выполнении параллельной программы. • методика выполнения измерений используемого объема оперативной памяти при выполнении параллельной программы. В ходе выполнения работ производилась публикация полученных результатов по адресу http://parallel.ru/cluster/about. По результатам проведенных работ подготовлен «Отчет о выполненных работах» по второму этапу, отражающий полученные в ходе работ результаты в соответствии с Техническим заданием. Все задачи второго этапа выполнены в полном объеме и в установленный срок в соответствии с Соглашением, включая инициирование закупочных процедур. |
Для прикрепления результата сначала выберете тип результата (статьи, книги, ...). После чего введите несколько символов в поле поиска прикрепляемого результата, затем выберете один из предложенных и нажмите кнопку "Добавить".