Автор: Александр Антонов | Лаборатория Параллельных информационных технологий НИВЦ МГУ
Форма обучения:
дистанционная
Стоимость самостоятельного обучения:
бесплатно
Стоимость обучения с персональным тьютором:
500 руб. [?]
Доступ:
свободный
Документ об окончании:
 
Уровень:
Специалист
Длительность:
8:05:00
Студентов:
851
Выпускников:
180
Качество курса:
4.30 | 4.19
Технология MPI является основным средством программирования для кластерных систем и компьютеров с распределенной памятью, но может применяться также и на вычислительных системах других типов.
Курс включает в себя описание большинства основных процедур стандарта MPI-1.1 с примерами их применения и практические сведения, которые могут потребоваться при написании реальных программ. Основное описание ведется с использованием вызовов процедур MPI из программ на языке Фортран, однако указаны также основные отличия в использовании вызовов аналогичных функций из программ на языке Си.
Специальности: Программист
 

План занятий

Занятие
Заголовок <<
Дата изучения
Лекция 1
15 минут
Основные понятия
В данной лекции можно познакомиться в общих чертах с наиболее распространенной технологией программирования для параллельных компьютеров с распределенной памятью
-
Лекция 2
13 минут
Общие процедуры MPI
В данной лекции остановимся на общих процедурах MPI, не связанных с пересылкой данных. Большинство процедур, описанных в этой лекции, необходимы практически в каждой содержательной параллельной программе
-
Лекция 3
1 час 13 минут
Передача/прием сообщений между отдельными процессами
Практически все программы, написанные с использованием коммуникационной технологии MPI, должны содержать средства для взаимодействия запущенных процессов между собой, которое осуществляется посредством явной посылки сообщений. Об этом подробнее поговорим в этой лекции
-
Лекция 4
38 минут
Коллективные взаимодействия процессов
В данной лекции поговорим о коллективных взаимодействиях процессов, а также рассмотрим какие операции используются для коллективного взаимодействия процессов и в каких случаях
-
Лекция 5
29 минут
Группы и коммуникаторы
В MPI существуют широкие возможности для операций над группами процессов и коммуникаторов. В каком случае могут быть применимы данные операции? Какие операции можно совершать над группами процессов, а какие над коммуникаторами? Об этом поговорим в этой лекции
-
Лекция 6
29 минут
Виртуальные топологии
В этой лекции мы рассмотрим механизм сопоставления процессам некоторого коммуникатора альтернативной схемы адресации, либо виртуальные топологии.Какие типы топологий предусмотрены в MPI, в каких случаях они используются и т.д
-
Лекция 7
27 минут
Пересылка разнотипных данных
Часто в программах требуются пересылки более сложных объектов данных,состоящих из разнотипных элементов. Возможна ли пересылка разнотипных данных в MPI, какие способы используются для пересылки таких данных, с помощью каких процедур это возможно?
-
1 час 40 минут
-
Александр Качанов
Александр Качанов
Япония, Токио
Евгений Жуков
Евгений Жуков
Россия