Автор: Александр Антонов | Лаборатория Параллельных информационных технологий НИВЦ МГУ
Форма обучения:
дистанционная
Стоимость самостоятельного обучения:
бесплатно
Доступ:
свободный
Документ об окончании:
 
Уровень:
Специалист
Длительность:
8:05:00
Студентов:
1177
Выпускников:
410
Качество курса:
4.30 | 4.19
Технология MPI является основным средством программирования для кластерных систем и компьютеров с распределенной памятью, но может применяться также и на вычислительных системах других типов.
Курс включает в себя описание большинства основных процедур стандарта MPI-1.1 с примерами их применения и практические сведения, которые могут потребоваться при написании реальных программ. Основное описание ведется с использованием вызовов процедур MPI из программ на языке Фортран, однако указаны также основные отличия в использовании вызовов аналогичных функций из программ на языке Си.
Специальности: Программист
 

План занятий

Занятие
Заголовок <<
Дата изучения
Лекция 1
15 минут
Основные понятия
В данной лекции можно познакомиться в общих чертах с наиболее распространенной технологией программирования для параллельных компьютеров с распределенной памятью
Оглавление
    -
    Лекция 2
    13 минут
    Общие процедуры MPI
    В данной лекции остановимся на общих процедурах MPI, не связанных с пересылкой данных. Большинство процедур, описанных в этой лекции, необходимы практически в каждой содержательной параллельной программе
    Оглавление
      -
      Лекция 3
      1 час 13 минут
      Передача/прием сообщений между отдельными процессами
      Практически все программы, написанные с использованием коммуникационной технологии MPI, должны содержать средства для взаимодействия запущенных процессов между собой, которое осуществляется посредством явной посылки сообщений. Об этом подробнее поговорим в этой лекции
      Оглавление
        -
        Лекция 4
        38 минут
        Коллективные взаимодействия процессов
        В данной лекции поговорим о коллективных взаимодействиях процессов, а также рассмотрим какие операции используются для коллективного взаимодействия процессов и в каких случаях
        Оглавление
          -
          Лекция 5
          29 минут
          Группы и коммуникаторы
          В MPI существуют широкие возможности для операций над группами процессов и коммуникаторов. В каком случае могут быть применимы данные операции? Какие операции можно совершать над группами процессов, а какие над коммуникаторами? Об этом поговорим в этой лекции
          Оглавление
            -
            Лекция 6
            29 минут
            Виртуальные топологии
            В этой лекции мы рассмотрим механизм сопоставления процессам некоторого коммуникатора альтернативной схемы адресации, либо виртуальные топологии.Какие типы топологий предусмотрены в MPI, в каких случаях они используются и т.д
            Оглавление
              -
              Лекция 7
              27 минут
              Пересылка разнотипных данных
              Часто в программах требуются пересылки более сложных объектов данных,состоящих из разнотипных элементов. Возможна ли пересылка разнотипных данных в MPI, какие способы используются для пересылки таких данных, с помощью каких процедур это возможно?
              Оглавление
                -
                1 час 40 минут
                -