Компания IBM
Опубликован: 01.02.2008 | Доступ: свободный | Студентов: 612 / 22 | Оценка: 4.60 / 4.40 | Длительность: 43:55:00
Специальности: Разработчик аппаратуры

Лекция 6: Сценарий: добавление двух узлов в кластер

< Лекция 5 || Лекция 6: 1234 || Лекция 7 >
Аннотация: Эта лекция содержит пример изменения конфигурации кластера с двухузловой на четырехузловую. В данной лекции представлена пошаговая процедура добавления новых узлов и групп ресурсов с последующим тестированием кластера: описание первоначальной двухузловой конфигурации кластера с использованием таблиц планирования HACMP; новая четырехузловая конфигурация кластера с указанием дополнительных устройств и ресурсов; подробное описание конфигурации мониторинга пульса через диски; подробное пошаговое руководство по изменению конфигурации кластера в активном состоянии. Предполагается, что вы уже прочли лекции, посвященные планированию, установке и конфигурированию кластера HACMP, в частности лекцию 3, "Планирование" и лекцию 4, "Сценарии установки кластера". При необходимости рекомендуем обращаться к руководству по администрированию HACMP. В этой лекции нет описания всех функций HACMP; вместо этого мы сосредоточились на описании изменения конфигурации кластера в активном состоянии. Мы хотим показать вам, как можно безопасно изменять конфигурацию HACMP.

Конфигурация из двух узлов

В этом разделе описывается конфигурация первоначального кластера из двух узлов с использованием таблиц, подобных применяемым при планировании кластера HACMP. Конфигурация кластера изображена на рис. 6.1. Основные особенности двухузлового кластера следующие:

  • два узла;
  • одна открытая (public) Ethernet-сеть (net_ether_01) с перехватом IP-адреса посредством синонимов;
  • два базовых IP-адреса и один сервисный адрес на узел;
  • одна сеть пульса через диски (net_diskhb_01) для соединения без IP;
  • на каждом узле выполняется одно приложение в конфигурации взаимного перехвата;
  • одна общая группа томов на узел;
  • резервные подключения Fibre Channel.
Конфигурация из двух узлов

Рис. 6.1. Конфигурация из двух узлов

Топология кластера

Сведения о конфигурации топологии кластера:

Имя кластера: clto24.
Имя узла 1: p650n01.
Имя узла 2: p650n02.

В кластере используется одна IP-сеть и одна сеть пульса через диски, отличная от IP. Также применяется перехват IP-адреса посредством синонимов. Конфигурация сети представлена в табл. 6.1.

Таблица 6.1. Конфигурация сетей
Имя сети Тип сети Маска сети IPAT посредством синонимов
net_ether_01 ethernet (открытая) 255.255.255.0 Включен
net_diskhb_01 Сеть пульса через диски Неприменимо Неприменимо

В табл. 6.2 представлена конфигурация сетевых интерфейсов. Каждый узел содержит два сетевых адаптера, и каждый интерфейс содержит один базовый IP-адрес. Кроме того, имеется два сервисных адреса, по одному для каждой группы ресурсов.

Таблица 6.2. Сетевые интерфейсы
IP-метка Сетевой интерфейс Функция интерфейса IP-адрес
node1b1 en0 Базовый на p650n01 192.168.100.51
node1b2 en1 Базовый на p650n01 192.168.145.51
p650n011Как видно из этого примера, желательно использовать "значимые" сервисные IP-метки, так как из названия, указанного здесь, понять, что она относится к группе ресурсов rg1 (в свою очередь, отвечающей за приложение DB2), невозможно. Подобные названия зачастую увеличивают время поиска и устранения неисправности. Имя p650n01 в данном примере больше подходит для постоянной IP-метки. Сервисный 192.168.147.51
node2b1 en0 Базовый на p650n02 192.168.100.52
node2b2 en1 Базовый на p650n02 192.168.145.52
p650n02 Сервисный 192.168.147.52

Кластер имеет одну сеть пульса через диски, которая включает одну группу томов с возможностью расширенного одновременного доступа (enhanced concurrent capable volume group). Этот диск используется только для мониторинга пульса. ( табл. 6.3).

Таблица 6.3. Конфигурация сети пульса через диски
Имя сети Первый узел Второй узел Имя устройства Имя группы томов
net_diskhb_01 p650n01 p650n02 vpath4 c12vg
Примечание. Для согласованности мы используем одинаковую нумерацию устройств vpath на всех узлах, поэтому на обоих узлах устройства vpath имеют одинаковое имя.

Ресурсы кластера

Далее описывается, какие ресурсы необходимы для выполнения наших приложений в HACMP.

Наш кластер имеет два приложения. В обычных условиях приложение DB2 выполняется на узле p650n01, тогда как приложение Development выполняется на узле p650n02. Узлы работают в традиционной конфигурации со взаимным перехватом. Каждое приложение имеет собственную группу томов: db2vg и devvg соответственно.

Конфигурация общих групп томов и файловых систем

В табл. 6.4 представлена конфигурация общих групп томов.

Таблица 6.4. Конфигурация общих групп томов
Имя группы томов Vpath на p65 0n01 Vpath на p65 0n02 Старший номер устройства
db2vg vpath0 vpath0 45
devvg vpath1 vpath1 46

Табл. 6.5 содержит подробную конфигурацию файловых систем в группе томов db2vg.

Таблица 6.5. Конфигурация файловых систем первой группы томов
Имя группы томов db2vg
Файловая система 1 /db2data
Файловая система 1 – логический том /dev/db2datalv
Файловая система 1 – том журнала jfs /dev/db2loglv
Файловая система 2 /db2archiv
Файловая система 2 – логический том /dev/db2arclv
Файловая система 2 – том журнала jfs /dev/db2loglv

Табл. 6.6 содержит конфигурацию файловых систем в группе томов devvg.

Таблица 6.6. Конфигурация файловых систем второй группы томов
Имя группы томов devv g
Файловая система 1 /develop
Файловая система 1 – логический том /dev/devlv
Файловая система 1 – том журнала jfs Встроенный журнал2Здесь и далее в примерах в этой лекции встроенный журнал (inline log) допустим только при использовании файловой системы JFS2.
Файловая система 2 /tools
Файловая система 2 – логический том /dev/toolslv
Файловая система 2 – том журнала jfs Встроенный журнал
Таблица 6.7. Конфигурация серверов приложений
Конфигурация серверов приложений Скрипт запуска Скрипт остановки
DB2 /usr/ha/start.db2 /usr/ha/stop.db2
Development /usr/ha/start.development /usr/ha/stop.development

Группы ресурсов

Мы создали две группы ресурсов. Каждая группа ресурсов содержит один сервер приложений, один сервисный IP-адрес и требуемую группу томов. Табл. 6.8 содержит подробную конфигурацию группы ресурсов.

Таблица 6.8. Конфигурация групп ресурсов
Имя ресурса rg1Безусловно, напрямую это не влияет на функционирование кластера, но ресурсные группы гораздо нагляднее называть по имени приложений, например здесь – db2rg и devrg (по аналогии с упомянутыми в этой лекции группами томов и другими ресурсами). Такие названия помогают обслуживающему персоналу быстрее разобраться в ситуации в случае возникновения проблем3 rg2
Имена узлов-участников p650n01, p650n02 p650n02, p650n01
Политика запуска Подключение только на домашнем узле (Online On Home Node Only) Подключение только на домашнем узле (Online On Home Node Only)
Политика перемещения при сбое Перемещение при сбое на узел из списка со следующим приоритетом (Fallover To Next Priority Node In The List) Перемещение при сбое на узел из списка со следующим приоритетом (Fallover To Next Priority Node In The List)
Политика возврата после восстановления Возврат после восстановления на узел с более высоким приоритетом в списке (Fallback To Higher Priority Node In The List) Возврат после восстановления на узел с более высоким приоритетом в списке (Fallback To Higher Priority Node In The List)
Политика динамического приоритета узлов
Порядок обработки Параллельная Параллельная
Сервисные IP-метки p650n01 p650n02
Серверы приложений db2 development
Группы томов db2vg devvg
Использование принудительной активизации групп томов при необходимости Нет Нет
Автоматический импорт групп томов Нет Нет
Файловые системы ВСЕ ВСЕ
Проверка согласованности файловой системы fsck fsck
Метод восстановления файловой системы Последовательный Последовательный
Подключение файловых систем перед конфигурированием IP Нет Нет
Файловые системы/каталоги для экспорта
Файловые системы/каталоги для NFS-подключения
Сеть для NFS-подключения
Основной класс WLM
< Лекция 5 || Лекция 6: 1234 || Лекция 7 >