Компания IBM
Опубликован: 01.02.2008 | Доступ: свободный | Студентов: 612 / 22 | Оценка: 4.60 / 4.40 | Длительность: 43:55:00
Специальности: Разработчик аппаратуры

Лекция 18: Понятия и конфигурирование GLVM

Аспекты производительности

Хотя это и не относится к теме данной книги, при планировании конфигурации GMVG необходимо учитывать следующее:

  1. Согласование операций записи зеркальных отображений. Можно отключить согласование операций чтения-записи зеркальных отображений для повышения производительности, однако при перезагрузке после отказа необходимо выполнить команду syncvg -f, прежде чем можно будет получить доступ к логическому тому. Логический том может быть установлен:
    1. Как активный. Используется по умолчанию для зеркального логического тома. Обеспечивает быстрое восстановление после отказа системы (не требует выполнения команды syncvg -f после перезагрузки). Это может вызвать проблемы с производительностью при выполнении операций записи.
    2. Как пассивный. Отсутствуют проблемы с производительностью при выполнении операций записи и не требуется выполнение команды syncvg -f после перезагрузки. При этом выполняется фоновая ресинхронизация всех разделов, если обнаруживается, что система не была остановлена постепенно (gracefully).
  2. Политики планирования LVM. Для зеркальных логических томов определено четыре политики чтения-записи:
    1. Параллельная. Выполняется балансировка операций чтения по физическим томам (они направляются на устройство с самой короткой очередью), операции записи направляются на физические устройства параллельно (т. е. одновременно).
    2. Последовательная. Операции чтения выполняются с основной копии, и операции записи выполняются последовательно (т. е. одна копия за другой).
    3. Параллельная запись, последовательное чтение. Операции чтения осуществляются с основной копии, а операции записи направляются на все физические тома параллельно.
    4. Параллельная запись, циклическое чтение. Операции чтения выполняются с каждой копии по очереди, а операции записи направляются на все физические тома параллельно.
  3. Проверка записи. Возможны два варианта:
    1. Yes (Да). После всех операций записи на логический том выполняются операции чтения.
    2. No (Нет). Проверка операций записи не выполняется.

Для групп томов GMVG нужно учитывать следующее:

  1. Согласование операций записи зеркальных отображений. Мы рекомендуем оставить согласование операций записи зеркальных отображений в активном состоянии, так как отказ узла вызовет синхронизацию всего логического тома. Однако если пропускная способность сети и размеры логических томов позволяют, следует рассмотреть вариант использования пассивного режима.
  2. Политики планирования LVM. Рекомендуется использовать заданную по умолчанию параллельную политику, так как разработчики LVM сделали небольшое изменение для групп томов GMVG. Изменение состоит в том, что, если доступны физические тома, LVM пытается выполнить чтение с локальной копии, а не с RPV.
  3. Проверку записи. Настоятельно рекомендуется оставить выключенной, как и задано по умолчанию.

Устранение неполадок

  • В отличие от HAGEO журнал syslog содержит очень мало данных – одно трассируемое событие (trace hook 4A6).
  • Снимок HACMP содержит выходные данные команд lsrpvserver -H и lsrpvclient -H в файле .info.
  • snap -g содержит конфигурации RPV-сервера и клиента.
  • general.snap – наборы файлов; атрибуты RPV-сервера и RPV-клиентов.
  • CuAt – содержит информацию об имени удаленного сайта.

Пример 18.1 содержит свойства RPV-сервера.

frigg:/# Isattr -El   rpvserverO
auto_online rt	Configure at System Boot     True
client_addr 192.168.101.74	Client IP Address	True
client_addr 192.168.101.73	Client IP Address	True
rpvs_pvid      0022be2aal3f292e0000000000000000 Physical  Volume Identifier True
frigg:/# Isattr -El   hdisk7
io_timeout    180	I/O Timeout  Interval	True
local_addr    10.1.101.192	Local   IP Address	True
pvid	0022be2aal3dc0720000000000000000 Physical  Volume Identifier True
server_addr none	Server IP Address	True
Пример 18.1. Проверка свойств RPV-сервера

Ниже также представлен пример фрагмента информации об ошибках RPV (пример 18.2).

odin:/# lsrpvserver -H
#	RPV Server   Physical Volume Identifier     Physical Volume
#							
rpvserverO   O022be2aal3dcO72	hdiskZ
odin:/# lsrpvclient -H
#	RPV Client   Physical Volume Identifier    Remote Site
#			
hdisk6      0022be2aal3f292e	Munchen
LABEL:        RPVC_10_TIMEOJT IDENTIFIER:    D034B795
Date/Time:	Thu Jul 14 15:48:03 2005
Sequence Number:	16314
Machine Id:	OO2574O04C0O
Node Id:	frigg
Class:	U
Type:	PERM
Resource Name:	hdisk7
Resource Class:	disk
Resource Type:	rpvclient
Location:
VPD:
Description
No response from RPV server within I/O timeout interval.
Probable Causes
RPV server is down or not reachable.
Failure Causes
There is a problem with the data mirroring network. The node or site which hosts the RPV server is down. RPV server is not configured in the Available state.
Recommended Actions
Correct the problem which has caused the RPV server to be down or not reachable. Then, tell the RPV client to resume communication with the RPV server by running the coirenand:
chdev -1 <device> -a resume=yes where <device> is the name of this RPV client device.
Пример 18.2. Образец информации об ошибках RPV

Этапы миграции с HAGEO на GLVM

Установка пакета для GLVM. Выберите следующие пакеты с установочного носителя:

  • cluster.doc.en_US.glvm.html,
  • cluster.doc.en_US.glvm.pdf,
  • cluster.xd.glvm,
  • glvm.rpv.client,
  • glvm.rpv.server,
  • glvm.rpv.util.
  1. Начинаем с постепенной остановки служб кластера на узле frigg. Это остановит устройства GeoMirror на удаленном сайте Munchen:
    smitty clstop
    Подождите, пока службы кластера не будут остановлены на удаленном узле. Устройства GeoMirror будут находиться в состоянии "Defined". Экспортируйте определение группы томов GMD на узле frigg:
    exportvg vg01
    Эта операция удаляет определение группы томов из ODM и удаляет разделы файловых систем из /etc/filesystems. Сконфигурируйте среду RPV-сервера. Выполните следующие действия с RPV-сервера.
  2. Назначение имени сайта удаленного зеркального отображения. На узле frigg выберите smitty rpvserver -> Remote Physical Volume Server Site Name Configuration (Настройка имени сайта сервера удаленных физических томов) -> Define / Change / Show Remote Physical Volume Server Site Name (Определение / Изменение / Вывод имени сайта сервера удаленных физических томов). Определите имя сайта, как в определении сайта в HACMP. Для определения сайта можно использовать команду rpvsitename:
    /usr/sbin/rpvsitename -a 'Munchen'
  3. В меню Remote Physical Volume Servers (Серверы удаленных физических томов) выберите Add Remote Physical Volume Servers (Добавление серверов удаленных физических томов), чтобы определить RPV-серверы, связанные с целевыми дисками для зеркального отображения. После выбора целевых дисков укажите IP-адрес RPV-клиента, как в примере 18.3.
    Add Remote Physical Volume Servers
    Type or select values in entry fields.
    Press Enter AFTER making all   desired changes.
    [Entry Fiel ds]
    Physical  Volume Identifiers	0022be2aal3f292e
    * Remote PV Client Internet Address	
      [192.l01.101.73, 192.101.101.74]
    +
    Configure Automatieally at System Restart?	[no] +
    Start Hew Devices Immediately?	[yes] +
    Fl=Help	F2=Riefresh	F3=Cance1	F4=List
    F5= Reset	F6=Command	F7=Edit	F8=Image
    F9=Shell	F10=Exit	Enter=Do
    Пример 18.3. Добавление RPV-сервера

    При использовании командной строки используйте команду mkdev, как в примере 18.4:

    frigg;/# /(usr/sMn/mlrdev -с rpvserver -s rpvserver 
    -t rpvstype \ >-a гpYS_pvid='0022Ьe2aalЗf292e' 
     -a client addr='192.168.101.73,\ 192.16a.101.741'   
     -a auto_online-V
    rpvserverO Available
    Пример 18.4. Добавление RPV-сервера из командной строки
    Повторите действия пп. 1 и 2 для второго RPV. Используйте lsrpvserver для вывода списка определенных RPV-серверов, как показано в примере 18.5.
    friggt/K lsrpvserver _ц
    #  RPV Server   Physical Volume Identifier    Physical Volume
      	
    #rpv serverO	0022beЈddl3fЈ9Јe	hdiskl
    frigg:/# lsattr -El  rpvserverO
    auto_onl1ne n	Configure at System Boot     True
    client_addr 192.168.101.73	Client JP Address	True
    cHent_addr 192.168.101.74	Client IP Address	True
    rpvs_pvid     0022be2eel3f292eO00OO000O000O000	Physical Volume Identifier True
    Пример 18.5. Вывод списка RPV-серверов
    Сконфигурируйте RPV-клиенты. Выполните следующие действия на каждом клиенте.
  4. Выберите smitty rpvclient -> Add Remote Physical Volume Clients (Добавление клиентов удаленных физических томов). Укажите IP-адрес RPV-сервера и локальный IP-адрес, используемые для репликации данных. Затем выберите удаленный диск из списка, как показано в примере 18.6.
    Add Remote Physical   Volume Clients
    Type or select values in entry fields.
    Press Enter AFTER making all desired changes.
    [Entry Fields]
    Remote  Physical  Volume Server  Internet Address	10.1.101.192
    Remote Physical Volume Local   Internet Address	192.168.101.74
    PV Identifiers	0022be2aal3f292e0000000000000000
    I/O Timeout Interval   (Seconds)	[180] i
    Start New Devices Immediately?	[yes] +
    Fl=Help	F2=Refresh	F3=Cancel	F4=List
    F5=Reset	F6=Command	F7=Edit	F8=Image
    F9=Shell	F10=Exit	Enter=Do
    Пример 18.6. Добавление RPV-клиента
    При использовании командной строки см. пример 18.7:
    thor:/# /usr/sbin/mkdev -с disk -s remotedisk -t rpvclient \ >-a pvid='0022be2aal3f292e' -a server_addr='10.1.101.192' \
    >-a local_addr='192.168.101.73' -a io_timeout='180' hdisk6 Available
    thor:/# lsattr -El hdisk6
    io_timeout 180	I/O Timeout Interval     True
    local_addr 192,168.101,73	Local IP Address       True
    pvid     0022be2aal3f292e0000000000000000	Physical Volume Identifier True
    server_addr 10.1.1.192	Server IP Address       True
    Пример 18.7. Добавление RPV-клиента из командной строки
    К этому моменту на клиенте созданы дисковые устройства, которые можно использовать для интеграции в группу томов и определения зеркальных отображений логических томов. Используйте команду lsrpvclient для вывода списка определенных клиентских RPV. На уровне операционной системы они определяются как обычные жесткие диски. Команды LVM, употребляемые для локальных томов, применяются и к RPV. Пример 18.8 содержит выходные данные команды lsdev.
    thor:/# lspv
    hdiskO	0022be2a80b97feb	rootvg      active
    hdiskl	none	None
    hdisk2	0022be2aal3dc072	vgOl        concurrent
    hdisk3	0022be2aal3ea83e	vg02        concurrent
    hdisk4	none	None
    hdiskS	none	None
    hdisk6	0022be2aal3f292e	None
    Пример 18.8. Вывод списка физических томов, определенных на узле thor
    Примечание. PVID RPV-клиента соответствует PVID удаленного диска.
    Повторите действия пп. 1–3 для создания обратной пары RPV, связывающей RPVсервер для локального диска на узле thor с RPV-клиентом на узле frigg. Повторите те же действия на узле odin, используя odin_geo1 в качестве локального адреса связи. Определение зеркального отображения LVM
  5. Выполните расширение группы томов, содержащей основные данные с определенными RPV. Используйте меню GLVM в SMIT для расширения группы томов. Выполните smitty glvm_vg -> Add Remote Physical Volumes to a Volume Group (Добавление удаленных физических томов в группу томов) или используйте команду extendvg:
    extendvg vg01 hdisk6
  6. Создайте зеркальное отображение группы томов, содержащей RPV.
    Примечание. Перед миграцией логического тома необходимо установить политику размещения "super strict". Используйте команду chlv -s s < lv_name> -u <upper_ bound>, чтобы изменить политику размещения на "super strict". Дополнительные сведения см. в документации по команде chlv.
    В примере 18.9 представлено изменение логических томов ulv11_log и ulv11:
    thor:/# chlv -s	s -u 2  ulvll_1og
    thor:/# lslv ulvlllog
    LOGICAL VOLUME:	ulvlljog	VOLUME GROUP:	vgOl
    LV IDENTIFIER:	O022be2aO0OO4cO0O0000104d52d0c6d.l PERMISSION:
    read/write
    VG STATE:	active/complete	LV STATE:	opened/syncd
    TYPE:	jfs21og	WRITE VERIFY:	off
    MAX LPs:	512	PP SIZE:	16 megabyte(s)
    COPIES:	1	SCHED POLICY:	parallel
    LPs:	1	PPs:	1
    STALE PPs:	О	БВ POLICY:	relocatable
    INTER-POLICY:	minimum	RELOCATABLE:   yes
    INTRA-POLICY;	middle	UPPER BOUND:   2
    MOUNT POINT:	N/A	LABEL:       None
    MIRROR WRITE CONSISTENCY: on/ACTIVE
    EACH LP COPY ON	A SEPARATE PV ?: yes (superstrict)
    Serialize 10 ?:	NO
    thor:/# chlv -s	s -u 2 ulvll
    thor:/# 1 siv ulvll
    LOGICAL VOLUME:	ulvll	VOLUME GROUP:  vgOl
    LV IDENTIFIER:	0022be2a00004c0000000104d52d0c6d.2 PERMISSION:
    read/write
    VG STATE:	active/complete	LV STATE:     opened/syncd
    TYPE:	jfs2	WRITE VERIFY:  off
    MAX LPs:	512	PP SIZE:      16 megabyte(s)
    COPIES:	1	SCHED POLICY:  parallel
    LPs:	10	PPs:         10
    STALE PPs:	О	ВВ POLICY:            relocatable
    INTER-POLICY:	minimum	RELOCATABLE:        yes
    INTRA-POLICY:	middle	UPPER BOUND:        2
    MOUNT POINT:	N/A	LABEL:                     /appOl
    MIRROR WRITE CONSISTENCY: on/ACTIVE
    EACH LP COPY ON	A SEPARATE PV ?: yes  (superstrict)
    Serialize 10 ?:	NO
    thor:/#
    Пример 18.9. Изменение логических томов
    Выполните зеркальное отображение группы томов, выбрав smitty glvm_vg -> Add a Remote Site Mirror Copy to a Logical Volume (Добавление зеркальной копии удаленного сайта в логический том). Можно использовать команду mirrorvg для зеркального отображения группы томов или команду mklvcopy для зеркального отображения логических томов, например:
    /usr/sbin/mklvcopy -s's' ulv11_log 2 hdisk6
    Проверьте состояние группы томов и логических томов с использованием команды lsvg, как показано в примере 18.10:
    thor;/#   lsvg	-p vgOl
    vgOl:
    PV_HAME	PY STATE	TOTAL PPs      FREE PP5        FREE DISTRIBUTION
    hd1sk2	active	639	476	128..00..92..128..US
    hdiste	active	639	478	138..02..92..126..120
    thor:/* livg	-1 vgOl
    vgOl:
    LV NAME	TYPE	LPs      PPs	PVs    LV STATE	HOJNT РОШ
    ulvlljog	jfsZlag	1	2	2        Dpen/syncd        H/A
    ulvll-	Jfs2	160     320	2       open/stale       N/A
    ulvll_sm	statemap	1	1	1       ореп/tyned       NM
    ulvll log sm	statemap	111        open/syncd        N/A
    Пример 18.10. Использование команды lsvg для запроса состояния зеркальных отображений логических томов
  7. Выполните постепенную остановку служб кластера на локальном узле через меню smitty clstop. Проверьте корректность остановки обработки ресурсов кластера. Используйте команду lsgmd, чтобы убедиться в том, что GMD находятся в состоянии "Defined".
  8. На каждом узле в кластере измените определение файловой системы в файле /etc/ filesystems, чтобы использовать обычные логические тома, а не GMD (пример 18.11).
    /appOl:
    dev	=	/dev/ulvll
    vfs	=	jfs2
    log	=	/dev/ulvll_log
    mount	=	false
    check	=	false
    account	=	false
    Пример 18.11. Изменение файловых систем для работы с логическими томами
    Важно! Если изначально файловые системы создавались с использованием команды crfs, происходит обновление контрольного блока логического тома (logical volume control block, LVCB) информацией файловой системы, так что каждая команда importvg обновляет файл /etc/filesystems. Проверку данных LVCB можно выполнить с применением команды getlvcb -AT <lv_name>. Если был создан fleshiest over GMD с использованием команды mkfs, команда importvg не обнов-ляет информацию fleshiest в файле /etc/filesystem.
  9. Изменение определений топологии и ресурсов HACMP для использования GLVM.
    Примечание. HACMP/XD HAGEO не поддерживает динамическую конфигурацию. Для изменения конфигурации кластера необходимо остановить службы кластера. HACMP/XD GLVM поддерживает динамическую реконфигурацию, если только не установлен HAGEO.
    Для интеграции групп томов GLVM в HACMP требуется убедиться в том, что осуществляется репликация каждого логического тома. Если группы томов с географическим зеркальным отображением содержат нереплицируемые логические тома, HACMP выдает сообщение об ошибке.
  10. Реконфигурация топологии кластера.
  11. Измените тип сети с Geo_Primary на XD_data. На момент публикации этой книги использование двух сетей XD_data не поддерживалось. В кластере могут быть одновременно сконфигурированы GMD и RPV. Однако ресурсы GMD и RPV не могут входить в одну группу ресурсов. Если у вас имеется две сети Geo_Primary, можно оставить вторую сеть для непреобразованных GMD. Пример 18.12 показывает преобразование первой сети Geo_Primary в тип XD_data.
    Change/Show an IP-Based Network in the HACMP Cluster
    Type or select values in entry fields.
    Press Enter AFTER making all   desired changes.
    [Entry Fields]
    *	Network Name	net_Geo_Primary_01 New Network Name	[XD_data_net_01]
    *	Network Type	[XD_data]+
    *	Netmask	[255.255.255.0]+
    *	Enable IP Address	Takeover via IP Aliases                   N0+ IP Address Offset	for Heartbeating over IP Aliases            П
    *	Network attribute	public*
    Fl=Help	F2=Refresh	F3=Cancel	F4=List
    F5=Reset	F6=Comnand	F7=Edit	F8=Image
    F9=Shell	F10=Exit	Enter=Do
    Пример 18.12. Преобразование сети HAGEO в сеть XD_data
    Примечание. При изменении атрибута сети Geo_Primary с private на public, необходимо удалить и заново создать сеть.
  12. Синхронизация топологии кластера.
  13. Изменение групп ресурсов для интеграции RPV. Не требуется конфигурировать специальные ресурсы для использования RPV в кластере. На данном этапе следует удалить определения GMD из групп ресурсов (пример 18.13).
    Change/Shaw All fiesouгее* and Attributes for a Resource Group
    Type or select values in entry fields.
    Press Enter AFTER making all desired changes.
    [Entry Fields]
    Resource Group Name	"pp01_r9
    tnter-site Management Policy	Prefer Primary Site
    Participating Nodes from Primary Site	thDr Ddin
    Participating Nodes from Secondary Site	frigg
    Startup Policy	Online On Hume Node Only
    Fa4over Policy	Fa 11 over To Next Priority
    Node In The List
    Fan bade Policy	Fallback то Higher
    Priority Node In The Li>
    Fallback Timer Policy (empty is immediate)	[]	+
    Service IP Labels /Addresses	[]	+
    Application Servers                                                      [ai:uOI_srv]	+
    Volume Groups                                                                            [vgOl ]	+
    Use forced varyon of volume groups,  if necessary       true	+
    Automatically  Import Volume Groups                                    false	+
    Filesystems (empty is ALL for VGs specified)              f/appOl  ]	+
    Filesystems Consistency Check                                         fsck	+
    Filesystems Recovery Method                                          sequential	+
    Fllesystems mounted before IP configured                    false	+
    Filesystems/Directories to Export                                	+
    F11 esystems/01rectories to NFS Mount                          []
    Network For NFS Mount                                                         []	+
    Tape Resources                                                               []	+
    Raw Disk PVIDs                                                                              []	+
    Fast Connect Services                                                            []	+
    Communic.ition Links                                                                []	+
    Primary Workload Manager Class                                          []	+
    Secondary workload Manager Class                                	+
    Miscellaneous Data                                                           []
    GeoMirror Devices	+
    Fl=nelp	FZ=Refresh	F3=cancel	F4=Llst
    F5=Reset	F6=coinmaria	F7=Edit	F3= image
    F9-snell	F10=Exit	Enter=Do
    Пример 18.13. Определение группы ресурсов в HACMP
  14. Синхронизация определения кластера по узлам.
  15. Запуск кластера на узлах.