Здравствуйте, коллеги!
Я прохожу курс “от 0 до Linux админа” на yodo.im и столкнулся с проблемой при тестировании кластера Pacemaker/Corosync + DRBD (Active/Passive) на двух узлах. У меня такой сценарий: Node 1 — Primary, Node 2 — Secondary, с предпочтением местоположения на Node 1, равным 50.
Столкнулся с ситуацией:
- Симулирую сбой на Node 1, и ресурсы успешно переходят на Node 2.
- Запускаю большую передачу файла (SCP) на точку монтирования DRBD на Node 2.
- Возвращаю Node 1 в строй.
- Pacemaker сразу же переносит ресурсы обратно на Node 1.
Результат: передача SCP на Node 2 прервалась, в результате чего на диске оказался частично повреждённый файл.
Вопросы:
- Такое поведение ожидаемо? (Неужели Pacemaker не учитывает активные пользовательские сессии или задания?)
- Как настроить кластер так, чтобы ресурсы оставались на Node 2 до завершения синхронизации? При этом моя задача заключается в том, чтобы Node 1 всегда оставался главным узлом.
- Существует ли риск повреждения файловой системы или дело только в прерывании транзакций?
Конфигурация кластера:
- stonith-enabled=false (да, осознаю, что это плохо, но сейчас тестирую)
- default-resource-stickiness=0
- Location Constraint: Resource prefers node1=50
Буду признателен за помощь! Спасибо!