Я прохожу курс “от 0 до Linux админа” на yodo.im, и столкнулся с проблемой. У меня старый QNAP TS-412 (основанный на MDADM), который я давно должен был заменить. Первоначально у меня было два 3TB WD RedPlus диска в RAID1 (sda и sdd). Я купил ещё два идентичных диска, установил их и отформатировал. Я добавил диск 2 (sdb) и успешно мигрировал на RAID5. Затем я добавил диск 3 (sdc) и попытался перейти на RAID6, но это не удалось из-за ошибок I/O и medium. Устройство застряло в цикле самовосстановления, и мой единственный доступ к нему через медленный SSH, веб-приложение зависает из-за загрузки процессора.
В выводе mdstat отображается следующее:
- RAID6 sdc3[3] sda3[0] с состоянием [4/2] и [U__U]
- RAID5 sdb2[3] sdd2[1] с состоянием [3/2] и [_UU]
Изначально RAID1 состоял из дисков sda и sdd, после первого этапа миграции на RAID5 это были sda, sdb и sdd. Получается, что миграция успешно переместила sda в новый массив до того, как сбой произошёл с sdc? Я разбираюсь в Linux, но не на таком уровне технической сложности и не с этим пакетом.
Ключевой вопрос: Могу ли я извлечь эти диски из QNAP и вручную восстановить RAID5 на машине с Debian? Пожалуйста, помогите советами или ссылками на ресурсы.
Вывод mdstat:
Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4]
md3 : active raid6 sdc3[3] sda3[0]
5857394560 blocks super 1.0 level 6, 64k chunk, algorithm 2 [4/2] [U__U]
md0 : active raid5 sdd3[3] sdb3[1]
5857394816 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/2] [_UU]
md4 : active raid1 sdb2[3](S) sdd2[2] sda2[0]
530128 blocks super 1.0 [2/2] [UU]
md13 : active raid1 sdc4[2] sdb4[1] sda4[0] sdd4[3]
458880 blocks [4/4] [UUUU] bitmap: 0/57 pages [0KB], 4KB chunk
md9 : active raid1 sdc1[4](F) sdb1[1] sda1[0] sdd1[3]
530048 blocks [4/3] [UU_U] bitmap: 27/65 pages [108KB], 4KB chunk
unused devices: <none>
Буду благодарен за любую помощь или рекомендации!