|
Компьютерный форум OSzone.net » Железо » Накопители (SSD, HDD, USB Flash) » RAID - [решено] Не собирается RAID10 в NAS Thecus N12000 |
|
|
RAID - [решено] Не собирается RAID10 в NAS Thecus N12000
|
Пользователь Сообщения: 106 |
Профиль | Отправить PM | Цитировать В NAS Thecus N12000 был собран RAID10 из жестких дисков WD по 4 Тб (WD4000FYYZ-01UL1B0). Два диска вышли из строя, из-за большого количества переназначенных секторов. Купили два на замену. Сначали устновили один, произвели сборку, потом установили еще один. А вот с ним произошла проблема, сборка завершалась ошибкой и RAID не восстанавливался. И тут пришла "светлая" идея. Достали рабочий исправный винт из Raid'a и на его место воткнули который не захотел собираться, на освободившее место поставили проблемный винт после тестирования, при котором была поизведена его очистка. Но RAID так и не захотел собираться, т.е. в Web странице панели управления NAS о состоянии RAID просто пустое место. Вернули все обратно. Но улучшений нет. Прочитал что надо подключится через SSH и посмотреть состояние RAID через mdadm. Посомтрел, но понимания сильно не добаляется. Что делать дальше понять не могу. Прошу совета.
Состояние RAID из консоли Putty: N12000:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md0 : active raid10 sda2[12] sdl2[11] sde2[14] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sdj2[13] sdd2[3] sdc2[2] 23426222976 blocks super 1.2 64K chunks 2 near-copies [12/10] [U_UUUUUUUU_U] md50 : active raid1 sda3[12] sde3[14] sdi3[8] sdh3[7] sdg3[6] sdf3[5] sdj3[13] sdd3[3] sdc3[2] 524276 blocks super 1.2 [12/9] [U_UUUUUUUU__] md10 : active raid1 sdb1[1] sda1[12] sde1[14] sdj1[13] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sdl1[11] sdd1[3] sdc1[2] 2096116 blocks super 1.2 [12/11] [UUUUUUUUUUU_] unused devices: <none> N12000:~# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Jan 15 10:39:13 2014 Raid Level : raid10 Array Size : 23426222976 (22340.99 GiB 23988.45 GB) Used Dev Size : 3904370496 (3723.50 GiB 3998.08 GB) Raid Devices : 12 Total Devices : 10 Persistence : Superblock is persistent Update Time : Tue Mar 5 15:09:31 2019 State : clean, degraded Active Devices : 10 Working Devices : 10 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 64K Name : N12000:0 (local to host N12000) UUID : 10a5d87c:3a8c2422:f89f1d35:f7cd8007 Events : 1828009 Number Major Minor RaidDevice State 12 8 2 0 active sync /dev/sda2 1 0 0 1 removed 2 8 34 2 active sync /dev/sdc2 3 8 50 3 active sync /dev/sdd2 13 8 146 4 active sync /dev/sdj2 5 8 82 5 active sync /dev/sdf2 6 8 98 6 active sync /dev/sdg2 7 8 114 7 active sync /dev/sdh2 8 8 130 8 active sync /dev/sdi2 14 8 66 9 active sync /dev/sde2 10 0 0 10 removed 11 8 178 11 active sync /dev/sdl2 |
|
Отправлено: 15:55, 05-03-2019 |
Пользователь Сообщения: 106
|
Профиль | Отправить PM | Цитировать Запустил принудительно сканирование, ситуация улучшилась:
N12000:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md0 : active raid10 sdb2[15] sda2[12] sdl2[11] sde2[14] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sdj2[13] sdd2[3] sdc2[2] 23426222976 blocks super 1.2 64K chunks 2 near-copies [12/11] [UUUUUUUUUU_U] md50 : active raid1 sdb3[1] sda3[12] sde3[14] sdi3[8] sdh3[7] sdg3[6] sdf3[5] sdj3[13] sdd3[3] sdc3[2] 524276 blocks super 1.2 [12/10] [UUUUUUUUUU__] md10 : active raid1 sdb1[1] sda1[12] sde1[14] sdj1[13] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sdl1[11] sdd1[3] sdc1[2] 2096116 blocks super 1.2 [12/11] [UUUUUUUUUUU_] N12000:~# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Jan 15 10:39:13 2014 Raid Level : raid10 Array Size : 23426222976 (22340.99 GiB 23988.45 GB) Used Dev Size : 3904370496 (3723.50 GiB 3998.08 GB) Raid Devices : 12 Total Devices : 11 Persistence : Superblock is persistent Update Time : Mon Mar 11 09:02:27 2019 State : clean, degraded Active Devices : 11 Working Devices : 11 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 64K Name : N12000:0 (local to host N12000) UUID : 10a5d87c:3a8c2422:f89f1d35:f7cd8007 Events : 2681874 Number Major Minor RaidDevice State 12 8 2 0 active sync /dev/sda2 15 8 18 1 active sync /dev/sdb2 2 8 34 2 active sync /dev/sdc2 3 8 50 3 active sync /dev/sdd2 13 8 146 4 active sync /dev/sdj2 5 8 82 5 active sync /dev/sdf2 6 8 98 6 active sync /dev/sdg2 7 8 114 7 active sync /dev/sdh2 8 8 130 8 active sync /dev/sdi2 14 8 66 9 active sync /dev/sde2 10 0 0 10 removed 11 8 178 11 active sync /dev/sdl2 |
Отправлено: 10:48, 11-03-2019 | #2 |
Для отключения данного рекламного блока вам необходимо зарегистрироваться или войти с учетной записью социальной сети. Если же вы забыли свой пароль на форуме, то воспользуйтесь данной ссылкой для восстановления пароля. |
Забанен Сообщения: 6345
|
Покажите вывод
lsblk df -h parted -s /dev/sda print parted -s /dev/sdk print или если партеда нету, аналогичные команды gdisk: gdisk -l /dev/sdk gdisk -l /dev/sda Ну и ещё lscpu, любопытства ради PS Вообще-то при Layout : near=2 сохранность данных гарантируется только при отказе одного диска, два – уже как повезёт. Бекап есть? |
Последний раз редактировалось Jula0071, 11-03-2019 в 12:47. Отправлено: 12:31, 11-03-2019 | #3 |
Пользователь Сообщения: 106
|
Профиль | Отправить PM | Цитировать Сейчас уже запустил spare через
и процесс идет: N12000:~# mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Jan 15 10:39:13 2014 Raid Level : raid10 Array Size : 23426222976 (22340.99 GiB 23988.45 GB) Used Dev Size : 3904370496 (3723.50 GiB 3998.08 GB) Raid Devices : 12 Total Devices : 12 Persistence : Superblock is persistent Update Time : Mon Mar 11 15:43:10 2019 State : clean, degraded, recovering Active Devices : 11 Working Devices : 12 Failed Devices : 0 Spare Devices : 1 Layout : near=2 Chunk Size : 64K Rebuild Status : 46% complete Name : N12000:0 (local to host N12000) UUID : 10a5d87c:3a8c2422:f89f1d35:f7cd8007 Events : 2824035 Number Major Minor RaidDevice State 12 8 2 0 active sync /dev/sda2 15 8 18 1 active sync /dev/sdb2 2 8 34 2 active sync /dev/sdc2 3 8 50 3 active sync /dev/sdd2 13 8 146 4 active sync /dev/sdj2 5 8 82 5 active sync /dev/sdf2 6 8 98 6 active sync /dev/sdg2 7 8 114 7 active sync /dev/sdh2 8 8 130 8 active sync /dev/sdi2 14 8 66 9 active sync /dev/sde2 16 8 160 10 spare rebuilding /dev/sdk 11 8 178 11 active sync /dev/sdl2 N12000:~# df -h Filesystem Size Used Available Use% Mounted on /dev/root 124.0M 47.0M 76.9M 38% / tmpfs 3.9G 79.1M 3.8G 2% /dev/shm tmpfs 3.9G 79.1M 3.8G 2% /var /dev/loop0 802.2M 71.4M 730.8M 9% /rom /dev/loop1 7.3M 7.3M 0 100% /img /dev/loop2 8.3M 8.3M 0 100% /usr/lib64 /dev/loop3 256.0K 256.0K 0 100% /usr/share/zoneinfo /dev/loop4 55.0M 55.0M 0 100% /opt /dev/sdaaa4 22.9M 385.0K 22.5M 2% /syslog /dev/sdaaa2 22.9M 841.0K 22.1M 4% /etc /dev/md50 507.3M 248.0K 507.1M 0% /raidsys/0 /dev/md0 21.7T 15.5T 6.3T 71% /raid0 N12000:~# gdisk -l /dev/sda GPT fdisk (gdisk) version 0.6.9 Partition table scan: MBR: protective BSD: not present APM: not present GPT: present Found valid GPT with protective MBR; using GPT. Disk /dev/sda: 7814037168 sectors, 3.6 TiB Logical sector size: 512 bytes Disk identifier (GUID): 3E323482-854C-44C2-AA80-3DEA7AB5EBC4 Partition table holds up to 128 entries First usable sector is 34, last usable sector is 7814037134 Partitions will be aligned on 2048-sector boundaries Total free space is 50797 sectors (24.8 MiB) Number Start (sector) End (sector) Size Code Name 1 2048 4196351 2.0 GiB FD00 Linux RAID 2 5244928 7813988351 3.6 TiB FD00 Linux RAID 3 4196352 5244927 512.0 MiB FD00 Linux RAID N12000:~# gdisk -l /dev/sdk GPT fdisk (gdisk) version 0.6.9 Partition table scan: MBR: not present BSD: not present APM: not present GPT: not present Creating new GPT entries. Disk /dev/sdk: 7814037168 sectors, 3.6 TiB Logical sector size: 512 bytes Disk identifier (GUID): 0F1D4F6F-4F6D-4999-9278-3CA766608B84 Partition table holds up to 128 entries First usable sector is 34, last usable sector is 7814037134 Partitions will be aligned on 2048-sector boundaries Total free space is 7814037101 sectors (3.6 TiB) Number Start (sector) End (sector) Size Code Name N12000:~# gdisk -l /dev/sda GPT fdisk (gdisk) version 0.6.9 Partition table scan: MBR: protective BSD: not present APM: not present GPT: present Found valid GPT with protective MBR; using GPT. Disk /dev/sda: 7814037168 sectors, 3.6 TiB Logical sector size: 512 bytes Disk identifier (GUID): 3E323482-854C-44C2-AA80-3DEA7AB5EBC4 Partition table holds up to 128 entries First usable sector is 34, last usable sector is 7814037134 Partitions will be aligned on 2048-sector boundaries Total free space is 50797 sectors (24.8 MiB) Number Start (sector) End (sector) Size Code Name 1 2048 4196351 2.0 GiB FD00 Linux RAID 2 5244928 7813988351 3.6 TiB FD00 Linux RAID 3 4196352 5244927 512.0 MiB FD00 Linux RAID |
Отправлено: 15:56, 11-03-2019 | #4 |
Забанен Сообщения: 6345
|
Цитата Falcon99:
Нужно было скопировать таблицу разделов например с /dev/sda и собирать все три массива. |
||
Отправлено: 16:10, 11-03-2019 | #5 |
Пользователь Сообщения: 106
|
Профиль | Отправить PM | Цитировать Хреново. Остается дождаться результата spare rebuilding. И надеятся, что не станет совсем плохо. Если не будет хорошо, то тогда прийдется пометить его failed. Потом попробовать очистить, и уже потом попробую скопировать структуру раздела и сделать его присоединение заново. Кстати, а копироваться структуру можно с любого раздела, или надо сначала выястить кому он будет зеркалом?
|
Отправлено: 16:50, 11-03-2019 | #6 |
Забанен Сообщения: 6345
|
Цитата Falcon99:
Цитата Falcon99:
Почему говорил про бекап – я бы переделал массив, пожертвовав объёмом в сторону надёжности. Но для этого надо где-то данным перебомжевать... |
||
Отправлено: 17:05, 11-03-2019 | #7 |
Пользователь Сообщения: 106
|
Профиль | Отправить PM | Цитировать Значит буду искать место, насколько я понимаю, лучше сделать RAID 10 на 10 дисков и два добавить для hot spare?
|
Отправлено: 17:08, 11-03-2019 | #8 |
Забанен Сообщения: 6345
|
Цитата Falcon99:
Или можно сделать RAID 10 c Layout near=3 или far=3, без хотспейров. 3 вместо 2 - подзеркала строятся из трёх дисков каждое. Для понимания near-far http://www.ilsistemista.net/index.ph...s.html?start=1 |
|
Отправлено: 17:15, 11-03-2019 | #9 |
Пользователь Сообщения: 106
|
Профиль | Отправить PM | Цитировать Увы RAID так и не восстановился. Система высветила:
Цитата:
N12000:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] md0 : active raid10 sdk[16](F) sdb2[15] sda2[12] sdl2[11](F) sde2[14] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sdj2[13] sdd2[3] sdc2[2] 23426222976 blocks super 1.2 64K chunks 2 near-copies [12/10] [UUUUUUUUUU__] md50 : active raid1 sdb3[1] sda3[12] sde3[14] sdi3[8] sdh3[7] sdg3[6] sdf3[5] sdj3[13] sdd3[3] sdc3[2] 524276 blocks super 1.2 [12/10] [UUUUUUUUUU__] md10 : active raid1 sdb1[1] sda1[12] sde1[14] sdj1[13] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sdd1[3] sdc1[2] 2096116 blocks super 1.2 [12/10] [UUUU_UUUUUU_] unused devices: <none> N12000:~# mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Jan 15 10:39:13 2014 Raid Level : raid10 Array Size : 23426222976 (22340.99 GiB 23988.45 GB) Used Dev Size : 3904370496 (3723.50 GiB 3998.08 GB) Raid Devices : 12 Total Devices : 12 Persistence : Superblock is persistent Update Time : Mon Mar 11 17:21:25 2019 State : clean, FAILED Active Devices : 10 Working Devices : 10 Failed Devices : 2 Spare Devices : 0 Layout : near=2 Chunk Size : 64K Name : N12000:0 (local to host N12000) UUID : 10a5d87c:3a8c2422:f89f1d35:f7cd8007 Events : 2824150 Number Major Minor RaidDevice State 12 8 2 0 active sync /dev/sda2 15 8 18 1 active sync /dev/sdb2 2 8 34 2 active sync /dev/sdc2 3 8 50 3 active sync /dev/sdd2 13 8 146 4 active sync /dev/sdj2 5 8 82 5 active sync /dev/sdf2 6 8 98 6 active sync /dev/sdg2 7 8 114 7 active sync /dev/sdh2 8 8 130 8 active sync /dev/sdi2 14 8 66 9 active sync /dev/sde2 10 0 0 10 removed 11 0 0 11 removed 11 8 178 - faulty spare /dev/sdl2 16 8 160 - faulty spare /dev/sdk Цитата:
|
||
Отправлено: 17:31, 11-03-2019 | #10 |
|
Участник сейчас на форуме | Участник вне форума | Автор темы | Сообщение прикреплено |
| |||||
Название темы | Автор | Информация о форуме | Ответов | Последнее сообщение | |
Route/Bridge - Не пингуются внутренние адреса, не видно NAS, инет работает | Mivr | Сетевые технологии | 3 | 12-01-2019 17:05 | |
2008 R2 - Raid10 и WinSrv2008R2S1 | Dekart_Kain | Windows Server 2008/2008 R2 | 13 | 15-04-2012 02:00 | |
FTP/File - Как войти по ftp через порт в NAS ? <NAS Zyxel NSA220> | Danilik | Сетевое оборудование | 0 | 31-07-2009 20:00 | |
RAID - Intel® Embedded Server RAID Technology II или raid10 виден системе как не форм. винты | DRSTELS | Накопители (SSD, HDD, USB Flash) | 4 | 04-05-2008 12:26 | |
Не собирается ядро | Guest | Общий по FreeBSD | 15 | 16-03-2005 22:55 |
|