После начальной загрузки, мое устройство RAID1 (/dev/md_d0
*), иногда входит в некоторое забавное состояние, и я не могу смонтировать его.
* Первоначально я создал /dev/md0
но это так или иначе изменило себя в /dev/md_d0
.
# mount /opt
mount: wrong fs type, bad option, bad superblock on /dev/md_d0,
missing codepage or helper program, or other error
(could this be the IDE device where you in fact use
ide-scsi so that sr0 or sda or so is needed?)
In some cases useful info is found in syslog - try
dmesg | tail or so
Устройство RAID, кажется, неактивно так или иначе:
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]
[raid4] [raid10]
md_d0 : inactive sda4[0](S)
241095104 blocks
# mdadm --detail /dev/md_d0
mdadm: md device /dev/md_d0 does not appear to be active.
Вопрос, как сделать устройство активным снова (использование mdmadm
, Я предполагаю)?
(Другие времена, это хорошо (активно) после начальной загрузки, и я могу смонтировать его вручную без проблем. Но это все еще не смонтируется автоматически даже при том, что у меня есть он в /etc/fstab
:
/dev/md_d0 /opt ext4 defaults 0 0
Так вопрос о премии: что я должен сделать, чтобы заставить устройство RAID автоматически смонтироваться в /opt
во время начальной загрузки?)
Это - рабочая станция Ubuntu 9.10. Вводная информация о моем RAID устанавливает в этом вопросе.
Править: Мой /etc/mdadm/mdadm.conf
похож на это. Я никогда не касался этого файла по крайней мере вручную.
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR <my mail address>
# definitions of existing MD arrays
# This file was auto-generated on Wed, 27 Jan 2010 17:14:36 +0200
В /proc/partitions
последняя запись md_d0
по крайней мере теперь, после перезагрузки, когда устройство, оказывается, активно снова. (Я не уверен, было ли это то же, когда это неактивно.)
Разрешение: как предложенный Jimmy Hedman, я взял вывод mdadm --examine --scan
:
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=de8fbd92[...]
и включил его /etc/mdadm/mdadm.conf
, который, кажется, решил основную проблему. После изменения /etc/fstab
использовать /dev/md0
снова (вместо /dev/md_d0
), устройство RAID также автоматически смонтировано!
Для Вашего вопроса о премии:
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Можно активировать md устройство
mdadm -A /dev/md_d0
Я предполагаю, что некоторый сценарий запуска запускается слишком скоро, прежде чем один из участника RAID был обнаружен или некоторая подобная проблема. Как быстрое и грязное обходное решение, необходимо смочь добавить эту строку к/etc/rc.local:
mdadm -A /dev/md_d0 && mount /dev/md_d0
Редактирование: по-видимому, Ваш/etc/mdadm/mdadm.conf все еще содержит старое название конфигурации. Отредактируйте этот файл и замените происшествия md0 с md_d0.
md_d0 : inactive sda4[0](S)
неправильно ищет массив RAID1. Это, кажется, предполагает, что массив не имеет никаких активных устройств и одного запасного устройства (обозначенный (S), Вы видели бы (F) там для неисправного устройства и ничего для OK/активного устройства) - для массива RAID1, который не работает ухудшенный должно быть по крайней мере два OK/активных устройства (и для ухудшенного массива, по крайней мере одного OK/активного устройства), и Вы не можете активировать массив RAID1 ни без одного - отказавший не - запасные устройства (поскольку запчасти не содержат копию данных, пока они не сделаны активными, когда другой диск перестал работать). Если я читаю это /proc/mdstat
выходное право, Вы не сможете активировать массив в его текущем состоянии.
У Вас есть какие-либо физические диски в машине, которым не удалось вращаться? Делает ls /dev/sd*
перечислите все диски и разделы, которые Вы обычно ожидали бы видеть на той машине?