Создание раздела RAID1 с mdadm на Ubuntu

Я пытаюсь настроить раздел RAID1 на своей рабочей станции Ubuntu 9.10.

В этой системе двойной загрузки Ubuntu работает от отдельного диска (/dev/sdc - SSD, который является довольно маленьким, который является, почему мне нужно больше дискового пространства). Помимо этого, существует два традиционных жестких диска на 500 ГБ, которые имеют установленный Windows 7 (я хочу сохранить установку Windows в целости), и приблизительно половина освобожденного пространства. Это пространство - то, где я хочу настроить единственный, большой раздел RAID1 для Linux.

(Это, к моему пониманию, было бы программным обеспечением RAID, тогда как разделы Windows находятся на аппаратных средствах RAID - я надеюсь, что это не проблема... Править: См. комментарий Peter. Я предполагаю, что это не должно быть проблемой, так как я вижу оба диска отдельно на Linux.)

На обоих дисках, /dev/sda и /dev/sdb, Я создал, с помощью fdisk, идентичные новые разделы типа "автоматическое обнаружение набега Linux" для заполнения освобожденного пространства.

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1          10       80293+  de  Dell Utility
/dev/sda2   *          11         106      768000    7  HPFS/NTFS
Partition 2 does not end on cylinder boundary.
/dev/sda3             106       30787   246439936    7  HPFS/NTFS
/dev/sda4           30787       60801   241095200+  fd  Linux raid autodetect

Так, я хотел бы создать RAID-массив из использования/dev/sdb4 и/dev/sda4 mdadm. Но я, кажется, не получаю его работа:

$ sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd{a,b}4
mdadm: Cannot open /dev/sda4: Device or resource busy
mdadm: Cannot open /dev/sdb4: Device or resource busy
mdadm: create aborted

После начальной загрузки машины, тех же урожаев команды:

$ sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sda4 /dev/sdb4
mdadm: Cannot open /dev/sda4: No such file or directory
mdadm: Cannot open /dev/sdb4: No such file or directory

Таким образом, теперь кажется, что устройства автоматически не обнаруживаются в начальной загрузке... Используя fdisk оба sda и sdb все еще выглядите корректными все же.

Править: После другой перезагрузки вернулись устройства:

$ ls /dev/sd*
/dev/sda   /dev/sda2  /dev/sda4  /dev/sdb1  /dev/sdb3  /dev/sdc   /dev/sdc2
/dev/sda1  /dev/sda3  /dev/sdb   /dev/sdb2  /dev/sdb4  /dev/sdc1  /dev/sdc5

Но так "Устройство или ресурс, занятый" при попытке создать RAID-массив. Довольно странный. Любая справка ценилась бы!

Обновление: картопостроитель устройства мог иметь некоторое отношение к этому? Как делают /dev/mapper и dmraid коснитесь всего этого mdadm материал так или иначе? Оба предоставляют программное обеспечение RAID, но.. по-другому? Извините за мое незнание здесь.

Под /dev/mapper/ существуют некоторые файлы устройств, которые, я думаю, так или иначе соответствуют 3 разделам Windows RAID (sd {a, b} 1 через sd {a, b} 3). Я не знаю, почему существует четыре из этих массивов все же.

$ ls /dev/mapper/
control               isw_dgjjcdcegc_ARRAY1  isw_dgjjcdcegc_ARRAY3
isw_dgjjcdcegc_ARRAY  isw_dgjjcdcegc_ARRAY2  

Разрешение: Это была mdadm статья Wikipedia, которая продвинула меня в правильном направлении. Я отправил детали о том, как я получил все работающее в этом ответе.

6
задан 20.03.2017, 12:04

2 ответа

Наконец некоторый прогресс!

dmraid действительно был преступник как предложенная статья в Википедии mdadm. Я пытался удалить dmraid пакеты (и работать update-initramfs хотя я не уверен, было ли это релевантно).

После этого и перезагрузка, устройства под /dev/mapper не стали (который прекрасен - я не должен получать доступ к разделам Windows NTFS на Linux):

$ ls /dev/mapper/
control

И, самое главное, mdadm --create работы!

$ sudo mdadm -Cv -l1 -n2  /dev/md0 /dev/sda4 /dev/sdb4
mdadm: size set to 241095104K
mdadm: array /dev/md0 started.

Я проверил /proc/mdstat и mdadm --detail /dev/md0 и оба шоу, что все соглашается с недавно созданным массивом.

$ cat /proc/mdstat
[..] 
md0 : active raid1 sdb4[1] sda4[0]
      241095104 blocks [2/2] [UU]
      [==========>..........]  resync = 53.1% (128205632/241095104) 
        finish=251.2min speed=7488K/sec      

Затем я создал файловую систему на новом разделе:

$ sudo mkfs.ext4 /dev/md0 

И наконец просто смонтированный вещь под /opt (и обновленный /etc/fstab). (Я, возможно, конечно, использовал LVM здесь также, но откровенно в этом случае я не видел точки в этом, и я уже потратил впустую достаточно времени, пытаясь получить эту работу...),

Таким образом, теперь раздел RAID готов использовать, и у меня есть много дискового пространства.:-)

$ df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sdc5              70G   52G   15G  79% /
/dev/md0              227G  188M  215G   1% /opt

Обновление: существуют все еще некоторые проблемы с этим моим устройством RAID. На перезагрузку этому не удается смонтироваться даже при том, что у меня есть он в fstab, и иногда (после перезагрузки) это, кажется, находится в неактивном состоянии и не может быть смонтировано даже вручную. Посмотрите последующий вопрос, который я отправил.

5
ответ дан 07.12.2019, 15:59

Возможно, глупый ответ, но - Вы, верный sd {a, b} 4 не смонтирован нигде человечностью?

И что материнская плата Вы имеете, как Вы говорите об аппаратном набеге? Это может быть действительно некоторый набег программного обеспечения, который, возможно, нарушает здесь.

1
ответ дан 07.12.2019, 15:59

Теги

Похожие вопросы