Жорик: акт 3

Итак купил SATA-кабелёк, поменял.

Проверяю существуют ли массивы: geek@zhorik:~$ cat /proc/mdstat Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>

Массивов нет, снова прохожу шаги 1 - 6

8. Создаю точку монтирования и монтирую RAID массив: mkdir /mnt/raid5 mount /dev/md0 /mnt/raid5

9. И теперь уже обновляю файл конфигурации mdadm: mdadm --detail --scan | tee -a /etc/mdadm/mdadm.conf ARRAY /dev/md0 metadata=1.2 spares=1 UUID=13a46a0d:51848ca8:9d9c2f7d:c6c54c77

10. Получаю идентификатор раздела (UUID): blkid /dev/sdd: UUID="6a48c4ed-323b-40b3-98d5-0bdf0820ca73" BLOCK_SIZE="4096" TYPE="ext4" /dev/sdb: UUID="7ec8bde4-a320-450a-a367-6993dd004967" BLOCK_SIZE="4096" TYPE="ext4" /dev/mapper/ubuntu--vg-ubuntu--lv: UUID="e32f873f-c26b-4380-b299-8af9e2db2914" BLOCK_SIZE="4096" TYPE="ext4" /dev/sdc: UUID="71e5a799-96e5-42ab-92a9-238f1378428b" BLOCK_SIZE="4096" TYPE="ext4" /dev/sda2: UUID="bb8f97ed-c53c-4e8c-be9d-414fe3beb447" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="5c70c089-7a22-4a8b-8fd4-d0716f6bdc91" /dev/sda3: UUID="XvUNrZ-vfJU-vq6Y-mxfc-D8Pa-28io-roBple" TYPE="LVM2_member" PARTUUID="f753a047-0fc2-403c-9451-472a0326a3b0" /dev/md0: UUID="69c92b80-a33f-4a6b-acd0-dd1551606ce4" BLOCK_SIZE="4096" TYPE="ext4"

11.  Открываю fstab и добавляю строку, вписав свой UUID: nano /etc/fstab

UUID=69c92b80-a33f-4a6b-acd0-dd1551606ce4       /mnt/raid5      ext4    defaults        0       2

Здесь:   - UUID=69c92b80-a33f-4a6b-acd0-dd1551606ce4 — это UUID RAID массива   - /mnt/raid — это точка монтирования   - ext4 — это файловая система   - defaults — это стандартные параметры монтирования   - 0 — это параметр для dump, который обычно устанавливается в 0   - 2 — это параметр для fsck, который указывает порядок проверки файловых систем при загрузке

Значения разделяются табами

12. Перезагружаем для применения изменений конфигурации: systemctl daemon-reload

13.  Демонтирую раздел umount /mnt/raid5

14.  Автомонтирую: geek@zhorik:~$ sudo mount -a

15. Проверяю состояние RAID массива geek@zhorik:~$ cat /proc/mdstat Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid5 sdd[3] sdc[1] sdb[0]       1953260544 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]       bitmap: 2/8 pages [8KB], 65536KB chunk

unused devices: <none>

16. Перезапускаю и почему то RAID массив стал /dev/md127, но всё работает. Не буду с ним воевать хочет быть md127, пускай, не проблема. geek@zhorik:~$ df -h Filesystem                         Size  Used Avail Use% Mounted on tmpfs                              765M  1.2M  764M   1% /run /dev/mapper/ubuntu--vg-ubuntu--lv   98G  6.9G   86G   8% / tmpfs                              3.8G     0  3.8G   0% /dev/shm tmpfs                              5.0M     0  5.0M   0% /run/lock /dev/md127                         1.8T   28K  1.7T   1% /mnt/raid5 /dev/sda2                          2.0G  185M  1.7G  11% /boot

Далее нужно выяснить как организовать автоматическую проверку здоровья RAID массива и жёстких дисков, уведомления если проблемы.

#pet
repost

37

input message

напишите коммент

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь