lsblk -o NAME,HCTL,SIZE,MOUNTPOINT | grep -i "sd"
pvcreate /dev/sdc
pvscan
PV
pvdisplay /dev/sdc
datavg
, используя /dev/sdc
vgcreate datavg /dev/sdc
LV
, используйтеlvdisplay
- посмотреть все LV
vgdisplay -v datavg
- посмотреть информацию по определенному разделу
Logical Volume(LV)
с именем LV_APP
и использования 100% местаlvcreate -n LV_APP -l 100%FREE datavg
ext4
на виртуальном дискеmkfs.ext4 /dev/datavg/LV_APP
UUID
blkid /dev/datavg/LV_APP
/etc/fstab
/dev/datavg/LV_APP /app ext4 defaults 1 2
Диск на котором разделы
fdisk /dev/sdc
Потом удаляем диск 1
d
Сохраняем изменения:
w
Создание разделов LVM была по этой статье https://www.tecmint.com/manage-and-create-lvm-parition-using-vgcreate-lvcreate-and-lvextend/
Просмотреть все диски
lsblk
fdisk -l
fdisk -l | grep dev
Перечитать таблицу партицей
partprobe
Просмотреть информацию о физичиских разделах, должно добавится свободное место.
pvs
Расширяем физический диск
pvresize /dev/sdX
Просмотреть информацию о логических разделах
lvdisplay
Информация о volume group
vgdisplay -v datavg
Добавления места на logical volume
lvextend /dev/datavg/LV_DATA -l+100%FREE --resize-fs
Volume group это логическое объединение физических томов в технологию LVM(менеджер логических томов).
Проверьте смонтированный логический том с помощью команды df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 3.8G 0 3.8G 0% /dev
tmpfs 3.8G 0 3.8G 0% /dev/shm
tmpfs 3.8G 17M 3.8G 1% /run
tmpfs 3.8G 0 3.8G 0% /sys/fs/cgroup
/dev/mapper/ol-root 25G 6.4G 19G 26% /
/dev/sda1 1014M 638M 377M 63% /boot
/dev/mapper/VG_U01-LV_U01 30G 24K 28G 1% /u01
tmpfs 767M 4.0K 767M 1% /run/user/1011
Нас интересует /dev/mapper/VG_U01-LV_U01 30G 24K 28G 1% /u01
umount
umount /u01
Проверяем что все размонтировалось df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 3.8G 0 3.8G 0% /dev
tmpfs 3.8G 0 3.8G 0% /dev/shm
tmpfs 3.8G 17M 3.8G 1% /run
tmpfs 3.8G 0 3.8G 0% /sys/fs/cgroup
/dev/mapper/ol-root 25G 6.4G 19G 27% /
/dev/sda1 1014M 638M 377M 63% /boot
tmpfs 767M 4.0K 767M 1% /run/user/1011
После того, как все будет проверено, вы можете безопасно удалить любую запись из /etc/fstab
, если таковая имеется. Это гарантирует, что система не попытается смонтировать что-то недоступное.
/dev/mapper/ol-root / xfs defaults 0 0
UUID=f2c498b1-b731-4b24-b4a6-b3cc479ef2bb /boot xfs defaults 0 0
/dev/mapper/ol-swap none swap defaults 0 0
#/dev/VG_U01/LV_U01 /u01 ext4 defaults 0 0
Logical Volume
с помощью команды lvchange
.Вывод команды lvscan
ACTIVE '/dev/VG_U01/LV_U01' [<30.00 GiB] inherit
ACTIVE '/dev/ol/root' [24.41 GiB] inherit
ACTIVE '/dev/ol/swap' [4.58 GiB] inherit
Теперь нам нужно отключить все связанные логические тома, прежде чем двигаться дальше и удалить группу томов из системы.
lvchange -an /dev/mapper/VG_U01-LV_U01
Проверьте состояние логического тома с помощью команды lvscan
.
Точно так же вам необходимо отключить все логические тома, связанные с группой томов VG_U01
Вывод команды lvscan
inactive '/dev/VG_U01/LV_U01' [<30.00 GiB] inherit
ACTIVE '/dev/ol/root' [24.41 GiB] inherit
ACTIVE '/dev/ol/swap' [4.58 GiB] inherit
lvremove
#lvremove /dev/VG_U01/LV_U01
Logical volume "LV_U01" successfully removed.
vgremove
После удаления всех логических томов вы можете удалить группу томов VG_U01
с помощью команды vgremove VG_U01
, как показано ниже.
#vgremove VG_U01
Volume group "VG_U01" successfully removed
Чтобы проверить, вы можете запустить vgscan
и получить подтверждение, удален ли VG_U01
или нет. Как вы можете видеть ниже, вывода VG_U01
сейчас не существует.
#vgscan
Found volume group "ol" using metadata type lvm2
Еще осталась метка тома можно посмотреть командой pvs
#pvs
PV VG Fmt Attr PSize PFree
/dev/sda2 ol lvm2 a-- <29.00g 0
/dev/sdc lvm2 --- 50.00g 50.00g
Теперь вы можете удалить метку тома LVM
с физического тома с помощью pvremove
.
#pvremove /dev/sdc
Labels on physical volume "/dev/sdc" successfully wiped
При добавлении нового диска в вашу систему Linux вам необходимо повторно сканировать хост SCSI
.
Вы можете сделать это с помощью следующей команды:
echo "- - -" > /sys/class/scsi_host/hostX/scan
где X — количество хостов SCSI для сканирования.
Вероятно, у вас есть более одного доступного хоста SCSI
, поэтому, чтобы сделать это правильно, вы должны повторить приведенную выше команду для каждого доступного хоста SCSI
.
Ниже приведен практический пример того, как пересканировать шину SCSI
в Linux и увидеть только что добавленный диск:
echo "- - -" > /sys/class/scsi_host/host0/scan
echo "- - -" > /sys/class/scsi_host/host1/scan
echo "- - -" > /sys/class/scsi_host/host2/scan
echo "- - -" > /sys/class/scsi_host/host3/scan
В части - – -
вы указываете хосту SCSI
, что именно нужно повторно сканировать, а дефисы — это подстановочные знаки, указывающие хосту SCSI повторно сканировать все контроллеры, каналы и LUN-ы.
Оригинал статьи тут.
После добавления диска нам нужно выполнить команды чтоб появился диск sdh.
partprobe
- используется для информирования операционной системы о изменениях в разделах диска без необходимости перезагрузки системы
lsblk
- вывод информации о блочных устройствах, таких как жесткие диски. Ниже пример отображения диска который появился
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 16G 0 disk
├─sda1 8:1 0 500M 0 part /boot
└─sda2 8:2 0 15.5G 0 part
├─centos-root 253:0 0 13.9G 0 lvm /
└─centos-swap 253:1 0 1.6G 0 lvm [SWAP]
sdh 8:112 0 250G 0 disk
Cоздания физического тома на физическом устройстве
pvcreate /dev/sdh
Расширяем существующую группу томов VG_DATA
vgextend VG_DATA /dev/sdh
Расширяем существующий логический том
lvextend /dev/VG_DATA/LV_DATA -l+100%FREE --resizefs
Теперь можно проверить с помощью команды pvs
информацию о физических томах lvm
PV VG Fmt Attr PSize PFree
/dev/sda2 centos lvm2 a-- <15.51g 40.00m
/dev/sdh VG_DATA lvm2 a-- <250.00g 0