1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > linux逻辑卷管理 RAID磁盘阵列 过程管理 VDO

linux逻辑卷管理 RAID磁盘阵列 过程管理 VDO

时间:2021-02-28 20:13:31

相关推荐

linux逻辑卷管理 RAID磁盘阵列 过程管理 VDO

linux逻辑卷管理,RAID磁盘阵列,过程管理,VDO

文章目录

linux逻辑卷管理,RAID磁盘阵列,过程管理,VDO新建一个逻辑卷问题方案步骤一:创建卷组二:创建逻辑卷三:格式化及挂载使用扩展逻辑卷的大小问题方案步骤一:确认逻辑卷vo的信息二:扩展卷组三:扩展逻辑卷大小查看进程信息问题方案步骤一:找出进程 gdm 的 PID 编号值二:列出由进程 gdm 开始的子进程树结构信息三:找出进程 sshd 的父进程的 PID 编号/进程名称四:查看当前系统的CPU负载/进程总量信息进程调度及终止问题方案步骤一:根据PID杀死进程二:根据进程名杀死多个进程三:杀死属于指定用户的所有进程重要的事情说三遍

新建一个逻辑卷

问题

本例要求沿用前一天案例,使用分区 /dev/sdb1 构建 LVM 存储,相关要求如下:

新建一个名为 systemvg 的卷组 在此卷组中创建一个名为 vo 的逻辑卷,大小为180MiB 将逻辑卷 vo 格式化为 EXT4

文件系统 将逻辑卷 vo 挂载到 /vo 目录,并在此目录下建立一个测试文件 votest.txt,内容为“I AM KING.”

方案

LVM创建工具的基本用法:

vgcreate 卷组名 物理设备… … lvcreate -L 大小 -n 逻辑卷名 卷组名

步骤

一:创建卷组

1)新建名为systemvg的卷组

[root@server0 ~]# vgcreate systemvg /dev/sdb1Physical volume "/dev/sdb1" successfully createdVolume group "systemvg" successfully created

2)确认结果

[root@server0 ~]# vgscanReading all physical volumes. This may take a while...Found volume group "systemvg" using metadata type lvm2

二:创建逻辑卷

1)新建名为vo的逻辑卷

[root@server0 ~]# lvcreate -L 180MiB -n vo systemvg Logical volume "vo" created

2)确认结果

[root@server0 ~]# lvscanACTIVE '/dev/systemvg/vo' [180.00 MiB] inherit

三:格式化及挂载使用

1)格式化逻辑卷/dev/systemvg/vo

[root@server0 ~]# mkfs.ext4 /dev/systemvg/vo.. ..Allocating group tables: done Writing inode tables: done Creating journal (4096 blocks): doneWriting superblocks and filesystem accounting information: done

2)挂载逻辑卷/dev/systemvg/vo

[root@server0 ~]# mkdir /vo//创建挂载点[root@server0 ~]# mount /dev/systemvg/vo /vo //挂载[root@server0 ~]# df -hT /vo///检查结果Filesystem Type Size Used Avail Use% Mounted on/dev/mapper/systemvg-vo ext4 171M 1.6M 157M 1% /vo

3)访问逻辑卷/dev/systemvg/vo

[root@server0 ~]# cat /vo/votest.txtI AM KING.

扩展逻辑卷的大小

问题

本例要求沿用练习一,将逻辑卷 vo 的大小调整为 300MiB,要求如下:

原文件系统中的内容必须保持完整 必要时可使用之前准备的分区 /dev/sdb5 来补充空间

注意:分区大小很少能完全符合要求的大小,所以大小在270MiB和300MiB之间都是可以接受的

方案

对于已经格式化好的逻辑卷,在扩展大小以后,必须通知内核新大小。

如果此逻辑卷上的文件系统是EXT3/EXT4类型,需要使用resize2fs工具;

如果此逻辑卷上的文件系统是XFS类型,需要使用xfs_growfs。

步骤

实现此案例需要按照如下步骤进行。

一:确认逻辑卷vo的信息

1)找出逻辑卷所在卷组

[root@server0 ~]# lvscanACTIVE '/dev/systemvg/vo' [180.00 MiB] inheritACTIVE '/dev/datastore/database' [800.00 MiB] inherit

2)查看该卷组的剩余空间是否可满足扩展需要

[root@server0 ~]# vgdisplay systemvg--- Volume group ---VG NamesystemvgSystem ID Formatlvm2Metadata Areas 1Metadata Sequence No 2VG Access read/writeVG Status resizableMAX LV0Cur LV1Open LV0Max PV0Cur PV1Act PV1VG Size196.00 MiB//卷组总大小PE Size4.00 MiBTotal PE 49Alloc PE / Size 45 / 180.00 MiBFree PE / Size 4 / 16.00 MiB //剩余空间大小VG UUIDczp8IJ-jihS-Ddoh-ny38-j521-5X8J-gqQfUN此例中卷组systemvg的总大小都不够300MiB、剩余空间才16MiB,因此必须先扩展卷组。只有剩余空间足够,才可以直接扩展逻辑卷大小。

二:扩展卷组

1)将提前准备的分区/dev/sdb5添加到卷组systemvg

[root@server0 ~]# vgextend systemvg /dev/sdb5Physical volume "/dev/sdb5" successfully createdVolume group "systemvg" successfully extended

2)确认卷组新的大小

[root@server0 ~]# vgdisplay systemvg--- Volume group ---VG Namesystemvg.. ..VG Size692.00 MiB//总大小已变大PE Size4.00 MiBTotal PE 173Alloc PE / Size 45 / 180.00 MiBFree PE / Size 128 / 512.00 MiB //剩余空间已达512MiBVG UUIDczp8IJ-jihS-Ddoh-ny38-j521-5X8J-gqQfUN

三:扩展逻辑卷大小

1)将逻辑卷/dev/systemvg/vo的大小调整为300MiB

[root@server0 ~]# lvextend -L 300MiB /dev/systemvg/vo Extending logical volume vo to 300.00 MiBLogical volume vo successfully resized

2)确认调整结果

[root@server0 ~]# lvscanACTIVE '/dev/systemvg/vo' [300.00 MiB] inheritACTIVE '/dev/datastore/database' [800.00 MiB] inherit

3)刷新文件系统大小

确认逻辑卷vo上的文件系统类型:

[root@server0 ~]# blkid /dev/systemvg/vo/dev/systemvg/vo: UUID="d4038749-74c3-4963-a267-94675082a48a" TYPE="ext4"选择合适的工具刷新大小:[root@server0 ~]# resize2fs /dev/systemvg/vo resize2fs 1.42.9 (28-Dec-)Resizing the filesystem on /dev/systemvg/vo to 307200 (1k) blocks.The filesystem on /dev/systemvg/vo is now 307200 blocks long.确认新大小(约等于300MiB):[root@server0 ~]# mount /dev/systemvg/vo /vo/[root@server0 ~]# df -hT /voFilesystem Type Size Used Avail Use% Mounted on/dev/mapper/systemvg-vo ext4 287M 2.1M 266M 1% /vo<font color=#999AAA >示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。

查看进程信息

问题

本例要求掌握查看进程信息的操作,使用必要的命令工具完成下列任务:

找出进程 gdm 的 PID 编号值 列出由进程 gdm 开始的子进程树结构信息 找出进程 sshd 的父进程的 PID 编号/进程名称

查看当前系统的CPU负载/进程总量信息

方案

查看进程的主要命令工具:

ps aux、ps –elf:查看进程静态快照 top:查看进程动态排名 pstree:查看进程与进程之间的树型关系结构

pgrep:根据指定的名称或条件检索进程

步骤

实现此案例需要按照如下步骤进行。

一:找出进程 gdm 的 PID 编号值

使用pgrep命令查询指定名称的进程,选项-l显示PID号、-x精确匹配进程名:

[root@svr7 ~]# pgrep -lx gdm1584 gdm

二:列出由进程 gdm 开始的子进程树结构信息

使用pstree命令,可以提供用户名或PID值作为参数。通过前一步已知进程gdm的PID为1584,因此以下操作可列出进程gdm的进程树结构:

[root@svr7 ~]# pstree -p 1584gdm(1584)-+-Xorg(1703)|-gdm-session-wor(2670)-+-gnome-session(2779)-+-gnom+| | |-gnom+| | |-{gno+| | |-{gno+| | `-{gno+| |-{gdm-session-wor}(2678)| `-{gdm-session-wor}(2682)|-{gdm}(1668)|-{gdm}(1671)`-{gdm}(1702)

三:找出进程 sshd 的父进程的 PID 编号/进程名称

要查看进程的父进程PID,可以使用ps

–elf命令,简单grep过滤即可。找到进程sshd所在行对应到的PPID值即为其父进程的PID编号。为了方便直观查看,建议先列出ps表头行,以分号隔开再执行过滤操作。

[root@svr7 ~]# ps -elf | head -1 ; ps -elf | grep sshdF S UID PID PPID C PRI NI ADDR SZ WCHAN STIME TTYTIME CMD4 S root 13621 0 80 0 - 20636 poll_s Jan05 ? 00:00:00 /usr/sbin/sshd –D.. .. //可获知进程sshd的父进程PID为1然后再根据pstree –p的结果过滤,可获知PID为1的进程名称为systemd:[root@svr7 ~]# pstree -p | grep '(1)'systemd(1)-+-ModemManager(995)-+-{ModemManager}(1018)

四:查看当前系统的CPU负载/进程总量信息

使用top命令,直接看开头部分即可;或者 top -n 次数:

[root@svr7 ~]# toptop - 15:45:25 up 23:55, 2 users, load average: 0.02, 0.03, 0.05Tasks: 485 total, 2 running, 483 sleeping, 0 stopped, 0 zombie%Cpu(s): 1.7 us, 1.0 sy, 0.0 ni, 97.3 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 stKiB Mem : 1001332 total, 76120 free, 419028 used, 506184 buff/cacheKiB Swap: 2097148 total, 2096012 free,1136 used. 372288 avail Mem.. ..观察Tasks: 485 total部分,表示进程总量信息。观察load average: 0.02, 0.03, 0.05 部分,表示CPU处理器在最近1分钟、5分钟、15分钟内的平均处理请求数(对于多核CPU,此数量应除以核心数)。对于多核CPU主机,如果要分别显示每颗CPU核心的占用情况,可以在top界面按数字键1进行切换:[root@svr7 ~]# toptop - 15:47:45 up 23:57, 2 users, load average: 0.02, 0.03, 0.05Tasks: 485 total, 2 running, 269 sleeping, 0 stopped, 1 zombieCpu0 : 0.6%us, 7.8%sy, 0.0%ni, 91.6%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%stCpu1 : 0.7%us, 3.7%sy, 0.0%ni, 95.6%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%stCpu2 : 0.7%us, 1.7%sy, 0.0%ni, 97.6%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%stCpu3 : 0.3%us, 1.0%sy, 0.0%ni, 98.3%id, 0.3%wa, 0.0%hi, 0.0%si, 0.0%stMem: 16230564k total, 15716576k used, 513988k free, 326124k buffersSwap: 8388604k total, 220656k used, 8167948k free, 11275304k cached.. ..

进程调度及终止

问题

本例要求掌握调度及终止进程的操作,使用必要的工具完成下列任务:

运行“sleep 600”命令,再另开一个终端,查出sleep程序的PID并杀死 运行多个vim程序并都放入后台,然后杀死所有vim进程

su切换为zhsan用户,再另开一个终端,强制踢出zhsan用户

方案

进程调度及终止的主要命令工具:

命令行 &:将命令行在后台运行 Ctrl + z 组合键:挂起当前进程(暂停并转入后台) jobs:列出当前用户当前终端的后台任务 bg

编号:启动指定编号的后台任务 fg 编号:将指定编号的后台任务调入前台运行 kill [-9] PID…:杀死指定PID值的进程

kill [-9] %n:杀死第n个后台任务 killall [-9] 进程名…:杀死指定名称的所有进程

pkill:根据指定的名称或条件杀死进程

步骤

实现此案例需要按照如下步骤进行。

一:根据PID杀死进程

1)开启sleep测试进程

[root@svr7 ~]# sleep 600//.. .. 进入600秒等待状态

2)找出进程sleep的PID

另开一个终端,ps aux并过滤进程信息(第2列为PID值):[root@svr7 ~]# ps aux | grep sleeproot32929 0.0 0.0 4312 360 pts/1 S+ 17:25 0:00 sleep 600

3)杀死指定PID的进程

[root@svr7 ~]# kill -9 32929返回原终端会发现sleep进程已经被杀死:[root@svr7 ~]# sleep 600Killed

二:根据进程名杀死多个进程

1)在后台开启多个vim进程

[root@svr7 ~]# vim a.txt &[1] 33152[root@svr7 ~]# vim b.txt &[2] 33154[1]+ 已停止vim a.txt[root@svr7 ~]# vim c.txt &[3] 33155[2]+ 已停止vim b.txt

2)确认vim进程信息

[root@svr7 ~]# jobs -l[1] 33152 停止 (tty 输出)vim a.txt[2]- 33154 停止 (tty 输出)vim b.txt[3]+ 33155 停止 (tty 输出)vim c.txt

3)强制杀死所有名为vim的进程

[root@svr7 ~]# killall -9 vim[1] 已杀死vim a.txt[2]- 已杀死vim b.txt[3]+ 已杀死vim c.txt

4)确认杀进程结果

[root@svr7 ~]# jobs -l [root@svr7 ~]#

三:杀死属于指定用户的所有进程

1)登入测试用户zhsan

[root@svr7 ~]# useradd zhsan[root@svr7 ~]# su - zhsan[zhsan@svr7 ~]$

2)另开一个终端,以root用户登入,查找属于用户zhsan的进程

[root@svr7 ~]# pgrep -u zhsan33219[root@svr7 ~]# pstree -up 33219//检查进程树bash(33219,zhsan)

3)强制杀死属于用户zhsan的进程

[root@svr7 ~]# pkill -9 -u zhsan

[root@svr7 ~]# 4)返回原来用户zhsan登录的终端,确认已经被终止

[zhsan@svr7 ~]$ 已杀死[root@svr7 ~]#

重要的事情说三遍

作为一个为linux奉献一生的码员,很是荣幸和骄傲,这里我总结了一些linux的精华,也就是速成文章,后面还会继续更新,望大家关注,绝对有用!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。