每天2个Linux命令 vmstat iostat


2017-08-06 每天2个Linux命令 vmstat命令

vmstat是Virtual Meomory Statistics(虚拟内存统计)的缩写,可对操作系统的虚拟内存、进程、CPU活动进行监控。

它能够对系统的整体情况进行统计,无法对某个进程进行深入分析。vmstat 工具提供了一种低开销的系统性能观察方式。

(1)用法

用法:  vmstat  [选项参数]

   或   vmstat  [选项参数]   [数字]   [数字]

(2)功能:

功能:  报告虚拟内存的统计信息,关于进程、内存、I/O等系统整体运行状态。

(3)选项参数:

  1) -d:        显示磁盘相关统计信息。

  2) -a:          显示活跃和非活跃内存

  3) -f:         显示从系统启动至今的fork数量。

  4) -p:          显示指定磁盘分区统计信息

  5) -s:          显示内存相关统计信息及多种系统活动数量。

  6) -m:        显示slabinfo

(4)实例:

  1)[sunjimeng@localhost ~]$ vmstat          显示虚拟内存使用情况

[sunjimeng@localhost ~]$ vmstat
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 5  0      0 858580    752 506988    0    0     7     1   81  120  2  1 97  0  0
[sunjimeng@localhost ~]$ 
      字段说明:

   1.Procs(进程)
     r: 运行队列中进程数量,这个值也可以判断是否需要增加CPU。(长期大于1)
     b: 等待IO的进程数量。
   2.Memory(内存)

    swpd: 使用虚拟内存大小,如果swpd的值不为0,但是SI,SO的值长期为0,这种情况不会影响系统性能。

    free: 空闲物理内存大小。

    buff: 用作缓冲的内存大小。

    cache: 用作缓存的内存大小,如果cache的值大的时候,说明cache处的文件数多,如果频繁访问到的文件都能被cache处,那么磁盘的读IO bi会非常小。
  3.Swap

    si: 每秒从交换区写到内存的大小,由磁盘调入内存。

    so: 每秒写入交换区的内存大小,由内存调入磁盘。

  注意:

  内存够用的时候,这2个值都是0,如果这2个值长期大于0时,系统性能会受到影响,磁盘IO和CPU资源都会被消耗。有些朋友看到空闲内存(free)很少的或接近于0时,就认为内存不够用了,不能光看这一点,还要结合si和so,如果free很少,但是si和so也很少(大多时候是0),那么不用担心,系统性能这时不会受到影响的。

  4.IO(现在的Linux版本块的大小为1kb)

    bi: 每秒读取的块数

    bo: 每秒写入的块数

  注意:

  随机磁盘读写的时候,这2个值越大(如超出1024k),能看到CPU在IO等待的值也会越大。
  5.system(系统)

    in: 每秒中断数,包括时钟中断。

    cs: 每秒上下文切换数。

  注意:

  上面2个值越大,会看到由内核消耗的CPU时间会越大。
  6.CPU(以百分比表示)

  us: 用户进程执行时间百分比(user time) us的值比较高时,说明用户进程消耗的CPU时间多,但是如果长期超50%的使用,那么我们就该考虑优化程序算法或者进行加速。

  sy: 内核系统进程执行时间百分比(system time) sy的值高时,说明系统内核消耗的CPU资源多,这并不是良性表现,我们应该检查原因。

  wa: IO等待时间百分比 wa的值高时,说明IO等待比较严重,这可能由于磁盘大量作随机访问造成,也有可能磁盘出现瓶颈(块操作)。

  id: 空闲时间百分比

2)[sunjimeng@localhost ~]$ vmstat 2        每二秒显示一次系统内存的统计信息

[sunjimeng@localhost ~]$ vmstat 2
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 1  0      0 853508    752 507144    0    0     7     1   80  119  2  1 97  0  0
 0  0      0 853508    752 507144    0    0     0     0  376  466  3  2 96  0  0
......

3)[sunjimeng@localhost ~]$ vmstat 2 5       每二秒显示一次系统内存的统计信息,总共5次 

复制代码
[sunjimeng@localhost ~]$ vmstat 2 5
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 1  0      0 853888    752 507152    0    0     7     1   81  119  2  1 97  0  0
 0  0      0 853888    752 507152    0    0     0     0  609  763  5  2 92  0  0
 1  0      0 853888    752 507152    0    0     0     0  582  626  5  2 93  0  0
 0  0      0 853888    752 507152    0    0     0     0  399  464  3  2 95  0  0
 0  0      0 853888    752 507152    0    0     0     0  263  365  3  1 96  0  0
[sunjimeng@localhost ~]$ 

4)[sunjimeng@localhost ~]$ vmstat -d       显示磁盘的信息

[sunjimeng@localhost ~]$ vmstat -d
disk- ------------reads------------ ------------writes----------- -----IO------
       total merged sectors      ms  total merged sectors      ms    cur    sec
sda    11582    610  838780  116523   7805   1068  133502  564406      0     73
sr0        0      0       0       0      0      0       0       0      0      0
[sunjimeng@localhost ~]$ 
       merged:表示一次来自于合并的写/读请求,一般系统会把多个连接/邻近的读/写请求合并到一起来操作。

5)[sunjimeng@localhost ~]$ vmstat -a       显示活跃内存与非活跃内存

  使用-a选项显示活跃和非活跃内存时,所显示的内容除增加inact和active外,其他显示内容与例子1相同。

[sunjimeng@localhost ~]$ vmstat -a
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free  inact active   si   so    bi    bo   in   cs us sy id wa st
 1  0      0 854904 316268 604280    0    0     7     1   81  119  2  1 97  0  0
[sunjimeng@localhost ~]$ 

6)[sunjimeng@localhost ~]$ vmstat -f      查看系统已经被fork多少次

[sunjimeng@localhost ~]$ vmstat -f
        17873 forks
[sunjimeng@localhost ~]$ 

7)[sunjimeng@localhost ~]$ vmstat -p devtmpfs  查看特定磁盘设备的

复制代码
[sunjimeng@localhost ~]$ df
文件系统          1K-块    已用     可用 已用% 挂载点
/dev/sda3      18555904 3583564 14972340   20% /
devtmpfs         997908       0   997908    0% /dev
tmpfs           1006936     148  1006788    1% /dev/shm
tmpfs           1006936    9080   997856    1% /run
tmpfs           1006936       0  1006936    0% /sys/fs/cgroup
/dev/sda1        303788  113264   190524   38% /boot
[sunjimeng@localhost ~]$ vmstat -p devtmpfs
partition was not found
[sunjimeng@localhost ~]$ vmstat -p /dev/sda1
sda1          reads   read sectors  writes    requested writes
                1151      51564       1034       4138   
复制代码
  说明:

  这些信息主要来自于/proc/diskstats。

  reads:         来自于这个分区的读的次数。

  read sectors:      来自于这个分区的读扇区的次数。

  writes:         来自于这个分区的写的次数。

  requested writes:    来自于这个分区的写请求次数。

      8)[root@localhost sunjimeng]# vmstat -m        显示slabinfo

复制代码
[sunjimeng@localhost ~]$ vmstat -m
vmstat: your kernel does not support slabinfo or your permissions are insufficient
[sunjimeng@localhost ~]$ su root
密码:
[root@localhost sunjimeng]# vmstat -m
Cache                       Num  Total   Size  Pages
fuse_inode                   42     42    768     42
nf_conntrack_ffff880080950000      0      0    320     51
nf_conntrack_ffffffff819e07c0    102    102    320     51
kcopyd_job                    0      0   3312      9
dm_uevent                     0      0   2608     12
dm_rq_target_io               0      0    424     38
xfs_icr                       0      0    144     56
xfs_ili                    3922   3922    152     53
xfs_inode                 26816  26816   1024     32
xfs_efd_item                 80     80    400     40
xfs_da_state                134    134    488     67
xfs_btree_cur                78     78    208     39
xfs_log_ticket               88     88    184     44
scsi_cmd_cache               72     72    448     36
UDPLITEv6                     0      0   1152     28
UDPv6                        56     56   1152     28
tw_sock_TCPv6                 0      0    256     64
TCPv6                        32     32   2048     16
Cache                       Num  Total   Size  Pages
cfq_queue                   140    140    232     70
bsg_cmd                       0      0    312     52
mqueue_inode_cache           36     36    896     36
hugetlbfs_inode_cache       106    106    608     53
configfs_dir_cache            0      0     88     46
dquot                         0      0    256     64
kioctx                        0      0    576     56
pid_namespace                 0      0   2176     15
posix_timers_cache            0      0    248     66
UDP-Lite                      0      0   1024     32
ip_fib_trie                 146    146     56     73
RAW                         884    884    960     34
UDP                          64     64   1024     32
tw_sock_TCP                   0      0    256     64
TCP                          34     34   1920     17
blkdev_queue                 32     32   2016     16
blkdev_requests            4578   4578    384     42
blkdev_ioc                  156    156    104     39
Cache                       Num  Total   Size  Pages
fsnotify_event_holder    128180 128180     24    170
fsnotify_event              909   1632    120     68
sock_inode_cache           1224   1224    640     51
net_namespace                 7      7   4224      7
shmem_inode_cache          1008   1008    680     48
Acpi-ParseExt              6720   6720     72     56
Acpi-Namespace             4692   4692     40    102
taskstats                    98     98    328     49
proc_inode_cache           5638   5978    656     49
sigqueue                    102    102    160     51
bdev_cache                   78     78    832     39
sysfs_dir_cache           29688  30168    112     36
inode_cache               15675  15675    592     55
dentry                    57213  57498    192     42
iint_cache                    0      0     80     51
selinux_inode_security    50139  50439     80     51
buffer_head                3588   3588    104     39
vm_area_struct            18198  18463    216     37
Cache                       Num  Total   Size  Pages
mm_struct                   140    140   1600     20
files_cache                 306    306    640     51
signal_cache                857    952   1152     28
sighand_cache               575    585   2112     15
task_xstate                 858    858    832     39
task_struct                 721    781   2912     11
anon_vma                   6502   7040     64     64
shared_policy_node         2295   2295     48     85
numa_policy                 186    186    264     62
radix_tree_node            5988   6048    584     56
idr_layer_cache             210    210   2112     15
dma-kmalloc-8192              0      0   8192      4
dma-kmalloc-4096              0      0   4096      8
dma-kmalloc-2048              0      0   2048     16
dma-kmalloc-1024              0      0   1024     32
dma-kmalloc-512              64     64    512     64
dma-kmalloc-256               0      0    256     64
dma-kmalloc-128               0      0    128     64
Cache                       Num  Total   Size  Pages
dma-kmalloc-64                0      0     64     64
dma-kmalloc-32                0      0     32    128
dma-kmalloc-16                0      0     16    256
dma-kmalloc-8                 0      0      8    512
dma-kmalloc-192               0      0    192     42
dma-kmalloc-96                0      0     96     42
kmalloc-8192                 40     44   8192      4
kmalloc-4096                581    648   4096      8
kmalloc-2048               1472   1584   2048     16
kmalloc-1024               3353   3424   1024     32
kmalloc-512                7808   7808    512     64
kmalloc-256                8046   9216    256     64
kmalloc-192                9976   9996    192     42
kmalloc-128                5696   5696    128     64
kmalloc-96                 5586   5586     96     42
kmalloc-64               112568 113152     64     64
kmalloc-32               123831 124416     32    128
kmalloc-16                58869  60672     16    256
Cache                       Num  Total   Size  Pages
kmalloc-8                 84992  84992      8    512
kmem_cache_node             192    192     64     64
kmem_cache                  192    192    256     64

(5)其他:

1.物理内存和虚拟内存区别:

  物理内存读写数据要比从硬盘读写数据要快的多,因此,我们希望所有数据的读取和写入都在内存完成,而内存是有限的,
这样就引出了物理内存与虚拟内存的概念。

  物理内存就是系统硬件提供的内存大小,是真正的内存;在Linux系统下,虚拟内存就是为了满足物理内存的不足而提出的策略,
它是利用磁盘空间虚拟出的一块逻辑内存,用作虚拟内存的磁盘空间被称为交换空间(Swap Space)。作为物理内存的扩展,
linux会在物理内存不足时,使用交换分区的虚拟内存。(更详细的说,就是内核会将暂时不用的内存块信息写到交换空间,
这样以来,物理内存得到了释放,这块内存就可以用于其它目的,当需要用到原始的内容时,这些信息会被重新从交换空间读入物理内存。)

2.linux内存运行机制:

  linux的内存管理采取的是分页存取机制,为了保证物理内存能得到充分的利用,
内核会在适当的时候将物理内存中不经常使用的数据块自动交换到虚拟内存中,而将经常使用的信息保留到物理内存。

  1)首先,Linux系统会不时的进行页面交换操作,以保持尽可能多的空闲物理内存,即使并没有什么事情需要内存,
Linux也会交换出暂时不用的内存页面。这可以避免等待交换所需的时间。 

  2)其次,linux进行页面交换是有条件的,不是所有页面在不用时都交换到虚拟内存,linux内核根据”最近最经常使用“算法,
仅仅将一些不经常使用的页面文件交换到虚拟内存,有时我们会看到这么一个现象:linux物理内存还有很多,但是交换空间也使用了很多。
其实,这并不奇怪,例如,一个占用很大内存的进程运行时,需要耗费很多内存资源,此时就会有一些不常用页面文件被交换到虚拟内存中,
但后来这个占用很多内存资源的进程结束并释放了很多内存时,刚才被交换出去的页面文件并不会自动的交换进物理内存,除非有这个必要,
那么此刻系统物理内存就会空闲很多,同时交换空间也在被使用,就出现了刚才所说的现象了。关于这点,不用担心什么,
只要知道是怎么一回事就可以了。

  3)最后,交换空间的页面在使用时会首先被交换到物理内存,如果此时没有足够的物理内存来容纳这些页面,它们又会被马上交换出去,
如此以来,虚拟内存中可能没有足够空间来存储这些交换页面,最终会导致linux出现假死机、服务异常等问题,
linux虽然可以在一段时间内自行恢复,但是恢复后的系统已经基本不可用了。

  4)因此,合理规划和设计linux内存的使用,是非常重要的。

3.虚拟内存原理:

  在系统中运行的每个进程都需要使用到内存,但不是每个进程都需要每时每刻使用系统分配的内存空间。
当系统运行所需内存超过实际的物理内存,内核会释放某些进程所占用但未使用的部分或所有物理内存,
将这部分资料存储在磁盘上直到进程下一次调用,并将释放出的内存提供给有需要的进程使用。

  在Linux内存管理中,主要是通过“调页Paging”和“交换Swapping”来完成上述的内存调度。
调页算法是将内存中最近不常使用的页面换到磁盘上,把活动页面保留在内存中供进程使用。交换技术是将整个进程,而不是部分页面,
全部交换到磁盘上。 分页(Page)写入磁盘的过程被称作Page-Out,分页(Page)从磁盘重新回到内存的过程被称作Page-In。
当内核需要一个分页时,但发现此分页不在物理内存中(因为已经被Page-Out了),此时就发生了分页错误(Page Fault)。 
当系统内核发现可运行内存变少时,就会通过Page-Out来释放一部分物理内存。经管Page-Out不是经常发生,
但是如果Page-out频繁不断的发生,直到当内核管理分页的时间超过运行程式的时间时,系统效能会急剧下降。
这时的系统已经运行非常慢或进入暂停状态,这种状态亦被称作thrashing(颠簸)。

4.buffer与cache的区别

buff和cache的主要区别是在控制和速度上。buff的控制相对简单,是对数据流缓冲,将需要的数据流临时缓冲在buff里,
以降低低速设备对整体的影响。一般都是对大量的数据交换进行缓冲;cache是对高速交换进行缓冲,需要一些额外的算法来提高效率,
比如读取命中之类的,一般相对较小,速度很快,大多是对指令的临时存储。

2017-08-06 每天2个Linux命令 iostat命令

iostat是I/O statistics(输入/输出统计)的缩写,对系统的磁盘操作活动进行监视。它的特点是汇报磁盘活动统计情况,
同时也会汇报出CPU使用情况。

(1)用法:

用法:  iostat  [参数]  [时间]  [次数]

(2)功能:

功能: 可以提供更丰富的IO性能状态数据,

        通过iostat方便查看CPU、网卡、tty设备、磁盘、CD-ROM 等等设备的活动情况, 负载信息。

同vmstat一样,iostat也有一个弱点,就是它不能对某个进程进行深入分析,仅对系统的整体情况进行分析。iostat属于sysstat软件包。
可以用yum install sysstat 直接安装。

(3)选项参数:

  1) -c                显示CPU使用情况

  2) -d                   显示磁盘使用情况

  3) -k                以 KB 为单位显示

  4) -m               以 M 为单位显示

  5) -N                显示磁盘阵列(LVM) 信息

  6) -x                 显示详细信息

4)实例:

  1)[root@localhost sunjimeng]# iostat            显示所有设备负载情况

复制代码
[root@localhost sunjimeng]# iostat
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.58    0.00    0.92    0.04    0.00   97.47

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               0.57        11.80         2.13     419482      75552
复制代码
      等价于:

复制代码
[root@localhost sunjimeng]# iostat -c -d
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.55    0.00    0.89    0.04    0.00   97.52

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               0.53        10.92         2.00     419506      76803
复制代码
  参数说明:

  1.cpu值属性说明:

  %user:CPU处在用户模式下的时间百分比。

  %nice:CPU处在带NICE值的用户模式下的时间百分比。

  %system:CPU处在系统模式下的时间百分比。

  %iowait:CPU等待输入输出完成时间的百分比。

  %steal:管理程序维护另一个虚拟处理器时,虚拟CPU的无意识等待时间百分比。

  %idle:CPU空闲时间百分比。

  备注:  如果%iowait的值过高,表示硬盘存在I/O瓶颈,%idle值高,表示CPU较空闲,如果%idle值高但系统响应慢时,有可能是CPU等待分配内存,此时应加大内存容量。%idle值如果持续低于10,那么系统的CPU处理能力相对较低,表明系统中最需要解决的资源是CPU。

  2.disk值属性说明:

  tps:该设备每秒的传输次数(Indicate the number of transfers per second that were issued to the device.)。“一次传输”意思是“一次I/O请求”。多个逻辑请求可能会被合并为“一次I/O请求”。“一次传输”请求的大小是未知的。

  kB_read/s:每秒从设备(drive expressed)读取的数据量;

  kB_wrtn/s:每秒向设备(drive expressed)写入的数据量;

  kB_read:读取的总数据量;

  kB_wrtn:写入的总数量数据量;

  这些单位都为kb。

2)[root@localhost sunjimeng]# iostat 1 3        每秒一次,共显示3次

复制代码
[root@localhost sunjimeng]# iostat 1 3
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.56    0.00    0.89    0.04    0.00   97.51

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               0.55        11.25         2.05     419502      76249

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           4.10    0.00    2.05    0.00    0.00   93.85

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               3.96         0.00        13.37          0         13

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.10    0.00    2.19    0.00    0.00   90.71

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               0.00         0.00         0.00          0          0

3)[root@localhost sunjimeng]# iostat -x           显示更多更详细的信息   

复制代码
[root@localhost sunjimeng]# iostat -x
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.55    0.00    0.89    0.04    0.00   97.53

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               0.02     0.03    0.31    0.23    11.16     2.03    48.66     0.02   40.03   10.06   79.52   3.87   0.21     
复制代码
      rrqm/s:每秒这个设备相关的读取请求有多少被Merge了(当系统调用需要读取数据的时候,VFS将请求发到各个FS,
    如果FS发现不同的读取请求读取的是相同Block的数据,FS会将这个请求合并Merge);

  wrqm/s:每秒这个设备相关的写入请求有多少被Merge了。

  rsec/s:每秒读取的扇区数;wsec/:每秒写入的扇区数。

      r/s:The number of read requests that were issued to the device per second;

      w/s:The number of write requests that were issued to the device per second;

  await:每一个IO请求的处理的平均时间(单位是毫秒)。这里可以理解为IO的响应时间,一般地系统IO响应时间应该低于5ms,
    如果大于10ms就比较大了。

  %util:在统计时间内所有处理IO时间,除以总共统计时间。例如,如果统计间隔1秒,该设备有0.8秒在处理IO,而0.2秒闲置,
    那么该设备的%util = 0.8/1 = 80%,所以该参数暗示了设备的繁忙程度。一般地,
    如果该参数是100%表示设备已经接近满负荷运行了(当然如果是多磁盘,即使%util是100%,因为磁盘的并发能力,
    所以磁盘使用未必就到了瓶颈)。

4)[root@localhost sunjimeng]# iostat -c          显示部分cpu的状态值

[root@localhost sunjimeng]# iostat -c
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.54    0.00    0.89    0.04    0.00   97.53

5)[root@localhost sunjimeng]# iostat -d          显示部分disk的状态值

[root@localhost sunjimeng]# iostat -d
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               0.54        11.00         2.01     419502      76703

6)[root@localhost sunjimeng]# iostat -t           显示tty和cpu信息

复制代码
[root@localhost sunjimeng]# iostat -t
Linux 3.10.0-229.el7.x86_64 (localhost.localdomain)     2016年06月07日     _x86_64_    (2 CPU)

2016年06月07日 02时20分31秒
avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.55    0.00    0.89    0.04    0.00   97.52

Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
sda               0.53        10.88         2.01     419506      77323

(5)其他:

  Linux终端TTY:

  终端是一种字符型设备,它有多种类型,通常使用tty来简称各种类型的终端设备。tty是Teletype的缩写。
    Teletype是最早出现的一种终端设备,很象电传打字机(或者说就是),是由Teletype公司生产的。
设备名放在特殊文件目录/dev/下,终端特殊设备文件一般有以下几种:
  1.串行端口终端(/dev/ttySn)
  串行端口终端(Serial Port Terminal)是使用计算机串行端口连接的终端设备。
计算机把每个串行端口都看作是一个字符设备。有段时间这些串行端口设备通常被称为终端设备,因为那时它的最大用途就是用来连接终端。
这些串行端口所对应的设备名称是/dev/tts/0(或/dev/ttyS0)、/dev/tts/1(或/dev/ttyS1)等,
设备号分别是(4,0)、(4,1)等,分别对应于DOS系统下的COM1、COM2等。若要向一个端口发送数据,
可以在命令行上把标准输出重定向到这些特殊文件名上即可。例如,在命令行提示符下键入:echo test > /dev/ttyS1
会把单词”test”发送到连接在ttyS1(COM2)端口的设备上。
  2.伪终端(/dev/pty/)
  伪终端(Pseudo Terminal)是成对的逻辑终端设备,例如/dev/ptyp3和/dev/ttyp3(或着在设备文件系统中分别是/dev/pty/m3和/dev/pty/s3)。
它们与实际物理设备并不直接相关。如果一个程序把ttyp3看作是一个串行端口设备,
则它对该端口的读/写操作会反映在该逻辑终端设备对的另一个上面(ttyp3)。
而ttyp3则是另一个程序用于读写操作的逻辑设备。
这样,两个程序就可以通过这种逻辑设备进行互相交流,而其中一个使用ttyp3的程序则认为自己正在与一个串行端口进行通信。
这很象是逻辑设备对之间的管道操作。
对于ttyp3(s3),任何设计成使用一个串行端口设备的程序都可以使用该逻辑设备。但对于使用ptyp3的程序,
则需要专门设计来使用ptyp3(m3)逻辑设备。
  例如,如果某人在网上使用telnet程序连接到你的计算机上,则telnet程序就可能会开始连接到设备ptyp2(m2)上(一个伪终端端口上)。
此时一个getty程序就应该运行在对应的ttyp2(s2)端口上。当telnet从远端获取了一个字符时,
该字符就会通过m2、s2传递给getty程序,而getty程序就会通过s2、m2和telnet程序往网络上返回”login:”字符串信息。这样,
登录程序与telnet程序就通过“伪终端”进行通信。通过使用适当的软件,就可以把两个甚至多个伪终端设备连接到同一个物理串行端口上。
在使用设备文件系统(device filesystem)之前,为了得到大量的伪终端设备特殊文件,HP-UX AIX等使用了比较复杂的文件名命名方式。
  3.控制终端(/dev/tty)
如果当前进程有控制终端(Controlling Terminal)的话,那么/dev/tty就是当前进程的控制终端的设备特殊文件。
可以使用命令”ps –ax”来查看进程与哪个控制终端相连。对于你登录的shell,/dev/tty就是你使用的终端,设备号是(5,0)
。使用命令”tty”可以查看它具体对应哪个实际终端设备。/dev/tty有些类似于到实际所使用终端设备的一个联接。
  4.控制台终端(/dev/ttyn, /dev/console)
在UNIX系统中,计算机显示器通常被称为控制台终端(Console)。它仿真了类型为Linux的一种终端(TERM=Linux),
并且有一些设备特殊文件与之相关联:tty0、tty1、tty2等。当你在控制台上登录时,使用的是tty1。使用Alt+[F1—F6]组合键时,
我们就可以切换到tty2、tty3等上面去。tty1 –tty6等称为虚拟终端,而tty0则是当前所使用虚拟终端的一个别名,
系统所产生的信息会发送到该终端上。因此不管当前正在使用哪个虚拟终端,系统信息都会发送到控制台终端上。
你可以登录到不同的虚拟终端上去,因而可以让系统同时有几个不同的会话期存在。只有系统或超级用户root可以向/dev/tty0进行写操作,
  5.其它类型
还针对很多不同的字符设备存在有很多其它种类的终端设备特殊文件。例如针对ISDN设备的/dev/ttyIn终端设备等。这里不再赘述。

      2.LVM:

   LVM是 Logical Volume Manager(逻辑卷管理)的简写,它是Linux环境下对磁盘分区进行管理的一种机制。

  建了一个VG,有3个逻辑卷,其中一个我分了100m,但是我往上拷了一个300m的文件,为什么能成功?

  lvm有点像windows下的动态磁盘,因为LVM能够动态调整逻辑卷的大小。实际上LVM卷按照通常分区的概念是在同一个分区上,
每个LVM卷都能动态扩展到整个分区的大小,只要三个逻辑卷已用空间之和小于这个分区的大小,那么你可以向任何LVM卷上继续拷贝文件。

文章作者: 邓滔
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 邓滔 !
评论
  目录