本文共 6488 字,大约阅读时间需要 21 分钟。
容器和虚拟机的区别:
虚拟机不需要做,因为虚拟机在创建的时候已经做了资源分配(配额),(虚拟CPU,虚拟内存,虚拟磁盘等)
而容器共享内核资源,所以需要做Cgroup,按照往年监控的数据,查看cpu等资源的耗用情况来进行分配Docker是通过Cgroup来控制容器使用的资源配额,包括CPU、内存、磁盘i/o三大方面,基本覆盖了常见的资源配额和使用量控制。
Cgroup是Control Groups的缩写,是Linux内核提供的一种可以限制、记录、隔离进程组所使用的物理资源(如CPU、内存、磁盘IO等)的机制,被docker等很多项目用于实现进程资源控制。Cgroup本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O或内存的分配控制等具体的资源管理功能。
这些具体的资源管理功能称为Cgroup子系统,有以下几大子系统实现:
使用Dockerfile来创建一个基于Centos的stress工具镜像
[root@server1 ~]# mkdir stress[root@server1 ~]# vim stress/Dockerfile[root@server1 ~]# cd stress/[root@server1 stress]# vim DockerfileFROM centos:7MAINTAINER chenRUN yum -y install wgetRUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repoRUN yum -y install stress[root@server1 stress]# docker build -t centos:stress .
使用如下命令创建容器,命令中的–cpu-shares参数值不能保证可以获得1个vcpu或者多少GHz的CPU资源,它仅是一个弹性的加权值。
[root@server1 ~]# docker run -itd --cpu-shares 100 centos:stress
默认情况下,每个Docker容器的CPU份额都是1024。单独一个容器的份额是没有意义的。只有在同时运行容器时,容器的cpu加权的效果才能显现。
例如:两个容器A、B的cpu份额分别为1000和500,在cpu进行实际片分配的时候,容器A比容器B多一倍的机会获得cpu的时间片。但分配的结果取决于当时主机和其他容器的运行状态,实际上也无法保证容器A一定能获得cpu时间片。比如容器A的进程一直是空闲的,那么容器B是可以获取比容器A更多的cpu时间片的。极端情况下,例如主机上只运行了一个容器,即使它的cpu份额只有50,它也可以独占整个主机的cpu。
例如:cpu时间片:1秒 容器A:50% 0.5秒 容器B:25% 0.25秒 容器C:25% 0.25秒 CPU给容器充电是在平均值层面:CPU给A容器充0.5秒,给B容器充0.25秒可以通过cpu share可以设置容器使用cpu的优先级,比如启动了两个容器及运行查看cpu使用百分比。
[root@server1 ~]# docker run -itd --name cpu512 --cpu-shares 512 centos:stress stress -c 10 #stress -c 10:容器产生10个子函数进程[root@server1 ~]# docker exec -it d915d8464584 /bin/bash[root@d915d8464584 /]# top
[root@server1 ~]# docker run -itd --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10 [root@server1 ~]# docker exec -it 75af41079bdd /bin/bash[root@75af41079bdd /]# top可以发现两个容器cpu使用率是2:1
Docker提供了–cpu-period、–cpu-quota两个参数控制容器可以分配到的CPU时钟周期。
cpu-period和cpu-quota的单位为微秒(μs)。cpu-period的最小值为1000微秒,最大值为1秒,默认值为0.1秒(100000μs)
cpu-quota的值默认为-1,表示不做控制。cpu-period和cpu-quota参数一般联合使用。 例如:容器进程需要每1秒使用单个cpu的0.2秒时间,可以将cpu-period设置为1000000即1秒,cpu-quota设置为200000(0.2秒)。 在多核情况下,如果允许容器进程完全占用两个cpu,则可以将cpu-period设置为100000即0.1秒,cpu-quota设置为200000即0.2秒[root@server1 ~]# docker run -itd --cpu-period 100000 --cpu-quota 200000 centos:stress fc40fe4a887829ea1c4c3de476ca550004d408aec0c1d8212f79713869543c55[root@server1 ~]# docker ps -a[root@server1 ~]# docker exec -it fc40fe4a8878 /bin/bash[root@fc40fe4a8878 /]# cd /sys/fs/cgroup/cpu[root@fc40fe4a8878 cpu]# lscgroup.clone_children cpu.cfs_period_us cpu.rt_runtime_us cpuacct.stat notify_on_releasecgroup.event_control cpu.cfs_quota_us cpu.shares cpuacct.usage taskscgroup.procs cpu.rt_period_us cpu.stat cpuacct.usage_percpu[root@fc40fe4a8878 cpu]# cat cpu.cfs_period_us 100000[root@fc40fe4a8878 cpu]# cat cpu.cfs_quota_us 200000
对多核CPU的服务器,Docker还可以控制容器运行使用哪些CPU内核,即使用–cpuset-cpus参数。这对具有多CPU的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置。
[root@server1 ~]# docker run -tid --name cpu1 --cpuset-cpus 0-1 centos:stress
执行以上命令表示创建的容器只能用0、1两个cpu。最终生成的cgroup的cpu内核配置如下:
[root@server1 ~]# docker exec -it eefe294955f8 bash[root@eefe294955f8 /]# cat /sys/fs/cgroup/cpuset/cpuset.cpus 0-1[root@eefe294955f8 /]# stress -c 5 & #让容器产生5个子函数进程,并在后台运行[root@eefe294955f8 /]# top #使用top命令查看cpu工作情况(top进去后按1,显示每个cpu的工作情况)通过下面指令可以看到容器中进程与cpu内核的绑定关系
[root@server1 ~]# docker exec eefe294955f8 taskset -c -p 1 表示容器中第一个进程pid为1被绑定到cpu1和2上pid 1's current affinity list: 0,1
通过 cpuset-cpus 参数指定容器 A 使用 CPU 内核 0,容器 B 只是用 CPU 内核 1。
在主机上只有这两个容器使用对应 CPU 内核的情况,它们各自占用全部的内核资源,cpu-shares 没有明显效果。cpuset-cpus、cpuset-mems 参数只在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的。
在系统具有多个 CPU 内核的情况下,需要通过 cpuset-cpus 参数为设置容器 CPU 内核才能方便地进行测试。
#创建容器cpu10,仅使用cpu1核心,加权值为512
[root@server1 ~]# docker run -itd --name cpu10 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1f885714260cb56310b521d77f3f69db906ea582d28c843297f5d31be59b149d4[root@server1 ~]# docker exec -it f885714260cb bash[root@f885714260cb /]# top创建容器cpu12,仅使用cpu1核心,加权值为1024
[root@server1 ~]# docker run -itd --name cpu12 --cpuset-cpus 1 --cpu-shares 1024 centos:stress stress -c 1
对比cpu使用占比
与操作系统类似,容器可使用的内存包括两部分: 物理内存和Swap
Docker通过下面两组参数来控制容器内存的使用量。
执行如下命令允许该容器最多使用200M的内存和300M的swap
[root@server1 ~]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M--vm 1:启动1个内存工作线程--vm-bytes 280M:每个线程分配280M内存
默认情况下,容器可以使用主机上的所有空闲内存。
与cpu的cgroups配置类似,Docker会自动为容器在目录/sys/fs/cgroup/memory/docker/<容器的完整长id>中创建相应cgroup配置文件 注意:如果让工作线程分配的内存超过300M,分配的内存超过限额,stress线程报错,容器退出。[root@server1 ~]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 310M
bps是byte per second,每秒读写的数据量。
iops是io per second,每秒io的次数。 可通过以下参数控制容器的bps和iops:–device-read-bps,限制读某个设备的bps。
–device-write-bps,限制写某个设备的bps。 –device-read-iops,限制读某个设备的iops。 –device-write-iops,限制写某个设备的iops。示例:限制容器写/dev/sda的速率为5MB/s。
[root@server1 ~]# docker run -it --device-write-bps /dev/sda:5MB centos:stress[root@b4bb0fbc1c44 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct^C28+0 records in28+0 records out29360128 bytes (29 MB) copied, 5.60286 s, 5.2 MB/s
通过dd命令测试在容器中写磁盘的速度是否为5MB/s。因为容器的文件系统是在主机/dev/sda上的,在容器中写文件相当于对主机/dev/sda进行写操作。另外,oflag=direct指定用direct IO方式写文件,这样 --device-write-bps才能生效。
结果表明限速5MB/s左右。作为对比测试,如果不限速,结果如下:[root@server1 ~]# docker run -it centos:stress[root@34a3a0f91892 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct1024+0 records in1024+0 records out1073741824 bytes (1.1 GB) copied, 0.830403 s, 1.3 GB/s
默认情况下,所有容器能平等地读写磁盘,可以通过设置–blkio-weight 参数来改变 容器 block IO 的优先级。
–blkio-weight 与 --cpu-shares 类似,设置的是相对权重值,默认为 500。 在下面 的例子中,容器 A 读写磁盘的带宽是容器 B 的两倍。[root@server1 ~]# docker run -it --name nameA --blkio-weight 800 centos:stress [root@97a7d9a7893c /]# cat /sys/fs/cgroup/blkio/blkio.weight800
[root@server1 ~]# docker run -it --name nameB --blkio-weight 300 centos:stress [root@ffab8c022b42 /]# cat /sys/fs/cgroup/blkio/blkio.weight300
转载地址:http://orkgf.baihongyu.com/