十、Supervisor and Docker Compose

目录


I.使用Supervisor 来管理进程

回顶部

Docker 容器在启动的时候开启单个进程,比如,一个 ssh 或者 apache 的 daemon 服务。但我们经常需要在一个机器上开启多个服务,这可以有很多方法,最简单的就是把多个启动命令放到一个启动脚本里面,启动的时候直接启动这个脚本。 例如:docker run –d 镜像 /run.sh 另外就是安装进程管理工具。 本节将使用进程管理工具 supervisor 来管理容器中的多个进程。使用 Supervisor 可以更好的控制、管理、重启我们希望运行的进程。

Supervisor是一个进程控制系统. 它是一个C/S系统(注意: 其提供WEB接口给用户查询和控制), 它允许用户去监控和控制在类UNIX系统的进程。

在这里我们演示一下如何同时使用 ssh 和 apache 服务。

i.配置

回顶部

首先创建一个 Dockerfile,内容和各部分的解释如下。

1.创建一个dockerfile的目录

回顶部

2.dockerfile文件内容

回顶部

3.supervisor 配置文件内容

回顶部

第一段 supervsord 配置软件本身,使用 nodaemon 参数来运行。nodaemon=true 如果是true,supervisord进程将在前台运行,默认为false,也就是后台以守护进程运行。 下面2段包含我们要控制的 2 个服务。每一段包含一个服务的目录和启动这个服务的命令 /docker/apache目录内容列表

ii.使用方法

回顶部

1.创建image

回顶部

# docker build -t centos:supervisord

2.查看镜像

回顶部

3.启动supervisor容器

回顶部

4.测试

回顶部

访问容器提供的webssh服务


II.Docker Compose 项目

回顶部

i.compose项目简介

回顶部

compose项目来源于之前的Fig项目,使用python代码编写。compose项目主要用于编排部署基于docker的应用。本身与docker/swarm配合度很高。

Docker Compose 是 Docker 编排服务的一部分,可以让用户在其它平台快速安装Docker,Swarm 可以让 Docker 容器在集群中高效运转,而 Compose 可以让用户在集群中部署分布式应用。简单的说,Docker Compose 属于一个“应用层”的服务,用户可以定义哪个容器组运行哪个应用,它支持动态改变应用,并在需要时扩展。 相对于kubernetes来说功能比较简单,相当于kubernetes的一个子集。

dockerfile可以让用户管理一个单独的应用容器,而Compose则允许用户在一个模板(yaml格式)中定义一组相关联的应用容器(被称为一个Project,即项目),例如一个调度器,两个web服务容器再加上后端的数据库服务容器等。

安装Compose之前,要先安装docker,这里就不说了,

ii.安装docker-compose

回顶部

1.安装pip

回顶部

注:pip类似RedHat里面的yum,安装Python包非常方便 #wget https://bootstrap.pypa.io/get-pip.py

#python get-pip.py

2.安装compose

回顶部

3.查看docker-compose 的版本和命令的用法

回顶部

#docker-compose -v

#docker-compose -h

iii.术语

回顶部

首先介绍几个术语。

服务(service):一个应用容器,实际上可以运行多个相同镜像的实例。 项目(project):由一组关联的应用容器组成的一个完整业务单元。

可见,一个项目可以由多个服务(容器)关联而成,Compose 面向项目进行管理。

iv.docker-compose命令说明

回顶部

大多数Compose命令都是运行于一个或多个服务的,如果服务没有指定,该命令将会应用到所有服务,如果要获得所有可用信息,使用命令:docker-compose [COMMAND] --help,下面是命令(COMMAND)的说明:

1.build

回顶部

创建或者再建服务 服务被创建后会标记为project_service(比如composetest_db),如果改变了一个服务的Dockerfile或者构建目录的内容,可以使用docker-compose build来重建它

2.help

回顶部

显示命令的帮助和使用信息

3.3kill

回顶部

通过发送SIGKILL的信号强制停止运行的容器,这个信号可以选择性的通过,比如: docker-compose kill -s SIGKINT

4.logs

回顶部

显示服务的日志输出

5.port

回顶部

为端口绑定输出公共信息

6.ps

显示容器

7.pull

回顶部

拉取服务镜像

8.rm

回顶部

删除停止的容器

9.run

回顶部

在服务上运行一个一次性命令,比如: docker-compose run web Python manage.py shell

10.scale

回顶部

设置为一个服务启动的容器数量,数量是以这样的参数形式指定的:service=num,比如: docker-compose scale web=2 worker=3

11.start

回顶部

启动已经存在的容器作为一个服务

12,stop

回顶部

停止运行的容器而不删除它们,它们可以使用命令docker-compose start重新启动起来

13.up

回顶部

为一个服务构建、创建、启动、附加到容器 连接的服务会被启动,除非它们已经在运行了 运行docker-compose up -d会在后台启动容器并使它们运行

14.–verbose

回顶部

显示更多输出

15.–version

回顶部

显示版本号并退出

16.-f,–file FILE

回顶部

指定一个可选的Compose yaml文件(默认:docker-compose.yml

17.-p,–project-name NAME

回顶部

指定可选的项目名称(默认:当前目录名称)

v.docker-compose.yml命令说明

回顶部

每一个定义在docker-compose.yml中的服务必须明确指定一个image或者build选项,这与docker run命令行中输入的是对应相同的,对于docker run,在Dockerfile文件中指定的选项(比如CMDEXPOSEVOLUMEENV)是默认的,因此不必在docker-compose.yml中再指定一次

1.image

回顶部

标明image的ID,这个image ID可以是本地也可以是远程的,如果本地不存在,Compose会尝试去pull下来

image: ubuntu    
image: orchardup/postgresql    
image: a4bc65fd  

2.build

回顶部

该参数指定Dockerfile文件的路径,该目录也是发送到守护进程的构建环境(这句有点),Compose将会以一个已存在的名称进行构建并标记,并随后使用这个image
build: /path/to/build/dir

3.command

重写默认的命令,覆盖容器启动后默认执行的命令 command: 要执行的命令

回顶部

连接到其他服务中的容器,可以指定服务名称和这个链接的别名,或者只指定服务名称

links:    
 - db    
 - db:database    
 - redis

此时,在容器内部,会在/etc/hosts文件中用别名创建一个条目,就像这样:

172.17.2.186  db    
172.17.2.186  database    
172.17.2.186  redis    

环境变量也会被创建,关于环境变量的参数,会在后面讲到

回顶部

连接到在这个docker-compose.yml文件或者Compose外部启动的容器,特别是对于提供共享和公共服务的容器。在指定容器名称和别名时,external_links遵循着和links相同的语义用法

external_links:    
 - redis_1    
 - project_db_1:mysql    
 - project_db_1:postgresql

6.ports

回顶部

暴露端口,指定两者的端口(主机:容器),或者只是容器的端口(主机会被随机分配一个端口)
注:当以 主机:容器 的形式来映射端口时,如果使容器的端口小于60,那可能会出现错误,因为YAML会将 xx:yy这样格式的数据解析为六十进制的数据,基于这个原因,时刻记得要将端口映射明确指定为字符串

ports:    
 - "3000"    
 - "8000:8000"    
 - "49100:22"    
 - "127.0.0.1:8001:8001"

7.expose

回顶部

暴露端口而不必向主机发布它们,而只是会向链接的服务(linked service)提供,只有内部端口可以被指定

expose:    
 - "3000"    
 - "8000"

8.volumes

回顶部

挂载路径最为卷,可以选择性的指定一个主机上的路径(主机:容器),或是一种可使用的模式(主机:容器:ro)

volumes:
- /var/lib/mysql
- cache/:/tmp/cache
- ~/configs:/etc/configs/:ro

9.volumes_from:

回顶部

从另一个服务或容器挂载它的所有卷。

volumes_from:  
- service_name    
 - container_name

10.environment

回顶部

加入环境变量,可以使用数组或者字典,只有一个key的环境变量可以在运行Compose的机器上找到对应的值,这有助于加密的或者特殊主机的值

environment:    
  RACK_ENV: development    
  SESSION_SECRET:    
environments:    
  - RACK_ENV=development    
  - SESSION_SECRET

11.env_file

回顶部

从一个文件中加入环境变量 如果通过 docker-compose -f FILE 指定了模板文件,则 env_file 中路径会基于模板文件路径。如果有变量名称与 environment 指令冲突,则以后者为准。

env_file: .env
env_file:
- ./common.env
- ./apps/web.env
- /opt/secrets.env

环境变量文件中每一行必须符合格式,支持 # 开头的注释行。

# common.env: Set Rails/Rack environment
RACK_ENV=development  

12.net

回顶部

网络模式,可以在docker客户端的--net参数中指定这些值

net: "bridge"
net: "none"
net: "container:[name or id]"
net: "host"

13.dns

回顶部

自定义DNS服务,可以是一个单独的值或者一张列表

dns: 8.8.8.8    
dns:    
  - 8.8.8.8    
  - 9.9.9.9

14.dns_search

回顶部

自定义DNS搜索范围,可以是单独的值或者一张列表

dns_search: example.com    
dns_search:    
  - dc1.example.com    
  - dc2.example.com

使用Compose只需要简单的三个步骤:

  • 首先,使用Dockerfile或docker commit来定义你的应用环境
  • 第二步,用一个docker-compose.yml来定义你的应用,他们可以在下个互隔离的容器中组成你的应用。
  • 第三步,执行docker-compose up -d来启动你的应用,它会根据docker-compose.yml的设置来pull/run相关的容器。

vi.测试案例

回顶部

下面,我们创建一个经典的 Web 项目:一个 Haproxy,挂载三个 Web 容器。

docker-haproxy目录,作为项目工作目录,并在其中分别创建两个子目录: haproxy 和web。

#mkdir  -p  /root/docker-haproxy/{haproxy,web}

/root/docker-haproxy/目录下创建docker-compose.yml文件 在/root/docker-haproxy/haproxy目录下创建haproxy的主配置文件haproxy.cfg/root/docker-haproxy/web目录下存放web站点网页文件

1.目录结构

回顶部

目录结构如下图所示:

2.web子目录

回顶部

Web 子目录: 生成一个index.html文件,其内容:

3.haproxy目录

回顶部

haproxy 目录: 在其中生成一个 haproxy.cfg 文件

4.docker-compose.yml

回顶部

docker-compose.yml 编写 docker-compose.yml 文件,这个是 Compose 使用的主模板文件。内容十分简单,指定 3 个 web 容器,以及 1 个 haproxy 容器。

5.运行 `compose 项目

回顶部

在`docker-haproxy`目录下执行`docker-compose up -d`来启动你的应用
#cd docker-haproxy

查看容器启动情况

6.测试

回顶部

打开浏览器本机本机IP:http://192.168.1.105

打开浏览器本机本机IP:http://192.168.1.105:70

回顶部


results matching ""

    No results matching ""