概述
应用一旦容器化以后,需要考虑的就是如何采集位于docker容器中的应用程序的打印日志供运维分析。典型的比如springboot应用的日志 收集。本文即将阐述如何利用elk日志中心来收集容器化应用程序所产生的日志,并且可以用可视化的方式对日志进行查询与分析,其架构如下图所示:
架构图
镜像准备
镜像准备
- elasticsearch镜像
- logstash镜像
- kibana镜像
- nginx镜像(作为容器化应用来生产日志)
开启linux系统rsyslog服务
修改rsyslog服务配置文件:
1
|
vim /etc/rsyslog.conf |
开启下面三个参数:
1
2
3
4
|
$modload imtcp $inputtcpserverrun 514 *.* @@localhost:4560 |
开启3个参数
意图很简单:让rsyslog加载imtcp模块并监听514端口,然后将rsyslog中收集的数据转发到本地4560端口!
然后重启rsyslog服务:
1
|
systemctl restart rsyslog |
查看rsyslog启动状态:
1
|
netstat -tnl |
部署elasticsearch服务
1
2
3
|
docker run -d -p 9200:9200 \ - v ~ /elasticsearch/data : /usr/share/elasticsearch/data \ --name elasticsearch elasticsearch |
es启动成功效果
部署logstash服务
添加 ~/logstash/logstash.conf
配置文件如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
input { syslog { type => "rsyslog" port => 4560 } } output { elasticsearch { hosts => [ "elasticsearch:9200" ] } } |
配置中我们让logstash从本地的rsyslog服务中取出应用日志数据,然后转发到elasticsearch数据库中!
配置完成以后,可以通过如下命令来启动logstash容器:
1
2
3
4
5
|
docker run -d -p 4560:4560 \ -v ~/logstash/logstash.conf:/etc/logstash.conf \ --link elasticsearch:elasticsearch \ --name logstash logstash \ logstash -f /etc/logstash.conf |
部署kibana服务
1
2
3
4
|
docker run -d -p 5601:5601 \ --link elasticsearch:elasticsearch \ -e elasticsearch_url=http://elasticsearch:9200 \ --name kibana kibana |
启动nginx容器来生产日志
1
2
3
|
docker run -d -p 90:80 --log-driver syslog --log-opt \ syslog-address=tcp://localhost:514 \ --log-opt tag="nginx" --name nginx nginx |
很明显docker容器中的nginx应用日志转发到本地syslog服务中,然后由syslog服务将数据转给logstash进行收集。
至此,日志中心搭建完毕,目前一共四个容器在工作:
实验验证
浏览器打开 localhost:90
来打开nginx界面,并刷新几次,让后台产生get请求的日志
打开kibana可视化界面: localhost:5601
localhost:5601
收集nginx应用日志
收集nginx应用日志
查询应用日志
在查询框中输入 program=nginx
可查询出特定日志
查询应用日志
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://www.jianshu.com/p/a40c36beee63