ELK 日志采集监控报警系统搭建

方案一:日志关键字报警

一、系统选型

Elastic 公司有一套免费开源的日志采集系统(ELK),所以我选择拿来即用。

日志流:

日志文件→FileBeat→Logstash→ElasticSearch→Kibana

1、Filebeat

Filebeat是一款轻量级日志采集器,可用于转发和汇总日志与文件。Filebeat内置有多种模块(Nginx、MySQL、Redis、Elasticsearch、Logstash等),可针对常见格式的日志大大简化收集、解析和可视化过程,只需一条命令即可。

2、Logstash

Logstash是一个分布式日志收集框架,开发语言是JRuby,经常与ElasticSearch,Kibana配合使用组成著名的ELK技术栈,所谓ELK就是ElasticSearch、Logstash、Kibana这三个组件。

3、ElasticSearch

Elasticsearch 是一个分布式、可扩展、实时的搜索与数据分析引擎。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。

4、Kibana

Kibana 是一个免费且开放的用户界面,能够让您对 Elasticsearch 数据进行可视化。您可以进行各种操作,从跟踪查询负载,到理解请求如何流经您的整个应用,都能轻松完成。

二、软件版本

各版本下载地址:https://www.elastic.co/cn/downloads/past-releases

软件 版本 下载链接

Filebeat 7.13.0 https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.13.0-linux-x86_64.tar.gz

Logstash 7.13.0 https://artifacts.elastic.co/downloads/logstash/logstash-7.13.0-linux-x86_64.tar.gz

ElasticSearch 7.13.0 https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.13.0-linux-x86_64.tar.gz

Kibana 7.13.0 https://artifacts.elastic.co/downloads/kibana/kibana-7.13.0-linux-x86_64.tar.gz

三、服务器规划

IP 系统 CPU 内存 角色

192.168.1.3 CentOS 7.9 4 8g ES_node1

192.168.1.4 CentOS 7.9 4 8g ES_node2

192.168.1.5 CentOS 7.9 4 8g Logstash

192.168.1.6 CentOS 7.9 4 8g Kibana

四、安装步骤

1、ElasticSearch

注:ElasticSearch本文采用双节点集群安装

系统资源配置

最大文件数

vim /etc/security/limits.conf

1

末尾追加以下内容

  • soft nofile 65536
  • hard nofile 65536
  • soft nproc 65536
  • hard nproc 65536

es soft memlock unlimited

es hard memlock unlimited

内核参数

vim /etc/sysctl.conf

1

末尾追加以下内容

vm.max_map_count=655360

1

刷新生效

sysctl -p

1

创建普通用户 es ,接下来使用普通用户安装

useradd es;su - es

1

下载安装包

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.13.0-linux-x86_64.tar.gz

1

解压

tar -zxvf elasticsearch-7.13.0-linux-x86_64.tar.gz

1

修改配置

cd elasticsearch-7.13.0

1

vim config/elasticsearch.yml

1

es_node1 参考配置

cluster.name: elk-cluster

node.name: node-1

path.data: data

path.logs: logs

network.host: 0.0.0.0

http.port: 9200

discovery.seed_hosts: [“192.168.1.3”, “192.168.1.4”]

cluster.initial_master_nodes: [“node-1”]

es_node2 参考配置

cluster.name: elk-cluster

node.name: node-2

path.data: data

path.logs: logs

network.host: 0.0.0.0

http.port: 9200

discovery.seed_hosts: [“192.168.0.11”, “192.168.0.12”]

cluster.initial_master_nodes: [“node-1”]

创建数据目录

mkdir data

1

启动 elasticsearch 服务

bin/elasticsearch

1

查看 es 集群状态

[root@logstash ~]# curl http://192.168.1.3:9200/_cluster/health?pretty

{

“cluster_name” : “elk-cluster”,

“status” : “green”,

“timed_out” : false,

“number_of_nodes” : 2,

“number_of_data_nodes” : 2,

“active_primary_shards” : 0,

“active_shards” : 0,

“relocating_shards” : 0,

“initializing_shards” : 0,

“unassigned_shards” : 0,

“delayed_unassigned_shards” : 0,

“number_of_pending_tasks” : 0,

“number_of_in_flight_fetch” : 0,

“task_max_waiting_in_queue_millis” : 0,

“active_shards_percent_as_number” : 100.0

}

[root@logstash ~]# curl http://192.168.1.4:9200/_cluster/health?pretty

{

“cluster_name” : “elk-cluster”,

“status” : “green”,

“timed_out” : false,

“number_of_nodes” : 2,

“number_of_data_nodes” : 2,

“active_primary_shards” : 0,

“active_shards” : 0,

“relocating_shards” : 0,

“initializing_shards” : 0,

“unassigned_shards” : 0,

“delayed_unassigned_shards” : 0,

“number_of_pending_tasks” : 0,

“number_of_in_flight_fetch” : 0,

“task_max_waiting_in_queue_millis” : 0,

“active_shards_percent_as_number” : 100.0

}

2、Logstash

下载 Logstash

wget https://artifacts.elastic.co/downloads/logstash/logstash-7.13.0-linux-x86_64.tar.gz

解压

tar -zxvf logstash-7.13.0-linux-x86_64.tar.gz

启动测试

cd logstash-7.13.0/

bin/logstash -e ‘input {stdin{}} output{stdout{}}’

3、Filebeat

注:Filebeat主要功能是采集日志,所以一般安装在日志源服务器上。

下载 Filebeat

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.13.0-linux-x86_64.tar.gz

Centos7搭建ELK+filebeat.docx

docx

0星

超过10%的资源

18KB

下载

解压安装包

tar -zxvf filebeat-7.13.0-linux-x86_64.tar.gz

4、Kibana

下载

wget https://artifacts.elastic.co/downloads/kibana/kibana-7.13.0-linux-x86_64.tar.gz

解压

tar -zxvf kibana-7.13.0-linux-x86_64.tar.gz

修改配置

cd kibana-7.13.0-linux-x86_64

vim config/kibana.yml

参考配置

server.port: 5601

server.host: “0.0.0.0”

elasticsearch.hosts: ["http://192.168.1.3:9200","http://192.168.1.4:9200"]

i18n.locale: “zh-CN”

启动

bin/kibana –allow-root

1

访问:http://192.168.1.6:5601

五、接入测试

本文采集 nginx 日志,首先修改 Nginx 日志格式,方便过滤

log_format json ‘{ “@timestamp”: “$time_iso8601”, '

‘“remote_addr”: “$remote_addr”, '

‘“remote_user”: “$remote_user”, '

‘“body_bytes_sent”: “$body_bytes_sent”, '

‘“request_time”: “$request_time”, '

‘“status”: “$status”, '

‘“request_uri”: “$request_uri”, '

‘“request_method”: “$request_method”, '

‘“http_referer”: “$http_referer”, '

‘“http_x_forwarded_for”: “$http_x_forwarded_for”, '

‘“http_user_agent”: “$http_user_agent”}’;

access_log /var/log/nginx/access.log json ;

1、Logstash配置

cd logstash-7.13.0/

1

cp config/logstash-sample.conf config/logstash-beat.conf

1

vim config/logstash-beat.conf

1

参考配置。这里 filter 使用 json 插件,采集 nginx 的日志

input {

beats {

port => 5044

client_inactivity_timeout => 36000

}

}

filter {

json {

source => “message”

}

}

output {

elasticsearch {

hosts => ["http://192.168.1.3:9200","http://192.168.1.4:9200"]

index => “%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}”

}

stdout { codec => rubydebug }

}

【可选】如果不想修改nginx格式,可以在 logstash 中使用 grok 插件正则过滤

grok {

match => {

“message” => “%{IPV4:remote_addr} - (%{USERNAME:remote_user}|-) [%{HTTPDATE:time_local}] “%{WORD:request_method} %{URIPATHPARAM:request_uri} HTTP/%{NUMBER:http_protocol}” %{NUMBER:http_status} %{NUMBER:body_bytes_sent} “%{GREEDYDATA:http_referer}” “%{GREEDYDATA:http_user_agent}” “(%{IPV4:http_x_forwarded_for}|-)””

}

overwrite => [“message”]

}

启动

bin/logstash -f config/logstash-beat.conf –config.reload.automatic

1

–config.reload.automatic 参数设定会自动读取变更的配置文件,而不需要重启logstash

2、Filebeat配置

这里以采集 nginx 的输出日志作为范例

ELK日志系统实施方案.docx

docx

0星

超过10%的资源

506KB

下载

启动 beat 的 nginx 模块

cd filebeat-7.13.0-linux-x86_64/

./filebeat modules enable nginx

修改nginx module配置

vim modules.d/nginx.yml

参考配置

  • module: nginx

access:

enabled: true

var.paths: ["/var/log/nginx/access.log"]

error:

enabled: true

var.paths: ["/var/log/nginx/error.log"]

ingress_controller:

enabled: false

创建输出到 logstash 的配置文件

vim filebeat_logstash.yml

1

参考配置

filebeat.config.modules:

path: ${path.config}/modules.d/*.yml

reload.enabled: false

output.logstash:

hosts: [“192.168.1.5:5044”]

启动

./filebeat -e -c filebeat_logstash.yml

1

访问几次 nginx,使它产生日志,然后查看 es 中的数据

3、kibana 配置

添加数据

到这一步完成。

点击左边的Discover 菜单

自定义字段显示日志

可以根据采集的日志画图

六、日志报警

方案一:日志关键字报警

filebeat + logstash + webhook

filebeat 配置文件 filebeat_logstash.yml

============================== Filebeat inputs ===============================

filebeat.inputs:

  • type: log

enabled: true

paths:

  • /opt/logs/java-db-binlog.log

—————————— Logstash Output ——————————-

output.logstash:

hosts: [“192.168.1.5:5044”]

启动

./filebeat -e -c ./filebeat_logstash.yml

1

logstash 安装插件 logstash-output-exec

修改 Gem 源

vim Gemfile

source “https://gems.ruby-china.com

需要安装 exec 插件

bin/logstash-plugin install –no-verify logstash-integration-jdbc

bin/logstash-plugin install logstash-output-exec

logstash 配置文件 logstash-beat.conf

input {

beats {

port => 5044

client_inactivity_timeout => 36000

}

}

filter {

if “INFO” in [message]{

drop{}

}

if “WARN” in [message] {

drop{}

}

}

output {

if ‘ERROR’ in [message] {

stdout { codec => rubydebug }

exec {

command => “/bin/bash /opt/shell/send_error_msg.sh”

}

}

}

启动

bin/logstash -f config/logstash-beat.conf –config.reload.automatic

1

微信 webhook 机器人脚本

#! /bin/bash

测试群

wx_url="https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=2723645c-8252-4e29-9xx9-2446xxx1"

/bin/curl ${wx_url} -H “Content-Type: application/json” -d ‘{“msgtype”: “markdown”, “markdown”: {“content”: “日志关键字告警: ERROR \n>项目: 测试项目 “}}’

————————————————

版权声明:本文为CSDN博主「刘李404not found」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/qq_39680564/article/details/118965970

Published At