【ELK企业级日志分析系统】部署Filebeat+ELK详解

部署Filebeat+ELK详解

  • 1. 部署Filebeat节点(CentOS 7-4)
    • 1.1 部署Apache服务
    • 1.2 部署Filebeat服务
  • 2. filter插件
    • 2.1 grok正则捕获插件
      • 2.1.1 内置正则表达式调用
      • 2.1.2 自定义表达式调用
      • 2.1.3 设置正则表达式过滤条件
    • 2.2 mutate数据修改插件
      • 2.2.1 Mutate过滤器常用的配置选项
      • 2.2.2 Mutate过滤器示例
      • 2.2.3 mutate数据修改插件实战演练
    • 2.3 multiline多行合并插件
    • 2.4 date时间处理插件
  • 3.实验中的故障案例
  • 4. logstash filter过滤插件总结

接上文安装与部署ELK详解

1. 部署Filebeat节点(CentOS 7-4)

###关闭和禁止防火墙开机自启功能
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config

1.1 部署Apache服务

(1)在Filebeat节点上,安装Apache服务

yum install -y httpd

在这里插入图片描述
(2)修改Apache服务的配置文件

vim /etc/httpd/conf/httpd.conf
ServerName www.clr.com:80

在这里插入图片描述
(3)开启Apache服务

systemctl start httpd
systemctl enable httpd
netstat -lntp | grep httpd

在这里插入图片描述
(4)浏览器访问,验证Apache服务

http://192.168.80.40/

在这里插入图片描述

1.2 部署Filebeat服务

(1) 安装Filebeat

cd /opt
rz -E
#filebeat-6.7.2-linux-x86_64.tar.gz
tar xf filebeat-6.7.2-linux-x86_64.tar.gz 

(2)设置filebeat的主配置文件

cd /opt/filebeat-6.7.2-linux-x86_64/
cp filebeat.yml{,.bak}vim filebeat.yml
###15行-------------
filebeat.inputs:
- type: log         #指定 log 类型,从日志文件中读取消息enabled: truepaths:- /var/log/httpd/access_log       #指定监控的日志文件-  tags: ["filebaeat"]#设置索引标签###46行--------------------fields:           #可以使用 fields 配置选项设置一些参数字段添加到 output 中service_name: httpd      #重点强调,service_name:与httpd中间存在一个空格log_type: accessfrom: 192.168.80.40--------------Elasticsearch output-------------------
###152行
(全部注释掉)----------------Logstash output---------------------
###165行
output.logstash:hosts: ["192.168.80.30:5044"]      #指定 logstash 的 IP 和端口

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
(3)启动filebeat

nohup ./filebeat -e -c filebeat.yml > filebeat.out &
#-e:输出到标准输出,禁用syslog/文件输出
#-c:指定配置文件
#nohup:在系统后台不挂断地运行命令,退出终端不会影响程序的运行

在这里插入图片描述
(4)在Logstash组件所在节点上新建一个Logstash 配置文件(CentOS 7-3)

vim /etc/logstash/conf.d/filebeat.conf
input {beats {port => "5044"}
}output {elasticsearch {hosts => ["192.168.80.10:9200","192.168.80.20:9200"]index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"}stdout {codec => rubydebug}
}

在这里插入图片描述
(5)启动logstash,加载配置文件

cd /etc/logstash/conf.d
logstash -f filebeat.conf      #切记logstash服务一定要在/etc/logstash/conf.d配置文件的绝对路径下启动###在filebeat节点上启动filebeat服务,并检查配置我文件filebeat.yml
./filebeat -e -c filebeat.yml      #在加载logstash -f /etc/logstash/conf.d/*.conf配置文件时,要保证filebeat服务一直是开启的状态

在这里插入图片描述

在这里插入图片描述
(6)浏览器访问

http://192.168.80.10:5601

登录Kibana,单击“Create Index Pattern”按钮添加索引“filebeat-*”,单击 “create” 按钮创建,单击 “Discover” 按钮可查看图表信息及日志信息。
在这里插入图片描述

2. filter插件

对于Logstash的Filter,这个才是Logstash最强大的地方。Filter插件也非常多,我们常用到的grok、date、mutate、mutiline四个插件。
在这里插入图片描述

对于filter的各个插件执行流程,可以看下面这张图:

在这里插入图片描述

2.1 grok正则捕获插件

grok使用文本片段切分的方式来切分日志事件.

2.1.1 内置正则表达式调用

语法:%{SYNTAX:SEMANTIC}

  • SYNTAX代表匹配值的类型,例如,0.11可以NUMBER类型所匹配,10.222.22.25可以使用IP匹配。

  • SEMANTIC表示存储该值的一个变量声明,它会存储在elasticsearch当中,方便kibana做字段搜索和统计,你可以将一个IP定义为客户端IP地址client_ip_address,如%{IP:client_ip_address},所匹配到的值就会存储到client_ip_address这个字段里边,类似数据库的列名,也可以把 event log中的数字,当成数字类型存储在一个指定的变量当中,比如响应时间http_response_time,假设event log record如下:

message: 192.168.80.10 GET /index.html 15824 0.043#可以使用如下grok pattern来匹配这种记录
%{IP:client_id_address} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:http_response_time}

在这里插入图片描述

IPV4的正则表达式

###grok内置IPV4正则表达式
(?<![0-9])(?:(?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5])[.](?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5])[.](?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5])[.](?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5]))(?![0-9])
###自定义IPV4正则表达式思路
[0-9]{1,3}.[0-9]{1,3}.[0-9]{1,3}.[0-9]{1,3}0-2550-9        [0-9]
10-99      [1-9][0-9]
100-199   1[0-9][0-9]
200-249   2[0-4][0-9]
250-255   25[O-5]

2.1.2 自定义表达式调用

语法:(?<field_name>pattern)

举例:捕获10或11和长度的十六进制数的queue_id可以使用表达式(?<queue_id>[0-9A-F]{10,11})

message: 192.168.80.10 GET /index.html 15824 0.043(?<remote_addr>\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}) (?<http_method>[A-Z]+) (?<request_uri>/.*) (?<response_bytes>[0-9]+) (?<response_time>[0-9\.]+)

在这里插入图片描述
活学活用

#字段名            正则表达式过滤条件       
remote_addr        IP
log_time           HTTPDATE
http_method        WORD
request_url        URIPATH
http_ver           .+
response_code      NUMBER
user_agent         .+

实战演练:
使用正则表达式过滤日志数据记录

###日志数据记录一
192.168.80.1 - - [11/Jul/2023:09:48:24 +0800] "GET / HTTP/1.1" 403 4897 "-" "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.5359.125 Safari/537.36"###日志数据记录二
192.168.80.1 - - [11/Jul/2023:10:24:52 +0800] "GET /test.html HTTP/1.1" 200 32 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36"###日志数据记录三
192.168.80.20 - - [11/Jul/2023:10:24:36 +0800] "GET /test.html HTTP/1.1" 200 32 "-" "curl/7.29.0"###使用正则表达式进行过滤日志数据
%{IP:remote_addr} - - \[%{HTTPDATE:logtime}\] \"%{WORD:http_method} %{URIPATH:request_url} (?<http_ver>.+)\" %{NUMBER:response_code} \d+ \".+\" \"(?<user_agent>.+)\"

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

2.1.3 设置正则表达式过滤条件

#在logstash节点中,添加正则表达式过滤条件
vim /etc/logstash/conf.d/filebeat.conf 
###添加如下对日志数据,进行过滤的正则表达式条件
filter {grok {match => ["message","%{IP:remote_addr} - - \[%{HTTPDATE:logtime}\] \"%{WORD:http_method} %{URIPATH:request_url} (?<http_ver>.+)\" %{NUMBER:response_code} \d+ \".+\" \"(?<user_agent>.+)\""]}
}###重启filebeat服务和logstash服务
cd /opt/filebeat-6.7.2-linux-x86_64
./filebeat -e -c filebeat.yml     #重启filebeat服务#重启logstash服务
cd /etc/logstash/conf.d
logstash -f /etc/logstash/conf.d/filebeat.conf

在这里插入图片描述

在这里插入图片描述

2.2 mutate数据修改插件

它提供了丰富的基础类型数据处理能力。可以重命名,删除,替换和修改事件中的字段

2.2.1 Mutate过滤器常用的配置选项

add_field 向事件添加新字段,也可以添加多个字段
remove_field 从事件中删除任意字段(只能删除logstash自己日志中的字段,无法删除filebeat携带的日志字段)
add_tag 向事件添加任意标签,在tag字段中添加一段自定义的内容,当tag字段中超过一个内容的时候会变成数组
remove_tag 从事件中删除标签(如果存在)
convert 将字段值转换为另一种数据类型
id 向现场事件添加唯一的ID
lowercase 将字符串字段转换为其小写形式
replace 用新值替换字段
strip 删除开头和结尾的空格
uppercase 将字符串字段转换为等效的大写字母
update 用新值更新现有字段
rename 重命名事件中的字段
gsub 通过正则表达式替换字段中匹配到的值
merge 合并数组或 hash 事件
split 通过指定的分隔符分割字段中的字符串为数组

2.2.2 Mutate过滤器示例

将字段old_field重命名为new_field

filter {mutate {#写法1,使用中括号括起来rename => ["old_field" => "new_field"]#写法2,使用大括号{}括起来rename => { "old_field" => "new_field" }		}
}

添加字段

filter {mutate {add_field => {"f1" => "field1""f2" => "field2"}}
}

将字段删除

filter {mutate {remove_field  =>  ["message", "@version", "tags"]}
}

将filedName1字段数据类型转换成string类型,filedName2字段数据类型转换成float类型

filter {mutate {#写法1,使用中括号括起来convert  =>  ["filedName1", "string"]#写法2,使用大括号{}括起来convert => { "filedName2" => "float" }}
}

将filedName字段中所有"/“字符替换为”_"

filter {mutate {gsub => ["filedName", "/" , "_"]}
}

将filedName字段中所有",“字符后面添加空格

filter {mutate {gsub => ["filedName", "," , ", "]}
}

将filedName字段以"|"为分割符拆分数据成为数组

filter {mutate {split => ["filedName", "|"]}
}

合并 “filedName1” 和 “ filedName2” 两个字段

filter {merge  { "filedName2" => "filedName1" }
}

用新值替换filedName字段的值

filter {mutate {replace => { "filedName" => "new_value" }}
}

添加字段first,值为message数组的第一个元素的值

filter {mutate {split => ["message", "|"]add_field => {"first" => "%{[message][0]}"    } }
}

有条件的添加标签

filter {#在日志文件路径包含 access 的条件下添加标签内容if [path] =~ "access" {mutate {add_tag => ["Nginx Access Log"]}}#在日志文件路径是 /var/log/nginx/error.log 的条件下添加标签内容if [path] == "/var/log/nginx/error.log" {mutate {add_tag => ["Nginx Error Log"]}}
}

2.2.3 mutate数据修改插件实战演练

实战演练一:

vim /etc/logstash/conf.d/filebeat.conf 
###在logstash节点中,添加muate修改日志字段模块信息
filter {mutate {remove_field => ["message", "@version"]rename => { "source" => "log_path" }}
}###重启filebeat服务和logstash服务
cd /opt/filebeat-6.7.2-linux-x86_64
./filebeat -e -c filebeat.yml     #重启filebeat服务#重启logstash服务
cd /etc/logstash/conf.d
logstash -f /etc/logstash/conf.d/filebeat.conf

在这里插入图片描述
在这里插入图片描述
实战演练二:

vim /etc/logstash/conf.d/filebeat.conf 
###在logstash节点中,添加muate修改日志字段模块信息
filter {mutate {remove_field => ["message", "@version"]rename => { "source" => "log_path" }replace => { "log_path" => "access_log" }add_field => { "myname" => "gzy" }}
}###重启filebeat服务和logstash服务
cd /opt/filebeat-6.7.2-linux-x86_64
./filebeat -e -c filebeat.yml     #重启filebeat服务#重启logstash服务
cd /etc/logstash/conf.d
logstash -f /etc/logstash/conf.d/filebeat.conf

在这里插入图片描述
在这里插入图片描述

2.3 multiline多行合并插件

java错误日志一般都是一条日志很多行的,会把堆栈信息打印出来,当经过logstash解析后,每一行都会当做一条记录存放到ES, 那这种情况肯定是需要处理的。 这里就需要使用multiline插件,对属于同一个条日志的记录进行拼接

(1)在logstas节点上安装multiline插件

cd /usr/share/logstash
rz -E
#logstash-offline-plugins-6.7.2.zip
./bin/logstash-plugin install file:///usr/share/logstash/logstash-offline-plugins-6.7.2.zip###检查下插件是否安装成功,可以执行以下命令查看插件列表
./bin/logstash-plugin list

在这里插入图片描述

在这里插入图片描述

使用multiline插件
第一步:每一条日志的第一行开头都是一个时间,可以用时间的正则表达式匹配到第一行。
第二步:然后将后面每一行的日志与第一行合并。
第三步:当遇到某一行的开头是可以匹配正则表达式的时间的,就停止第一条日志的合并,开始合并第二条日志。
第四步:重复第二步和第三步。

(2)在logstash节点中制作java类型的错误日志信息

vim /var/log/java.log
###自定义java类型的错误日志信息
2022-11-11 17:09:19.774[XNIo-1 task-1]ERROR com.passjava.controlle .NembercController-查询用户 活动数据>失败,异常信息为:com.passjava.exception.MemberException: 当前没有配置活动规则at com.passjava.service.impL.queryAdmin(DailyServiceImpl.java:1444)at com.passjava.service.impl.dailyserviceImpL$$FastcLass
2022-11-11 17:10:56.256][KxNIo-1 task-1] ERROR com.passjava.controlle .NemberControl1er-查询员工 饭活动>数据失败,异常信息为:com.passjava.exception.MemberException: 当前没有配置活动规则at com.passjava.service.impL.queryAdmin(DailyServiceImpl.java:1444)at com.passjava.service.impL.daiLyserviceImpL$$FastcLass

在这里插入图片描述
(3)指定java.log日志文件的输入流和输出流

vim /etc/logstash/conf.d/java.conf
###指定java.log日志文件的输入流和输出流
input {file {path => "/var/log/java.log"type => "java"start_position => "beginning"}
}filter {multiline { pattern => "^\d{4}-\d{1,2}-\d{1,2}\s\d{1,2}:\d{1,2}:\d{1,2}.\d{3}"negate => truewhat => "previous"}
}           output {    elasticsearch { hosts => ["192.168.80.10:9200","192.168.80.20:9200"]index => "java-%{+YYYY.MM.dd}"}
}   ###启动logstash服务,检查java.conf文件
cd /etc/logstash/conf.d
logstash -f java.conf    #采集java.conf的日志文件

在这里插入图片描述

  • pattern:用来匹配文本的表达式,也可以是grok表达式

  • what:如果pattern匹配成功的话,那么匹配行是归属于上一个事件,还是归属于下一个事件。

  • previous: 归属于上一个事件,向上合并

  • next: 归属于下一个事件,向下合并

  • negate:是否对pattern的结果取反。false:不取反,是默认值。true:取反。将多行事件扫描过程中的行匹配逻辑取反(如果pattern匹配失败,则认为当前行是多行事件的组成部分)

在这里插入图片描述

在这里插入图片描述

2.4 date时间处理插件

用于分析字段中的日期,然后使用该日期或时间戳作为事件的logstash时间戳

在Logstash产生了一个Event对象的时候,会给该Event设置一个时间,字段为“@timestamp”,同时,我们的日志内容一般也会有时间,但是这两个时间是不一样的,因为日志内容的时间是该日志打印出来的时间,而“@timestamp”字段的时间是input插件接收到了一条数据并创建Event的时间,所以一般来说的话==“@timestamp”的时间要比日志内容的时间晚一点,因为Logstash监控数据变化,数据输入,创建Event导致的时间延迟==。这两个时间都可以使用,具体要根据自己的需求来定。

(1)在logstash节点中添加如下时间戳内容

vim /etc/logstash/conf.d/filebeat.conf input {beats {port => "5044"}
}filter {grok {match => { "message" => ".+ - - \[%{HTTPDATE:log_time}\] .+" }}date {match => ["access_time", "dd/MMM/YYYY:HH:mm:ss Z", "UNIX", "yyyy-MM-dd HH:mm:ss", "dd-MMM-yyyy HH:mm:ss"]target => "@timestamp"timezone => "Asia/Shanghai"}mutate {remove_field => ["message", "@version"]rename => { "source" => "log_path" }replace => { "log_path" => "access_log" }add_field => { "myname" => "gzy" }}
}output {elasticsearch {hosts => ["192.168.80.10:9200","192.168.80.20:9200"]index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"}stdout {codec => rubydebug}
}logstash -f filebeat.conf 

在这里插入图片描述

在这里插入图片描述

3.实验中的故障案例

报错一:
Logstash could not be started because there is already another instance using the configured data directory.
在这里插入图片描述

解决步骤:

cd /var/lib/logstash
###删除之前运行的.lock缓存
rm -rf .lock
ps -ef | grep logstash
kill -9 logstash服务的进程号

报错二:
No configuration found in the configured sources.

在这里插入图片描述
解决步骤:

cd /etc/logstash/conf.d
###使用绝对路径方式,执行logstash服务的配置文件
logstash -f /etc/logstash/conf.d filebeat.conf

在这里插入图片描述

4. logstash filter过滤插件总结

grok 		将大文本字段进行分片成多个小字段   %{内置正则:字段名}    (?<字段名>自定义正则)
date 		将logstash收集的日志事件时间与实际记录的日志时间进行格式统一,需要配合grok模块使用
mutate 		对logstash收集的日志事件字段进行再处理,可以重命名,删除,替换和修改事件中的字段
multiline 	将多行日志内容合并成一整行

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/18413.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

knife4j实现微服务swagger文档聚合

使用knife4j实现分布式swagger文档聚合 在项目开发过程中,接口文档的使用是在所难免的,但是在微服务场景下,多个服务之间的swagger是分散的,虽然swagger提供了微服务的聚合方式,配置过于繁琐,加之swagger本身的功能比较少,而且ui布局也比较蛋痛,此处推荐一款新框架用于增强swa…

Element UI组件中el-col、el-row布局学习笔记

一、简介 el-col&#xff1a;列。是Element UI布局中的核心组件&#xff0c;他的作用的将一行分成24个网格&#xff0c;为了方便我们在不同的设备上适配不同的屏幕大小。我们可以通过指定span属性来确定一行中所占的网格数。 el-row&#xff1a;行。包裹在el-col外层&#xf…

Matlab 入门简介

MATLAB 的工作界面默认布局自定义布局历史记录窗口调用以前运行过的语句 常用操作1. 清除操作clc 效果clear 效果clfclf 帮助文档clf 效果 close 效果 2. 帮助 Matlab 中的数据结构矩阵的数据访问向量化操作的内置函数 常量与变量1. 常量表2. 变量的命名规则3. 语句的常见形式 …

CVE-2023-23752-Joomla权限绕过漏洞研判分析

CVE-2023-23752-Joomla权限绕过漏洞分析 简介 Joomla是一个开源免费的内容管理系统&#xff08;CMS&#xff09;&#xff0c;基于PHP开发。 在其4.0.0版本到4.2.7版本中&#xff0c;存在一处属性覆盖漏洞&#xff0c;导致攻击者可以通过恶意请求绕过权限检查&#xff0c;访问…

day31-EMP项目实战(servlet+jsp)

0目录 EMP项目实战&#xff08;servletjsp&#xff09; 1. 1. 创建maven工程&#xff0c;导入依赖&#xff0c;创建service&#xff08;服务包&#xff09;&#xff0c;dao&#xff08;持久包&#xff09;&#xff0c;servlet&#xff08;控制包&#xff09;&#xff0c;enti…

华大HC32F460 TCP Server实验

目录 1.实验目标 2.实验准备 3.主流程图 4.驱动代码 5.实验步骤 1.实验目标 本实验使用W5500服务器功能&#xff0c;通过串口实现与本地客户端透传数据。 2.实验准备 硬件搭建&#xff1a;ZW-HC32F460-BZ标准版开发板1套 软件搭建&#xff1a;MDK5.22 3.主流程图 4.驱动…

CopyOnWriteArrayList使用以及原理分析

文章目录 一、CopyOnWriteArrayList的简介二、CopyOnWriteArrayList类的继承关系1、Iterable接口&#xff1a;2、Collection接口&#xff1a;3、List接口&#xff1a;4、Cloneable接口&#xff1a;5、Serializable接口&#xff1a;6、RandomAccess接口&#xff1a; 三、CopyOnW…

Java 匿名对象

一、简介 1.1.含义 没有名字的对象 。以常规的创建对象的方法&#xff1a; AtomicInteger atomicInteger new AtomicInteger(100000);格式&#xff1a; 类名 变量名 new 类名(); 这样就完成了对象的创建。注意&#xff1a;&#xff08;&#xff09;内可以无参数&#xff0c…

前端|项目实操流程|学成在线项目实操

参考视频&#xff1a;黑马程序员前端CSS3基础教程&#xff0c;前端必备基础 目录 &#x1f4da;案例准备工作 &#x1f4da;CSS属性书写顺序 &#x1f407;布局定位属性 &#x1f407;自身属性 &#x1f4da;页面布局整体思路 &#x1f4da;学成在线项目制作 &#x1f4…

DevOps(一)

DevOps 1. DevOps起源1.1 瀑布开发模型1.2 敏捷开发模型 2. DevOps到底是什么&#xff1f;3. DevOps与虚拟化、容器、微服务4. CI/CD是什么 &#xff1f;4.1 CI 持续集成&#xff08;Continuous Integration&#xff09;4.2 CD 持续交付&#xff08;Continuous Delivery&#x…

【Matlab】智能优化算法_亨利气体溶解度优化算法HGSO

【Matlab】智能优化算法_亨利气体溶解度优化算法HGSO 1.背景介绍2.数学模型2.1 亨利定律2.2 HGSO 3.文件结构4.伪代码5.详细代码及注释5.1 Create_Groups.m5.2 Evaluate.m5.3 fun_checkpoisions.m5.4 fun_getDefaultOptions.m5.5 HGSO.m5.6 main.m5.7 sumsqu.m5.8 update_posit…

微信小程序input的placeholder脱离文档流

今天进行真机调试时input的提示词 placeholder脱离了文档流&#xff0c;但是奇怪的是input框没有脱离文档流 如下图所示&#xff1a; 微信开发工具正常&#xff1a; 真机&#xff1a;不正常 脱离文档流 解决方法&#xff1a; <view clas…