kibana+logstash+elasticsearch+redis 续(1)
之前在写文章的时候,写的有些粗,很多朋友都有些疑问logstash可以启动为 收集日志的agent或者agent+index。也可以启动为agent+index+sotre
引入redis是为了增加一个消息队列
logstash可以启动为 收集日志的agent或者agent+index。也可以启动为agent+index+sotre
假如去掉filter内容就是收集日志的agent
一个配置文件范例:
input {
file {
#日志收集类型
type => "billincenter"
#要收集日志的路径+名称
path => "/data/application/result.log"
}
}
filter{
#filter可以不写,不写filter就是一个收集日志的agent
#为了精确匹配查询日志,需要写正则,用来切割日志
grok{
#需要切割的日志的类型
type => "billincenter"
#使用的正则的名称
pattern => "%{BILLINCENTER}"
#额外正则的存放位置
patterns_dir => "/data/logstash/patterns/my_patterns"
}
}
output{
redis {
#收集到的日志写入redis
host => "192.168.50.13"
data_type =>"list"
key => "logstash:redis"
}
}
页:
[1]