当前位置:网站首页>logstash高速入口
logstash高速入口
2022-07-06 11:48:00 【全栈程序员站长】
大家好,又见面了,我是全栈君,今天给大家准备了Idea注册码。
原文地址:http://logstash.net/docs/1.4.2/tutorials/getting-started-with-logstash
英语水平有限,假设有错误请各位指正
简单介绍
Logstash是一个接收,处理,转发日志的工具。支持系统日志,webserver日志。错误日志。应用日志,总之包含全部能够抛出来的日志类型。
怎么样听起来挺厉害的吧? 在一个典型的使用场景下(ELK):用Elasticsearch作为后台数据的存储,kibana用来前端的报表展示。
Logstash在其过程中担任搬运工的角色,它为数据存储。报表查询和日志解析创建了一个功能强大的管道链。
Logstash提供了多种多样的 input,filters,codecs和output组件,让使用者轻松实现强大的功能。好了让我们開始吧
依赖条件:JAVA
Logstash执行只依赖java执行环境(jre)。各位能够在命令行下执行java -version命令
显示类似例如以下结果:
java -version
java version "1.7.0_45"
Java(TM) SE Runtime Environment (build 1.7.0_45-b18)
Java HotSpot(TM) 64-Bit Server VM (build 24.45-b08, mixed mode)
为了确保成功执行Logstash建议大家使用较最近的jre版本号。
能够获取开源版本号的jre在:http://openjdk.java.net
或者你能够在官网下载Oracle jdk版本号:http://www.oracle.com/technetwork/java/index.html
一旦jre已经成功在你的系统中安装完毕,我们就能够继续了
启动和执行Logstash的两条命令演示样例
第一步我们先下载Logstash
curl -O https://download.elasticsearch.org/logstash/logstash/logstash-1.4.2.tar.gz
如今你应该有了一个叫logstash-1.4.2.tar.gz的文件了。 我们把它解压一下
tar zxvf logstash-1.4.2.tar.gzcd logstash-1.4.2
如今我们来执行一下:
bin/logstash -e 'input { stdin { } } output { stdout {} }'
我们如今能够在命令行下输入一些字符。然后我们将看到logstash的输出内容:
hello world2013-11-21T01:22:14.405+0000 0.0.0.0 hello world
Ok,还挺有意思的吧… 以上样例我们在执行logstash中,定义了一个叫”stdin”的input另一个”stdout”的output,不管我们输入什么字符。Logstash都会依照某种格式来返回我们输入的字符。
这里注意我们在命令行中使用了-e參数,该參数同意Logstash直接通过命令行接受设置。这点尤其高速的帮助我们重复的測试配置是否正确而不用写配置文件。
让我们再试个更有意思的样例。首先我们在命令行下使用CTRL-C命令退出之前执行的Logstash。如今我们又一次执行Logstash使用以下的命令:
bin/logstash -e 'input { stdin { } } output { stdout { codec => rubydebug } }'
我们再输入一些字符,这次我们输入”goodnight moon”:
goodnight moon{ "message" => "goodnight moon", "@timestamp" => "2013-11-20T23:48:05.335Z", "@version" => "1", "host" => "my-laptop"}
以上演示样例通过又一次设置了叫”stdout”的output(加入了”codec”參数),我们就能够改变Logstash的输出表现。类似的我们能够通过在你的配置文件里加入或者改动inputs、outputs、filters,就能够使任意的格式化日志数据成为可能,从而订制更合理的存储格式为查询提供便利。
使用Elasticsearch存储日志
如今,你或许会说:”它看起来还挺高大上的,只是手工输入字符。并把字符从控制台回显出来。实际情况并不有用”。
说的好,那么接下来我们将建立Elasticsearch来存储输入到Logstash的日志数据。假设你还没有安装Elasticsearch。你能够下载RPM/DEB包或者手动下载tar包。通过下面命令:
curl -O https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.1.1.tar.gz
tar zxvf elasticsearch-1.1.1.tar.gz
cd elasticsearch-1.1.1/
./bin/elasticsearch
注意
本篇文章实例使用Logstash 1.4.2和Elasticsearch 1.1.1。
不同的Logstash版本号都有相应的建议Elasticsearch版本号。请确认你使用的Logstash版本号!
很多其它有关安装和设置Elasticsearch的信息能够參考Elasticsearch官网。由于我们主要介绍Logstash的入门使用,Elasticsearch默认的安装和配置就已经满足我们要求。
言归正专。如今Elasticsearch已经执行并监听9200port了(大家都搞定了,对吗?),通过简单的设置Logstash就能够使用Elasticsearch作为它的后端。
默认的配置对于Logstash和Elasticsearch已经足够,我们忽略一些额外的选项来设置elasticsearch作为output:
bin/logstash -e 'input { stdin { } } output { elasticsearch { host => localhost } }'
任意的输入一些字符。Logstash会像之前一样处理日志(只是这次我们将不会看到不论什么的输出,由于我们没有设置stdout作为output选项)
you know, for logs
我们能够使用curl命令发送请求来查看ES是否接收到了数据:
curl 'http://localhost:9200/_search?pretty'
返回内容例如以下:
{ "took" : 2, "timed_out" : false, "_shards" : { "total" : 5, "successful" : 5, "failed" : 0 }, "hits" : { "total" : 1, "max_score" : 1.0, "hits" : [ { "_index" : "logstash-2013.11.21", "_type" : "logs", "_id" : "2ijaoKqARqGvbMgP3BspJA", "_score" : 1.0, "_source" : {"message":"you know, for logs","@timestamp":"2013-11-21T18:45:09.862Z","@version":"1","host":"my-laptop"} } ] }}
恭喜,至此你已经成功利用Elasticsearch和Logstash来收集日志数据了。
Elasticsearch 插件(题外话)
这里介绍另外一个对于查询你的Logstash数据(Elasticsearch中数据 )很实用的工具叫Elasticsearch-kopf插件。很多其它的信息请见Elasticsearch插件。
安装elasticsearch-kopf,仅仅要在你安装Elasticsearch的文件夹中运行下面命令就可以:
bin/plugin -install lmenezes/elasticsearch-kopf
接下来訪问 http://localhost:9200/_plugin/kopf 来浏览保存在Elasticsearch中的数据,设置及映射!
多重输出
作为一个简单的样例来设置多重输出,让我们同一时候设置stdout和elasticsearch作为output来又一次执行一下Logstash。例如以下:
bin/logstash -e 'input { stdin { } } output { elasticsearch { host => localhost } stdout { } }'
当我们输入了一些词组之后。这些输入的内容回回显到我们的终端,同一时候还会保存到Elasticsearch!
(能够使用curl和kopf插件来验证)。
默认配置 – 依照每日日期建立索引
你将发现Logstash能够足够机灵的在Elasticsearch上建立索引… 每天会依照默认格式是logstash-YYYY.MM.DD来建立索引。
在午夜(GMT),Logstash自己主动依照时间戳更新索引。我们能够根据追溯多长时间的数据作为根据来制定保持多少数据。当然你也能够把比較老的数据迁移到其它的地方(又一次索引)来方便查询,此外假设不过简单的删除一段时间数据我们能够使用Elasticsearch Curator。
接下来
接下来我们開始了解很多其它高级的配置项。在以下的章节,我们着重讨论logstash一些核心的特性,以及怎样和logstash引擎交互的。
事件的生命周期
Inputs,Outputs,Codecs,Filters构成了Logstash的核心配置项。
Logstash通过建立一条事件处理的管道。从你的日志提取出数据保存到Elasticsearch中。为高效的查询数据提供基础。
为了让你高速的了解Logstash提供的多种选项,让我们先讨论一下最经常使用的一些配置。
很多其它的信息,请參考Logstash事件管道。
Inputs
input 及输入是指日志传输数据到Logstash中。当中常见的配置例如以下:
- file:从文件系统中读取一个文件,非常像UNIX命令 “tail -0a”
- syslog:监听514port,依照RFC3164标准解析日志数据
- redis:从redisserver读取数据。支持channel(公布订阅)和list模式。 redis一般在Logstash消费集群中作为”broker”角色,保存events队列共Logstash消费。
- lumberjack:使用lumberjack协议来接收数据,眼下已经改为 logstash-forwarder。
Filters
Fillters 在Logstash处理链中担任中间处理组件。他们常常被组合起来实现一些特定的行为来,处理匹配特定规则的事件流。常见的filters例如以下:
- grok:解析无规则的文字并转化为有结构的格式。 Grok 是眼下最好的方式来将无结构的数据转换为有结构可查询的数据。 有120多种匹配规则,会有一种满足你的须要。
- mutate:mutate filter 同意改变输入的文档,你能够从命名,删除,移动或者改动字段在处理事件的过程中。
- drop:丢弃一部分events不进行处理,比如:debug events。
- clone:拷贝 event。这个过程中也能够加入或移除字段。
- geoip:加入地理信息(为前台kibana图形化展示使用)
Outputs
outputs是logstash处理管道的最末端组件。一个event能够在处理过程中经过多重输出,可是一旦全部的outputs都运行结束,这个event也就完毕生命周期。一些经常使用的outputs包含:
- elasticsearch:假设你计划将高效的保存数据,而且可以方便和简单的进行查询…Elasticsearch是一个好的方式。是的,此处有做广告的嫌疑,呵呵。
- file:将event数据保存到文件里。
- graphite:将event数据发送到图形化组件中,一个非常流行的开源存储图形化展示的组件。http://graphite.wikidot.com/。
- statsd:statsd是一个统计服务,比方技术和时间统计。通过udp通讯,聚合一个或者多个后台服务,假设你已经開始使用statsd,该选项对你应该非常实用。
Codecs
codecs 是基于数据流的过滤器,它能够作为input。output的一部分配置。
Codecs能够帮助你轻松的切割发送过来已经被序列化的数据。流行的codecs包含 json,msgpack,plain(text)。
- json:使用json格式对数据进行编码/解码
- multiline:将汇多个事件中数据汇总为一个单一的行。 比方:java异常信息和堆栈信息
获取完整的配置信息。请參考 Logstash文档中 “plugin configuration”部分。
很多其它有趣Logstash内容
使用配置文件
使用-e參数在命令行中指定配置是非经常常使用的方式,只是假设须要配置很多其它设置则须要非常长的内容。这样的情况。我们首先创建一个简单的配置文件,而且指定logstash使用这个配置文件。如我们创建一个文件名称是”logstash-simple.conf”的配置文件而且保存在和Logstash同样的文件夹中。
内容例如以下:
input { stdin { } }
output {
elasticsearch { host => localhost }
stdout { codec => rubydebug }
}
接下来,运行命令:
bin/logstash -f logstash-simple.conf
我们看到logstash依照你刚刚创建的配置文件来执行样例。这样更加的方便。注意,我们使用-f參数来从文件获取而取代之前使用-e參数从命令行中获取配置。以上演示很easy的样例。当然解析来我们继续写一些复杂一些的样例。
过滤器
filters是一个行处理机制将提供的为格式化的数据整理成你须要的数据,让我们看看以下的一个样例,叫grok filter的过滤器。
input { stdin { } }
filter {
grok {
match => { "message" => "%{COMBINEDAPACHELOG}" }
}
date {
match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
}
}
output {
elasticsearch { host => localhost }
stdout { codec => rubydebug }
}
运行Logstash依照例如以下參数:
bin/logstash -f logstash-filter.conf
如今粘贴以下一行信息到你的终端(当然Logstash就会处理这个标准的输入内容):
127.0.0.1 - - [11/Dec/2013:00:01:45 -0800] "GET /xampp/status.php HTTP/1.1" 200 3891 "http://cadenza/xampp/navi.php" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0"
你将看到类似例如以下内容的反馈信息:
{ "message" => "127.0.0.1 - - [11/Dec/2013:00:01:45 -0800] \"GET /xampp/status.php HTTP/1.1\" 200 3891 \"http://cadenza/xampp/navi.php\" \"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0\"", "@timestamp" => "2013-12-11T08:01:45.000Z", "@version" => "1", "host" => "cadenza", "clientip" => "127.0.0.1", "ident" => "-", "auth" => "-", "timestamp" => "11/Dec/2013:00:01:45 -0800", "verb" => "GET", "request" => "/xampp/status.php", "httpversion" => "1.1", "response" => "200", "bytes" => "3891", "referrer" => "\"http://cadenza/xampp/navi.php\"", "agent" => "\"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0\""}
正像你看到的那样,Logstash(使用了grok过滤器)可以将一行的日志数据(Apache的”combined log”格式)切割设置为不同的数据字段。这一点对于日后解析和查询我们自己的日志数据很实用。比方:HTTP的返回状态码。IP地址相关等等。很的easy。很少有匹配规则没有被grok包括,所以假设你正尝试的解析一些常见的日志格式。也许已经有人为了做了这种工作。假设查看具体匹配规则。參考logstash grok patterns。
另外一个过滤器是date filter。这个过滤器来负责解析出来日志中的时间戳并将值赋给timestame字段(无论这个数据是什么时候收集到logstash的)。
你或许注意到在这个样例中@timestamp字段是设置成December 11, 2013, 说明logstash在日志产生之后一段时间进行处理的。这个字段在处理日志中回添到数据中的,举例来说… 这个值就是logstash处理event的时间戳。
有用的样例
Apache 日志(从文件获取)
如今,让我们使用一些很有用的配置… apache2訪问日志!我们将从本地读取日志文件,而且通过条件设置处理满足我们须要的event。
首先。我们创建一个文件名称是logstash-apache.conf的配置文件。内容例如以下(你能够依据实际情况改动你的文件名称和路径):
input {
file {
path => "/tmp/access_log"
start_position => beginning
}
}
filter {
if [path] =~ "access" {
mutate { replace => { "type" => "apache_access" } }
grok {
match => { "message" => "%{COMBINEDAPACHELOG}" }
}
}
date {
match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
}
}
output {
elasticsearch {
host => localhost
}
stdout { codec => rubydebug }
}
接下来。我们依照上面的配置创建一个文件(在样例中是”/tmp/access.log”),能够将以下日志信息作为文件内容(也能够用你自己的webserver产生的日志):
71.141.244.242 - kurt [18/May/2011:01:48:10 -0700] "GET /admin HTTP/1.1" 301 566 "-" "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.2.3) Gecko/20100401 Firefox/3.6.3"
134.39.72.245 - - [18/May/2011:12:40:18 -0700] "GET /favicon.ico HTTP/1.1" 200 1189 "-" "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729; InfoPath.2; .NET4.0C; .NET4.0E)"
98.83.179.51 - - [18/May/2011:19:35:08 -0700] "GET /css/main.css HTTP/1.1" 200 1837 "http://www.safesand.com/information.htm" "Mozilla/5.0 (Windows NT 6.0; WOW64; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"
如今使用-f參数来运行一下上面的样例:
bin/logstash -f logstash-apache.conf
你能够看到apache的日志数据已经导入到ES中了。这里logstash会依照你的配置读取,处理指定的文件。不论什么后加入到文件的内容也会被捕获处理最后保存到ES中。
此外,数据中type的字段值会被替换成”apache_access”(这个功能在配置中已经指定)。
这个配置仅仅是让Logstash监控了apache access_log,可是在实际中往往并不够用可能还须要监控error_log。仅仅要在上面的配置中改变一行既能够实现。例如以下:
input {
file {
path => "/tmp/*_log"
...
如今你能够看到logstash处理了error日志和access日志。
然而,假设你检查了你的数据(或许用elasticsearch-kopf),你将发现access_log日志被分成不同的字段,可是error_log确没有这样。这是由于我们使用了“grok”filter并只配置匹配combinedapachelog日志格式,这样满足条件的日志就会自己主动的被切割成不同的字段。我们能够通过控制日志依照它自己的某种格式来解析日志,不是非常好的吗?对吧。
此外,你或许还会发现Logstash不会反复处理文件里已经处理过得events。由于Logstash已经记录了文件处理的位置。这样就仅仅处理文件里新增加的行数。美丽!
条件推断
我们利用上一个样例来介绍一下条件推断的概念。
这个概念普通情况下应该被大多数的Logstash用户熟悉掌握。
你能够像其它普通的编程语言一样来使用if,else if和else语句。让我们把每一个event依赖的日志文件类型都标记出来(access_log,error_log其它以log结尾的日志文件)。
input {
file {
path => "/tmp/*_log"
}
}
filter {
if [path] =~ "access" {
mutate { replace => { type => "apache_access" } }
grok {
match => { "message" => "%{COMBINEDAPACHELOG}" }
}
date {
match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
}
} else if [path] =~ "error" {
mutate { replace => { type => "apache_error" } }
} else {
mutate { replace => { type => "random_logs" } }
}
}
output {
elasticsearch { host => localhost }
stdout { codec => rubydebug }
}
我想你已经注意到了,我们使用”type”字段来标记每一个event,可是我们实际上没有解析”error”和”random”类型的日志… 而实际情况下可能会有非常多非常多类型的错误日志,怎样解析就作为练习留给各位读者吧。你能够依赖已经存在的日志。
Syslog
Ok,如今我们继续了解一个非常有用的样例:syslog。Syslog对于Logstash是一个非常长用的配置,而且它有非常好的表现(协议格式符合RFC3164)。Syslog实际上是UNIX的一个网络日志标准,由client发送日志数据到本地文件或者日志server。在这个样例中,你根本不用建立syslog实例;我们通过命令行就能够实现一个syslog服务,通过这个样例你将会看到发生什么。
首先,让我们创建一个简单的配置文件来实现logstash+syslog。文件名称是 logstash-syslog.conf
input {
tcp {
port => 5000
type => syslog
}
udp {
port => 5000
type => syslog
}
}
filter {
if [type] == "syslog" {
grok {
match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program}(?:\[%{POSINT:syslog_pid}\])?: %{GREEDYDATA:syslog_message}" }
add_field => [ "received_at", "%{@timestamp}" ]
add_field => [ "received_from", "%{host}" ]
}
syslog_pri { }
date {
match => [ "syslog_timestamp", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ]
}
}
}
output {
elasticsearch { host => localhost }
stdout { codec => rubydebug }
}
运行logstash:
bin/logstash -f logstash-syslog.conf
通常。须要一个client链接到Logstashserver上的5000port然后发送日志数据。在这个简单的演示中我们简单的使用telnet链接到logstashserver发送日志数据(与之前样例中我们在命令行标准输入状态下发送日志数据类似)。
首先我们打开一个新的shell窗体,然后输入以下的命令:
telnet localhost 5000
你能够复制粘贴以下的例子信息(当然也能够使用其它字符,只是这样可能会被grok filter不能正确的解析):
Dec 23 12:11:43 louis postfix/smtpd[31499]: connect from unknown[95.75.93.154]
Dec 23 14:42:56 louis named[16000]: client 199.48.164.7#64817: query (cache) 'amsterdamboothuren.com/MX/IN' denied
Dec 23 14:30:01 louis CRON[619]: (www-data) CMD (php /usr/share/cacti/site/poller.php >/dev/null 2>/var/log/cacti/poller-error.log)
Dec 22 18:28:06 louis rsyslogd: [origin software="rsyslogd" swVersion="4.2.0" x-pid="2253" x-info="http://www.rsyslog.com"] rsyslogd was HUPed, type 'lightweight'.
之后你能够在你之前执行Logstash的窗体中看到输出结果。信息被处理和解析!
{ "message" => "Dec 23 14:30:01 louis CRON[619]: (www-data) CMD (php /usr/share/cacti/site/poller.php >/dev/null 2>/var/log/cacti/poller-error.log)", "@timestamp" => "2013-12-23T22:30:01.000Z", "@version" => "1", "type" => "syslog", "host" => "0:0:0:0:0:0:0:1:52617", "syslog_timestamp" => "Dec 23 14:30:01", "syslog_hostname" => "louis", "syslog_program" => "CRON", "syslog_pid" => "619", "syslog_message" => "(www-data) CMD (php /usr/share/cacti/site/poller.php >/dev/null 2>/var/log/cacti/poller-error.log)", "received_at" => "2013-12-23 22:49:22 UTC", "received_from" => "0:0:0:0:0:0:0:1:52617", "syslog_severity_code" => 5, "syslog_facility_code" => 1, "syslog_facility" => "user-level", "syslog_severity" => "notice"}
恭喜所有。看到你已经成为一个贴近格的Logstash的用户。您将能够轻松配置。执行Logstash,还能够发送event给Logstash,但这个过程将有非常多的使用的值这个地方被挖。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/117154.html原文链接:https://javaforall.cn
边栏推荐
- Selenium advanced operations
- VMware virtual machine cannot open the kernel device "\.\global\vmx86"
- Leetcode 30. 串联所有单词的子串
- Hudi vs Delta vs Iceberg
- Introduction to enterprise lean management system
- [infrastructure] deployment and configuration of Flink / Flink CDC (MySQL / es)
- short i =1; I=i+1 and short i=1; Difference of i+=1
- Documents to be used in IC design process
- C # use Marshall to manually create unmanaged memory in the heap and use
- 终于可以一行代码也不用改了!ShardingSphere 原生驱动问世
猜你喜欢
It's enough to read this article to analyze the principle in depth
社招面试心得,2022最新Android高频精选面试题分享
[play with Linux] [docker] MySQL installation and configuration
零基础入门PolarDB-X:搭建高可用系统并联动数据大屏
Interpretation of Dagan paper
[玩转Linux] [Docker] MySQL安装和配置
Learning and Exploration - Seamless rotation map
MySQL information Schema Learning (i) - - General table
激进技术派 vs 项目保守派的微服务架构之争
DaGAN论文解读
随机推荐
Understand yolov1 Part II non maximum suppression (NMS) in prediction stage
Use of map (the data of the list is assigned to the form, and the JSON comma separated display assignment)
MySQL information schema learning (II) -- InnoDB table
今日直播 | “人玑协同 未来已来”2022弘玑生态伙伴大会蓄势待发
MySql必知必会学习
面试突击63:MySQL 中如何去重?
Configuration and simple usage of the EXE backdoor generation tool quasar
C # - realize serialization with Marshall class
Documents to be used in IC design process
CF960G - Bandit Blues(第一类斯特林数+OGF)
Information System Project Manager - Chapter VIII project quality management
理解 YOLOV1 第二篇 预测阶段 非极大值抑制(NMS)
swagger2报错Illegal DefaultValue null for parameter type integer
Tencent Android interview must ask, 10 years of Android development experience
[pytorch] yolov5 train your own data set
1805. 字符串中不同整数的数目
IC设计流程中需要使用到的文件
Problems encountered in using RT thread component fish
Looting iii[post sequence traversal and backtracking + dynamic planning]
时钟轮在 RPC 中的应用