logagent同步mysql_Go实现海量日志收集系统(二)

一篇文章主要是关于整体架构以及用到的软件的一些介绍,这一篇文章是对各个软件的使用介绍,当然这里主要是关于架构中我们agent的实现用到的内容

关于zookeeper+kafka

我们需要先把两者启动,先启动zookeeper,再启动kafka

启动ZooKeeper:./bin/zkServer.sh start

启动kafka:./bin/kafka-server-start.sh ./config/server.properties

操作kafka需要安装一个包:go get github.com/Shopify/sarama

写一个简单的代码,通过go调用往kafka里扔数据:

package main

import ("github.com/Shopify/sarama"

"fmt")

func main() {

config :=sarama.NewConfig()

config.Producer.RequiredAcks=sarama.WaitForAll

config.Producer.Partitioner=sarama.NewRandomPartitioner

config.Producer.Return.Successes= truemsg := &sarama.ProducerMessage{}

msg.Topic= "nginx_log"msg.Value= sarama.StringEncoder("this is a good test,my message is zhaofan")

client,err := sarama.NewSyncProducer([]string{"192.168.0.118:9092"},config)if err !=nil{

fmt.Println("producer close err:",err)

return

}

defer client.Close()

pid,offset,err :=client.SendMessage(msg)if err !=nil{

fmt.Println("send message failed,",err)

return

}

fmt.Printf("pid:%v offset:%v\n",pid,offset)

}

config.Producer.RequiredAcks = sarama.WaitForAll 这里表示是在给kafka扔数据的时候是否需要确认收到kafka的ack消息

msg.Topic = "nginx_log" 因为kafka是一个分布式系统,假如我们要读的是nginx日志,apache日志,我们可以根据topic做区分,同时也是我们也可以有不同的分区

我们将上述代码执行一下,就会往kafka中扔一条消息,可以通过kakfa中自带的消费者命令查看:

./bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic nginx_log --from-beginning

3b6b3fd4eac342d89eee601209c3001a.png

我们可以将最后的代码稍微更改一下,更改为循环发送:

for{

pid,offset,err :=client.SendMessage(msg)if err !=nil{

fmt.Println("send message failed,",err)

return

}

fmt.Printf("pid:%v offset:%v\n",pid,offset)

time.Sleep(2*time.Second)

}

这样当我们再次执行的程序的时候,我们可以看到客户端在不停的消费到数据:

77edc8b3c54f94e5c0b4129b34bfd5e9.png

这样我们就实现一个kakfa的生产者的简单的demo

接下来我们还需要知道一个工具的使用tailf

tailf

我们的agent需要读日志目录下的日志文件,而日志文件是不停的增加并且切换文件的,所以我们就需要借助于tailf这个包来读文件,当然这里的tailf和linux里的tail -f命令虽然不同,但是效果是差不多的,都是为了获取日志文件新增加的内容。

而我们的客户端非常重要的一个地方就是要读日志文件并且将读到的日志文件推送到kafka

这里需要我们下载一个包:go get github.com/hpcloud/tail

package main

import ("github.com/hpcloud/tail"

"fmt"

"time")

func main() {

filename := "/Users/zhaofan/go_project/src/go_dev/13/tailf/my.log"tails,err :=tail.TailFile(filename,tail.Config{

ReOpen:true,

Follow:true,

Location:&tail.SeekInfo{Offset:0,Whence:2},

MustExist:false,

Poll:true,

})if err !=nil{

fmt.Println("tail file err:",err)

return

}

var msg*tail.Line

var ok bool

fortrue{

msg,ok=

fmt.Printf("tail file close reopen,filenam:%s\n",tails,filename)

time.Sleep(100*time.Millisecond)

continue

}

fmt.Println("msg:",msg.Text)

}

}

最终实现的效果是当你文件里面添加内容后,就可以不断的读取文件中的内容

日志库的使用

这里是通过beego的日志库实现的,beego的日志库是可以单独拿出来用的,还是非常方便的,使用例子如下:

package main

import ("github.com/astaxie/beego/logs"

"encoding/json"

"fmt")

func main() {

config :=make(map[string]interface{})

config["filename"] = "/Users/zhaofan/go_project/src/go_dev/13/log/logcollect.log"config["level"] =logs.LevelTrace

configStr,err :=json.Marshal(config)if err !=nil{

fmt.Println("marshal failed,err:",err)

return

}

logs.SetLogger(logs.AdapterFile,string(configStr))

logs.Debug("this is a debug,my name is %s","stu01")

logs.Info("this is a info,my name is %s","stu02")

logs.Trace("this is trace my name is %s","stu03")

logs.Warn("this is a warn my name is %s","stu04")

}

简单版本logagent的实现

这里主要是先实现核心的功能,后续再做优化和改进,主要实现能够根据配置文件中配置的日志路径去读取日志并将读取的实时推送到kafka消息队列中

关于logagent的主要结构如下:

483123536126e532d6e02c7cef0f44be.png

程序目录结构为:

├── conf

│ └── app.conf

├── config.go

├── kafka.go

├── logs

│ └── logcollect.log

├── main.go

└── server.go

app.conf :配置文件

config.go:用于初始化读取配置文件中的内容,这里的配置文件加载是通过之前自己实现的配置文件热加载包处理的,博客地址:http://www.cnblogs.com/zhaof/p/8593204.html

logcollect.log:日志文件

kafka.go:对kafka的操作,包括初始化kafka连接,以及给kafka发送消息

server.go:主要是tail 的相关操作,用于去读日志文件并将内容放到channel中

所以这里我们主要的代码逻辑或者重要的代码逻辑就是kafka.go 以及server.go

kafka.go代码内容为:

//这里主要是kafak的相关操作,包括了kafka的初始化,以及发送消息的操作

package main

import ("github.com/Shopify/sarama"

"github.com/astaxie/beego/logs")

var (

client sarama.SyncProducer

kafkaSender*KafkaSender

)

type KafkaSender struct {

client sarama.SyncProducer

lineChan chan string

}//初始化kafka

func NewKafkaSender(kafkaAddr string)(kafka*KafkaSender,err error){

kafka= &KafkaSender{

lineChan:make(chan string,100000),

}

config :=sarama.NewConfig()

config.Producer.RequiredAcks=sarama.WaitForAll

config.Producer.Partitioner=sarama.NewRandomPartitioner

config.Producer.Return.Successes= trueclient,err :=sarama.NewSyncProducer([]string{kafkaAddr},config)if err !=nil{

logs.Error("init kafka client failed,err:%v\n",err)

return

}

kafka.client=client

for i:=0;i

go kafka.sendToKafka()

}

return

}

func initKafka()(err error){

kafkaSender,err=NewKafkaSender(appConfig.kafkaAddr)

return

}

func (k*KafkaSender) sendToKafka(){//从channel中读取日志内容放到kafka消息队列中

for v :=range k.lineChan{

msg := &sarama.ProducerMessage{}

msg.Topic= "nginx_log"msg.Value=sarama.StringEncoder(v)

_,_,err :=k.client.SendMessage(msg)if err !=nil{

logs.Error("send message to kafka failed,err:%v",err)

}

}

}

func (k*KafkaSender) addMessage(line string)(err error){//我们通过tailf读取的日志文件内容先放到channel里面

k.lineChan

return

}

server.go的代码为:

package main

import ("github.com/hpcloud/tail"

"fmt"

"sync"

"github.com/astaxie/beego/logs"

"strings")

type TailMgr struct {//因为我们的agent可能是读取多个日志文件,这里通过存储为一个map

tailObjMap map[string]*TailObj

lock sync.Mutex

}

type TailObj struct {//这里是每个读取日志文件的对象

tail*tail.Tail

offset int64//记录当前位置

filename string

}

var tailMgr*TailMgr

var waitGroup sync.WaitGroup

func NewTailMgr()(*TailMgr){

tailMgr= &TailMgr{

tailObjMap:make(map[string]*TailObj,16),

}

return tailMgr

}

func (t*TailMgr) AddLogFile(filename string)(err error){

t.lock.Lock()

defer t.lock.Unlock()

_,ok :=t.tailObjMap[filename]ifok{

err= fmt.Errorf("duplicate filename:%s\n",filename)

return

}

tail,err :=tail.TailFile(filename,tail.Config{

ReOpen:true,

Follow:true,

Location:&tail.SeekInfo{Offset:0,Whence:2},

MustExist:false,

Poll:true,

})

tailobj := &TailObj{

filename:filename,

offset:0,

tail:tail,

}

t.tailObjMap[filename]=tailobj

return

}

func (t*TailMgr) Process(){//开启线程去读日志文件

for _, tailObj :=range t.tailObjMap{

waitGroup.Add(1)

go tailObj.readLog()

}

}

func (t*TailObj) readLog(){//读取每行日志内容

for line :=range t.tail.Lines{if line.Err !=nil {

logs.Error("read line failed,err:%v",line.Err)

continue

}

str :=strings.TrimSpace(line.Text)if len(str)==0 || str[0] == '\n'{

continue

}

kafkaSender.addMessage(line.Text)

}

waitGroup.Done()

}

func RunServer(){

tailMgr=NewTailMgr()//这一部分是要调用tailf读日志文件推送到kafka中

for _, filename :=range appConfig.LogFiles{

err :=tailMgr.AddLogFile(filename)if err !=nil{

logs.Error("add log file failed,err:%v",err)

continue

}

}

tailMgr.Process()

waitGroup.Wait()

}

可以整体演示一下代码实现的效果,当我们运行程序之后我配置文件配置的目录为:

log_files=/app/log/a.log,/Users/zhaofan/a.log

我通过一个简单的代码对对a.log循环追加内容,你可以从kafka的客户端消费力看到内容了:

d8ec8bb4fd4c7f0527c6f51715744f63.png

小结

这次只是实现logagent的核心功能,实现了从日志文件中通过多个线程获取要读的日志内容,这里借助了tailf,并将获取的内容放到channel中,kafka.go会从channel中取出日志内容并放到kafka的消息队列中

这里并没有做很多细致的处理,下一篇文章会在这个代码的基础上进行改进。同时现在的配置文件的方式也不是最佳的,每次改动配置文件都需要重新启动程序,后面将通过etcd的方式。


版权声明:本文为weixin_36116008原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。