• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

flume采集日志到kafaka

武飞扬头像
juejin
帮助63

1.写一个shell脚本log.sh,产生数据

#bin/bash for((i=0;i<=10000;i )) do echo "message-" $i >> /home/hadoop/flume_source/click_log/1.log done

 

2.在flume的conf目录中配置采集数据方案exec.conf

 

a1.sources = r1 a1.sinks = k1 a1.channels = c1

Describe/configure the source

a1.sources.r1.type = exec a1.sources.r1.command = tail -F /home/hadoop/flume_source/click_log/1.log a1.sources.r1.channels = c1

Describe the sink

Use a channel which buffers events in memory

a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100

Bind the source and sink to the channel

a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink a1.sinks.k1.topic = test a1.sinks.k1.brokerList = 192.168.1.148:9092 a1.sinks.k1.requiredAcks = 1 a1.sinks.k1.batchSize = 20 a1.sinks.k1.channel = c1

 

3.开启zookeeper集群,kafka集群,启动flume bin/flume-ng agent -n a1 -c conf -f conf/exec.conf -Dflume.root.logger=INFO,console

 

 

启动kafka的消费者进行监控 kafka-console-consumer.sh --zookeeper min1:2181 -from-beginning --topic test 运行shell脚本sh log.sh 4.可以在consumer中看到如下数据监控:

 

 

 

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/taneike
系列文章
更多 icon
同类精品
更多 icon
继续加载