• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

Kafka2.8+在Windows下的搭建和使用

武飞扬头像
北桥苏
帮助1

前言:

        周末空闲时间无意找到了一套个性化推荐的源码,整体项目运用了SSH,HDFS,Flume,Hive,Kafka,Spark,Scala等。运行时,本来通过spark计算业务埋点数据时,却发现本地没有Kafka。因为我一直也没使用过Kafka,所以也作为新人,浅谈以下Kafka的环境安装与分别在PHP,Scala中的使用。

对比:

1. 横向,相比其他中间件。

           关于kafka与其他消息中间件的比较,网上很多的博主,不管是从运行原理还是中间件架构都有很详细的介绍。因为我平时用Rabbit居多,在没有看别人介绍前。Rabbi比Kafka于PHP开发更友好。因为kafka除了PHP的composer依赖包常年不更新外,kafka在windows下的PHP扩展需要自己编译。从这一点上看Rabbit就更适合业务性的消息队列,更别说他还有事务等对消息消费的高保障。kafka在数据增量方面更具优势,所以多数在大数据和推荐系统中都有运用。

2. 纵向,相比其他版本。

           如标题所见,这里主要是2.8 与之前版本的对比。因为在2.8以前,kafka安装前需要安装zookeeper。这里只是一小个区别,其他的新特性具体参考kafka官方文档,因为我看到网上关于kafka的安装文章,别人都会安装zookeeper,所以这里就特别说明以下,以及后面启动时与其他人博客的不同。

学新通

安装:

1. 下载

        下载地址可以在浏览器搜索kafka官网自行下载,见上图。

2. 配置

        下载完后目录结构如下,进入config, 主要对zookeeper.properties和server.properties进行分布节点,服务端口,日志存放目录等等的设置,前期也是什么不用管保持默认配置进行启动。

        

学新通

3. 启动

           也不知道是不是从2.8开始,bin目录下多了一个windows。所以在windows下启动进入到改目录,运行如下命令执行bat文件。注意启动的时候先zookeeper后kafka,停止的时候先kafka后zookeeper。

(1). zookeeper启动

zookeeper-server-start.bat ..\..\config\zookeeper.properties &

学新通

(2).kafka启动

kafka-server-start.bat ..\..\config\server.properties &

学新通

(3). 其他命令

  1.  
    查看所有topics
  2.  
    kafka-topics.bat --list --zookeeper localhost:2181
  1.  
    新增topics
  2.  
    kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

Kafka存储机制:

  • topic中partition存储分布

  • partiton中文件存储方式

  • partiton中segment文件存储结构

  • 在partition中通过offset查找message

图形化工具:

        前期可以借助图形化工具快速具象的查看kafka的消息数据,也能便于理解其基本操作流程。以下推荐一块桌面端工具——offsetexplorer,可以在网上搜索下载,当然web控制台也不错,比如kafka manager。

1. kafka连接

学新通

学新通

(2). Cluster name查看

        这个值如果没有设置的情况是生成的,可以在启动日志中查看,根目录/logs/server.log

学新通

(3). Topics查看

         通过运行一下新增topics或新增消息后就可以在Offset Explorer查看了,更多的使用方法也可以在网上找到。

学新通

学新通

PHP操作:

1. 下载依赖

composer require nmred/kafka-php

2.  生产者 Producer.php

  1.  
    <?php
  2.  
     
  3.  
    require './vendor/autoload.php';
  4.  
     
  5.  
    date_default_timezone_set('PRC');
  6.  
     
  7.  
    /* 创建一个配置实例 */
  8.  
    $config = \Kafka\ProducerConfig::getInstance();
  9.  
     
  10.  
    /* Topic的元信息刷新的间隔 */
  11.  
    $config->setMetadataRefreshIntervalMs(10000);
  12.  
     
  13.  
    /* 设置broker的地址 */
  14.  
    $config->setMetadataBrokerList('127.0.0.1:9092');
  15.  
     
  16.  
    /* 设置broker的代理版本 */
  17.  
    $config->setBrokerVersion('1.0.0');
  18.  
     
  19.  
    /* 只需要leader确认消息 */
  20.  
    $config->setRequiredAck(1);
  21.  
     
  22.  
    /* 选择异步 */
  23.  
    $config->setIsAsyn(false);
  24.  
     
  25.  
    /*500毫秒发送消息 */
  26.  
    $config->setProduceInterval(500);
  27.  
     
  28.  
    /* 创建一个生产者实例 */
  29.  
    $producer = new \Kafka\Producer();
  30.  
     
  31.  
    for($i = 0; $i < 100; $i ) {
  32.  
    $producer->send([
  33.  
    [
  34.  
    'topic' => 'test',
  35.  
    'value' => 'test'.$i,
  36.  
    ],
  37.  
    ]);
  38.  
    }
学新通

3. 消费者 Consumer.php

  1.  
    <?php
  2.  
     
  3.  
    require './vendor/autoload.php';
  4.  
     
  5.  
    date_default_timezone_set('PRC');
  6.  
     
  7.  
    $config = \Kafka\ConsumerConfig::getInstance();
  8.  
    $config->setMetadataRefreshIntervalMs(10000);
  9.  
    $config->setMetadataBrokerList('127.0.0.1:9092');
  10.  
    $config->setGroupId('test');
  11.  
    $config->setBrokerVersion('1.0.0');
  12.  
    $config->setTopics(['test']);
  13.  
     
  14.  
    $consumer = new \Kafka\Consumer();
  15.  
    $consumer->start(function($topic, $part, $message) {
  16.  
    var_dump($message);
  17.  
    });
学新通

Scala操作:

1.  创建基于Maven的Scala项目

(1). 创建

学新通

(2). 添加模板(没有模板的前提)

可以网上搜索Scala-archetype-simple的位置并填写。

学新通

(3). 完成创建等待IDE自动构建

学新通

学新通

(4). 给项目添加Scala SDK依赖

学新通

学新通

学新通

2. 配置

(1). 修改pom.xml的scala版本为本地安装scala对应的号。

(2). Cannot resolve plugin org.scala-tools:maven-scala-plugin: unknown解决方法

  1.  
    添加一下依赖后再Maven刷新
  2.  
     
  3.  
    <dependency>
  4.  
    <groupId>org.scala-tools</groupId>
  5.  
    <artifactId>maven-scala-plugin</artifactId>
  6.  
    <version>2.11</version>
  7.  
    </dependency>
  8.  
    <dependency>
  9.  
    <groupId>org.apache.maven.plugins</groupId>
  10.  
    <artifactId>maven-eclipse-plugin</artifactId>
  11.  
    <version>2.5.1</version>
  12.  
    </dependency>

3. 添加kafka依赖

  1.  
    <!--kafka-->
  2.  
    <dependency>
  3.  
    <groupId>org.apache.kafka</groupId>
  4.  
    <artifactId>kafka_2.11</artifactId>
  5.  
    <version>1.1.0</version>
  6.  
    </dependency>
  7.  
     
  8.  
    <dependency>
  9.  
    <groupId>org.apache.kafka</groupId>
  10.  
    <artifactId>kafka-clients</artifactId>
  11.  
    <version>1.1.0</version>
  12.  
    </dependency>

学新通

4. 创建消费者

  1.  
    package com.xudong
  2.  
     
  3.  
    import java.util.Properties
  4.  
    import org.apache.kafka.clients.producer.{KafkaProducer, ProducerRecord, RecordMetadata}
  5.  
     
  6.  
    object KafkaProducerDemo {
  7.  
     
  8.  
    def main(args: Array[String]): Unit = {
  9.  
    val prop = new Properties
  10.  
    // 指定请求的kafka集群列表
  11.  
    prop.put("bootstrap.servers", "127.0.0.1:9092")
  12.  
    prop.put("acks", "all")
  13.  
    // 请求失败重试次数
  14.  
    //prop.put("retries", "3")
  15.  
    // 指定key的序列化方式, key是用于存放数据对应的offset
  16.  
    prop.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer")
  17.  
    // 指定value的序列化方式
  18.  
    prop.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer")
  19.  
    // 配置超时时间
  20.  
    prop.put("request.timeout.ms", "60000")
  21.  
     
  22.  
    val producer = new KafkaProducer[String, String](prop)
  23.  
     
  24.  
    // 发送给kafka
  25.  
    for (i <- 1 to 25) {
  26.  
    val msg = s"${i}: this is a linys ${i} kafka data"
  27.  
    println("send -->" msg)
  28.  
    val rmd: RecordMetadata = producer.send(new ProducerRecord[String, String]("ceshi", msg)).get()
  29.  
    println(rmd.toString)
  30.  
    Thread.sleep(500)
  31.  
    }
  32.  
     
  33.  
    producer.close()
  34.  
    }
  35.  
     
  36.  
    }
学新通

学新通

5. 创建消费者

  1.  
    package com.xudong
  2.  
     
  3.  
    import java.util.{Collections, Properties}
  4.  
    import org.apache.kafka.clients.consumer.{ConsumerRecords, KafkaConsumer}
  5.  
     
  6.  
    object KafkaConsumerDemo {
  7.  
     
  8.  
    def main(args: Array[String]): Unit = {
  9.  
    val prop = new Properties
  10.  
    prop.put("bootstrap.servers", "127.0.0.1:9092")
  11.  
    prop.put("group.id", "group01")
  12.  
    prop.put("auto.offset.reset", "earliest")
  13.  
    prop.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
  14.  
    prop.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
  15.  
    prop.put("enable.auto.commit", "true")
  16.  
    prop.put("session.timeout.ms", "30000")
  17.  
    val kafkaConsumer = new KafkaConsumer[String, String](prop)
  18.  
    kafkaConsumer.subscribe(Collections.singletonList("ceshi"))
  19.  
    // 开始消费数据
  20.  
    while (true) {
  21.  
    val msgs: ConsumerRecords[String, String] = kafkaConsumer.poll(2000)
  22.  
    // println(msgs.count())
  23.  
    val it = msgs.iterator()
  24.  
    while (it.hasNext) {
  25.  
    val msg = it.next()
  26.  
    println(s"partition: ${msg.partition()}, offset: ${msg.offset()}, key: ${msg.key()}, value: ${msg.value()}")
  27.  
    }
  28.  
    }
  29.  
    }
  30.  
     
  31.  
    }
学新通

学新通

学习交流

学新通

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhfhkcgc
系列文章
更多 icon
同类精品
更多 icon
继续加载