• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

【Kafka】分布式面试

武飞扬头像
juejin
帮助46

1、Kafka的设计是什么样的?

Kafka将消息以topic为单位进行归纳将向Kafka topic发布消息的程序成为producers,将预订topics并消费消息的程序成为consumer。

Kafka以集群的方式运行,可以由一个或多个服务组成,每个服务叫做一 个broker。

producers通过网络将消息发送到Kafka集群,集群向消费者提 供消息

2、数据传输的事物定义有哪三种?

数据传输的事务定义通常有以下三种级别:

  1. 最多一次:消息不会被重复发送,最多被传输一次,但也有可能一次不 传输

  2. 最少一次:消息不会被漏发送,最少被传输一次,但也有可能被重复传 输.

  3. 精确的一次(Exactly once):不会漏传输也不会重复传输,每个消息都传输 被一次而且仅仅被传输一次,这是大家所期望的

3、Kafka判断一个节点是否还活着有那两个条件?

  1. 节点必须可以维护和ZooKeeper的连接,Zookeeper通过心跳机制检查每个节点的连接

  2. 如果节点是个follower,他必须能及时的同步leader的写操作,延时不能太久

4、producer是否直接将数据发送到broker的leader(主节点)?

producer直接将数据发送到broker的leader(主节点),不需要在多个节点进行分发,为了帮助producer做到这点,所有的Kafka节点都可以及时的告知哪些节点是活动的,目标topic目标分区的leader在哪。这样 producer就可以直接将消息发送到目的地了

5、Kafa consumer是否可以消费指定分区消息?

Kafa consumer消费消息时,向broker发出”fetch”请求去消费特定分区的 消息,consumer指定消息在日志中的偏移量(offset),就可以消费从这个位置开始的消息,customer拥有了 offset的控制权,可以向后回滚去重新消费之前的消息,这是很有意义的

6、Kafka消息是采用Pull模式,还是Push模式?

Kafka最初考虑的问题是,customer应该从brokes拉取消息还是brokers 将消息推送到consumer,也就是pull还push。在这方面,Kafka遵循了一种大部分消息系统共同的传统的设计,producer将消息推送到broker, consumer从 broker拉取消息

一些消息系统比如Scribe和Apache Flume采用了 push模式,将消息推送到下游的consumer。

这样做有好处也有坏处:由broker决定消息推送的速率,对于不同消费速率的consumer就不太好处理了。消息系统都致力于让consumer以最大的速率最快速的消费消息,但不幸的是,push模式下,当broker推送的 速率远大于consumer消费的速率时,consumer恐怕就要崩溃了。最终 Kafka还是选取了传统的pull模式

Pull模式的另外一个好处是consumer可以自主决定是否批量的从broker 拉取数据。Push模式必须在不知道下游consumer消费能力和消费策略的 情况下决定是立即推送每条消息还是缓存之后批量推送。如果为了避免consumer崩溃而采用较低的推送速率,将可能导致一次只推送较少的消息而造成浪费。

Pull模式下,consumer就可以根据自己的消费能力去决定这些策略

Pull有个缺点是,如果broker没有可供消费的消息,将导致c onsumer不 断在循环中轮询,直到新消息到t达。为了避免这点,Kafka有个参数可 以让consumer阻塞知道新消息到达(当然也可以阻塞知道消息的数量达到 某个特定的量这样就可以批量发

7、Kafka存储在硬盘上的消息格式是什么?

消息由一个固定长度的头部和可变长度的字节数组组成。头部包含了一个版本号和CRC32校验码。

  1. 消息长度:4 bytes (value: 1 4 n)
  2. 版本号:1 byte
  3. CRC 校验码:4 bytes
  4. 具体的消息:n bytes

8、Kafka高效文件存储设计特点

  1. Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。

  2. 通过索引信息可以快速定位message和确定response的最大大小。

  3. 通过index元数据全部映射到memory,可以避免segment file的10磁 盘操作。

  4. 通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大 小。

9、Kafka与传统消息系统之间有三个关键区别

  1. Kafka持久化日志,这些日志可以被重复读取和无限期保留

  2. Kafka是一个分布式系统:它以集群的方式运行,可以灵活伸缩,在内部 通过复制数据提升容错能力和高可用性

  3. Kafka支持实时的流式处理

10、Kafka创建Topic时如何将分区放置到不同的Broker中

  1. 副本因子不能大于Broker的个数;

  2. 第一个分区(编号为0)的第一个副本放置位置是随机从brokerList选择的;

  3. 其他分区的第一个副本放置位置相对于第0个分区依次往后移。也就是 如果我们有5个Broker, 5个分区,假设第一个分区放在第四个Broker 上,那么第二个分区将会放在第五个Broker上;第三个分区将会放在第一 个Broker上;第四个分区将会放在第二个Broker上,依次类推;

  4. 剩余的副本相对于第一个副本放置位置其实是由nextReplicaShift决定 的,而这个数也是随机产生的

11、Kafka新建的分区会在哪个目录下创建

在启动Kafka集群之前,我们需要配置好log.dirs参数,其值是Kafka数 据的存放目录,这个参数可以配置多个目录,目录之间使用逗号分隔,通 常这些目录是分布在不同的磁盘上用于提高读写性能。

当然我们也可以配置log.dir参数,含义一样。只需要设置其中一个即可。 如果log.dirs参数只配置了一个目录,那么分配到各个Broker上的分区肯定只能在这个目录下创建文件夹用于存放数据。

但是如果log.dirs参数配置了多个目录,那么Kafka会在哪个文件夹中创 建分区目录呢?答案是:Kafka会在含有分区目录最少的文件夹中创建新的 分区目录,分区目录名为Topic名 分区ID。注意,是分区文件夹总数最少的目录,而不是磁盘使用量最少的目录!也就是说,如果你给log.dirs参数新增了一个新的磁盘,新的分区目录肯定是先在这个新的磁盘上创建直到这个新的磁盘目录拥有的分区目录不是最少为止。

12、partition的数据如何保存到硬盘

topic中的多个partition以文件夹的形式保存到broker,每个分区序号从0 递增,且消息有序 Partition 文件下有多个 segment(xxx.index, xxx.log)。

segment文件里的大小和配置文件大小一致可以根据要求修改默认为1g 如果大小大于1g时,会滚动一个新的segment并且以上一个segment最 后一条消息的偏移量命名。

13、kafka 的 ack 机制

request.required.acks 有三个值 0 1 -1

0:生产者不会等待broker的ack,这个延迟最低但是存储的保证最弱当 server挂掉的时候就会丢数据

1:服务端会等待ack值leader副本确认接收到消息后发送ack但是如果 leader挂掉后他不确保是否复制完成新leader也会导致数据丢失

-1:同样在1的基础上服务端会等所有的follower的副本受到数据后才会受到 leader发出的ack,这样数据不会丢失

14、Kafka的消费者如何消费数据

消费者每次消费数据的时候,消费者都会记录消费的物理偏移量(offset )的 位置等到下次消费时,他会接着上次位置继续消费

15、消费者负载均衡策略

一个消费者组中的一个分片对应一个消费者成员,他能保证每个消费者成 员都能访问,如果组中成员太多会有空闲的成员

16、数据有序

一个消费者组里它的内部是有序的,消费者组与消费者组之间是无序的。

17、kafaka生产数据时数据的分组策略

生产者决定数据产生到集群的哪个partition中每一条消息都是以(key, valu e)格式 Key是由生产者发送数据传入所以生产者(key)决定了数据产生到集群的哪 个 partition

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanejbe
系列文章
更多 icon
同类精品
更多 icon
继续加载