kafka查看topic中的数据_两种实现方式 | 如何查看消费者组的消费情况

fc72e2508869992b2a3f222ba09df919.gif

回复“资源”领取独家整理的学习资料!

5254593df0e94d7d47e3766edcadb05b.png

每一个成功人士的背后,必定曾经做出过勇敢而又孤独的决定。

放弃不难,但坚持很酷~

版本:kafka_2.11-1.1.0

本文提供两种方式来查看消费者组的消费情况,分别通过命令行和 java api 的方式来消费 __consumer_offsets 。

一、通过命令行来查看消费情况

查看 kafka 消费者组列表:

./bin/kafka-consumer-groups.sh --bootstrap-server :9092 --list

查看 kafka 中某一个消费者组的消费情况:

./bin/kafka-consumer-groups.sh --bootstrap-server :9092 --group test-17 --describe

test-17 是消费者组。

83f57941f3d36b141712c70c6d4eb767.png

在上面这张图中,我们可以看到该消费者组消费的 topic、partition、当前消费到的 offset 、最新 offset 、LAG(消费进度) 等等。如果消费者的 offset 很长时间没有提交导致 LAG 越来越大,则证明消费 Kafka 的服务异常。

消费者组消费 topic 的元数据信息,在旧版本里面是存储在 zookeeper 中,但由于 zookeeper 并不适合大批量的频繁写入操作,新版 kafka 已将消费者组的元数据信息保存在 kafka 内部的 topic 中,即 __consumer_offsets ,并提供了 kafka-console-consumer.sh 脚本供用户查看消费者组的元数据信息。

那么如何使用 kafka 提供的脚本查询某消费者组的元数据信息呢?

__consumer_offsets 默认有 50 个 partition,kafka 会根据 group.id 的 hash 值选择往哪个 partition 里面存放该 group 的元数据信息。计算 group.id 对应的 partition 的公式为:

Math.abs(groupID.hashCode) % numPartitions

举例:Math.abs("test-17".hashCode) % 50,其中 test-17 是 group.id 。

找到 group.id 对应的 partition 后,就可以指定分区消费了:

./bin/kafka-console-consumer.sh --bootstrap-server message-1:9092 --topic __consumer_offsets --formatter "kafka.coordinator.group.GroupMetadataManager$OffsetsMessageFormatter" --partition 45

kafka 0.11.0.0 版本(含)之前需要使用 formatter 为 kafka.coordinator.GroupMetadataManager$OffsetsMessageFormatter , 0.11.0.0 版本以后(含)使用上面脚本中使用的 Class 。

脚本执行后输出的元数据信息有:

[test-17,topic-test,0]::[OffsetMetadata[36672,NO_METADATA],CommitTime 1599746660064,ExpirationTime 1599833060064]

[消费者组 : 消费的topic : 消费的分区] :: [offset位移], [offset提交时间], [元数据过期时间]

二、通过 java api 来查看消费情况,方便做告警监控

使用 java api 来查看 __consumer_offsets 元数据信息,更加灵活方便。比如我就用了以下方式做了消费者组消费的告警监控。

pom 依赖:

org.apache.kafka

kafka_2.11

1.1.0

kafka-clients

org.apache.kafka

slf4j-log4j12

org.slf4j

org.apache.kafka

kafka-clients

1.1.0

消费者配置:

__consumer_offsets 中的数据需要用字节来转码,所以消费者配置中需要设置 ByteArrayDeserializer 序列化和反序列化:

props.put("key.deserializer",

"org.apache.kafka.common.serialization.ByteArrayDeserializer");

props.put("value.deserializer",

"org.apache.kafka.common.serialization.ByteArrayDeserializer");

消费者示例代码:

/**

* 指定分区消费__consumer_offsets

*/

public voidconsumerTopic {

consumer.assign(Arrays.asList(new TopicPartition("__consumer_offsets", 45)));

ConsumerRecords records;

while (true) {

records = consumer.poll(500);

for (ConsumerRecord record : records) {

BaseKey key = GroupMetadataManager.readMessageKey(ByteBuffer.wrap(record.key));

if (key instanceof OffsetKey) {

GroupTopicPartition partition = (GroupTopicPartition) key.key;

String topic = partition.topicPartition.topic;

String group = partition.group;

log.info("consumer group: [{}], consumer topic: [{}], key: [{}]", group, topic, key.toString);

} else if (key instanceof GroupMetadataKey){

log.info("groupMetadataKey: [{}]", key.key);

//第一个参数为group id,先将key转换为GroupMetadataKey类型,再调用它的key方法就可以获得group id

GroupMetadata groupMetadata = GroupMetadataManager.readGroupMessageValue(((GroupMetadataKey) key).key, ByteBuffer.wrap(record.value));

log.info("GroupMetadata: [{}]", groupMetadata.toString);

}

}

}

}

只要消费者组提交位移,__consumer_offsets 里面就会增加对应的元数据信息。我们可以通过指定分区消费 __consumer_offsets ,来监控某消费者组的消费情况,避免在生产环境中消费程序假死而不自知。

小结

1、解析 __consumer_offsets 元数据信息需要设置 ByteArrayDeserializer 序列化和反序列化。

2、通过 kafka.coordinator.GroupMetadataManager 来解析元数据信息

3、__consumer_offsets 的元数据信息有两种:

  • [key:OffsetKey,value:OffsetAndMetadata]:保存了消费者组各 partition 的 offset 元数据信息。
  • [key:GroupMetadataKey,value:GroupMetadata]:保存了消费者组中各个消费者的信息。
218b0d54d71e3eb979e6735c74dcd694.png

欢迎大家留言讨论

Kafka消费者 之 指定位移消费

Kafka消费者 之 如何订阅主题或分区

Kafka消费者 之 如何进行消息消费

Kafka消费者 之 如何提交消息的偏移量

Kafka基础(二):生产者相关知识汇总

Kafka基础(一):基本概念及生产者、消费者示例

扫一扫,我们的故事就开始了。

让我知道你在看

58c1bb58d5502d27af59442e56ce49e9.gif