Apache Kafka常用操作

一、Topic管理

1. 列出所有Topic

kafka-topics.sh --zookeeper 127.0.0.1:2181 --list

kafka-topics.sh --bootstrap-server 127.0.0.1:9092 --list

2. 创建一个topic

kafka-topics.sh --create --zookeeper  127.0.0.1:2181 --replication-factor 2 --partitions 3 --topic Test
#--replication-factor参数指定Topic的数据副本个数
#--partitions参数指定Topic的分区个数

3. 删除Topic

kafka-topics.sh --delete --zookeeper 127.0.0.1:2181 --topic Test
或者
#只会删除zookeeper中的元数据,消息文件须手动删除
kafka-run-class.sh kafka.admin.DeleteTopicCommand --zookeeper 127.0.0.1:2181 --topic Test

4. 查看Topic的详细信息

kafka-topics.sh --describe --zookeeper 127.0.0.1:2181 --topic Test

Topic:Test        PartitionCount:2        ReplicationFactor:1     Configs:
Topic: Test       Partition: 0    Leader: 2  Replicas: 2          Isr: 2
Topic: Test       Partition: 1    Leader: 3   Replicas: 3     Isr: 3

#第一行,列出了topic的名称,分区数(PartitionCount),副本数(ReplicationFactor)以及其他的配置(Config.s) 
#Leader:1 表示为做为读写的broker的节点编号 
#Replicas:表示该topic的每个分区在那些borker中保存 
#Isr:表示当前有效的broker, Isr是Replicas的子集

5. 增加Topic分区个数(只能增加扩容)

kafka-topics.sh --zookeeper 127.0.0.1:2181 --alter --topic Test --partitions 2

6. 给Topic增加配置

kafka-topics.sh --zookeeper 127.0.0.1:2181 --alter --topic Test --config flush.messages=1

7. 删除Topic的配置

kafka-topics.sh --zookeeper 127.0.0.1:2181 --alter --topic Test
--delete-config flush.messages=1

8. 查看消费者组

kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --list

9. 查看Topic各个分区的消息偏移量最大(小)值

kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list 127.0.0.1:9092 --time -1 --topic Test
# time为-1时表示最大值,time为-2时表示最小值

10. 查看Topic中指定consumer组内消息消费的offset

kafka的offset保存位置分为两种情况 0.9.0.0版本之前默认保存在zookeeper当中 ,0.9.0.0版本之后保存在broker对应的topic当中

kafka-consumer-offset-checker.sh --zookeeper 127.0.0.1:2181 --group logstash-group --topic Test

GROUP                       TOPIC                PID           OFFSET                LOGSIZE         LAG            Ower
消费者组                    话题id               分区id        当前已消费的条数      总条数      未消费的条数       所有者
console-consumer-98995      Test                 0            112                   318084         317972          none
console-consumer-98995      Test                 1            -1                    318088         unknown         none

方式二:

$ kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --describe --offsets --group Group-Name


TOPIC           PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID                                     HOST            CLIENT-ID
basic_log_k8s   1          127509          333334          205825          logstash-0-490058d7-154f-4111-b514-57de254ecae8 /192.168.3.72   logstash-0
basic_log_k8s   0          127317          333333          206016          logstash-0-2bd85bcc-282e-41a0-a9c3-6d0dbefd547f /192.168.0.40   logstash-0

11. 修改指定消费者分组对应topic的offset

第一种情况offset信息保存在topic中

$ bin/kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --group test-consumer-group --topic test --execute --reset-offsets --to-offset 10000
#参数解析: 
#--bootstrap-server 代表你的kafka集群 你的offset保存在topic中
#--group 代表你的消费者分组
#--topic 代表你消费的主题
#--execute 代表支持复位偏移
#--reset-offsets 代表要进行偏移操作
#--to-offset 代表你要偏移到哪个位置 是long类型数值,只能比前面查询出来的小
#还有其他的--to- ** 方式可以自己验证 本人验证过--to-datetime 没有成功

第二种方式offset信息保存在zookeeper当中

$ bin/kafka-consumer-groups.sh --zookeeper kafka_zk1:2181 --group test-consumer-group --topic test --execute --reset-offsets --to-offset 10000

12. 修改topic副本因子数

官方文档:https://kafka.apache.org/21/documentation.html#replication

① 先查看Topic的信息

$ kafka-topics.sh --zookeeper localhost:2181 --topic test --describe

Topic:test  PartitionCount:2  ReplicationFactor:1 Configs:
  Topic: test Partition: 0  Leader: 2 Replicas: 2 Isr: 2
  Topic: test Partition: 1  Leader: 3 Replicas: 3 Isr: 3

② 准备JSON文件

{
  "version": 1,
  "partitions": [
  {
      "topic": "test",
      "partition": 0,
      "replicas": [2, 1, 3]
  },
  {
      "topic": "test",
      "partition": 1,
      "replicas": [3, 2, 1]
   }]
}

③ kafka-reassign-partitions命令增加topic分区副本数

$ kafka-reassign-partitions.sh --zookeeper localhost:2181 --reassignment-json-file replication.json --execute

Current partition replica assignment
{"version":1,"partitions":[{"topic":"test","partition":0,"replicas":[2]},{"topic":"test","partition":1,"replicas":[3]}]}

Save this to use as the --reassignment-json-file option during rollback
Successfully started reassignment of partitions {"version":1,"partitions":[{"topic":"test","partition":0,"replicas":[2,1,3]},{"topic":"test","partition":1,"replicas":[3,2,1]}]}

④ 使用verify参数来检查副本数据是否复制分配完成

$ kafka-reassign-partitions.sh --zookeeper www.iteblog.com:2181 --reassignment-json-file replication.json --verify

Status of partition reassignment:
Reassignment of partition [test,0] is still in progress
Reassignment of partition [test,1] is still in progress

$ kafka-reassign-partitions.sh --zookeeper www.iteblog.com:2181 --reassignment-json-file replication.json --verify

Status of partition reassignment:
Reassignment of partition [test,0] completed successfully
Reassignment of partition [test,1] completed successfully

$ kafka-topics.sh --zookeeper localhost:2181 --topic test --describe

Topic:iteblog  PartitionCount:2  ReplicationFactor:3 Configs:
  Topic: test Partition: 0  Leader: 2 Replicas: 2,1,3 Isr: 2,1,3
  Topic: test Partition: 1  Leader: 3 Replicas: 3,2,1 Isr: 3,2,1

13. 均衡Topic分区到新增Broker节点

重新分配官方文档地址:http://kafka.apache.org/documentation/#basic_ops_cluster_expansion

翻译官方文档中文地址:http://orchome.com/36

参考文章:https://blog.csdn.net/forrest_ou/article/details/79141391

① 确定要重启分配分区的主题,新建topics-to-move.json json文件

{
  "topics": [
    {"topic": "foo1"},
    {"topic": "foo2"}
  ],
  "version":1
}
// foo1 foo2 为要重新分配的主题

② 使用 bin/kafka-reassign-partitions.sh重新分配工具生成分配规则的json语句分配到 5,6机器

kafka-reassign-partitions.sh --zookeeper localhost:2181 --topics-to-move-json-file topics-to-move.json --broker-list "5,6"  –generate

③ 有分配规则的json语句输出到控制台,复制到新建的json文件expand-cluster-reassignment.json中,例如:

{"version":1,
  "partitions":[{"topic":"foo1","partition":0,"replicas":[5,6]},
    {"topic":"foo1","partition":1,"replicas":[5,6]},
    {"topic":"foo1","partition":2,"replicas":[5,6]},
    {"topic":"foo2","partition":0,"replicas":[5,6]},
    {"topic":"foo2","partition":1,"replicas":[5,6]},
    {"topic":"foo2","partition":2,"replicas":[5,6]}]
}

//描述分配之后分区的分布情况

④ 执行命令,开始分区重新分配

kafka-reassign-partitions.sh --zookeeper localhost:2181 --reassignment-json-file expand-cluster-reassignment.json –execute

⑤ 验证是否完成

kafka-reassign-partitions.sh --zookeeper localhost:2181 --reassignment-json-file expand-cluster-reassignment.json –verify
//当输出全部都是completed successfully表明移动已经完成.

注意

  1. kafka新建主题时的分区分配策略:随机选取第一个分区节点,然后往后依次增加。例如第一个分区选取为1,第二个分区就 是2,第三个分区就是3. 1,2,3是brokerid。不会负载均衡,所以要手动重新分配分区操作,尽量均衡。
  2. 在生产的同时进行数据迁移会出现重复数据。所以迁移的时候避免重复生产数据,应该停止迁移主题的生产。同时消费不会,同时消费之后出现短暂的leader报错,会自动恢复。
  3. 新增了broker节点,如果有主题的分区在新增加的节点上,生产和消费的客户端都应该在hosts配置文件中增加新增的broker节点,否则无法生产消费,但是也不报错。
  4. 可以不需要第一步和第二步,自己手动新建分配的json文件

14. 查询Topic不可用的分区

kafka-topics.sh --describe --unavailable-partitions --zookeeper  localhost:2181

二、其他

1. 自带测试生产者

kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic Test

2. 自带测试消费者

kafka-console-consumer.sh --zookeeper 127.0.0.1:2181 --from-beginning --topic Test

3. 自带性能测试

位于bin/kafka-producer-perf-test.sh.主要参数有以下:

  • messages 生产者发送总的消息数量
  • message-size 每条消息大小(单位为b)
  • batch-size 每次批量发送消息的数量
  • topics 生产者发送的topic
  • threads 生产者使用几个线程同时发送 例如
kafka-producer-perf-test.sh --messages 100000 --message-size 1000 --batch-size 10000 --topics test --threads 4 --broker-list 127.0.0.1:9092

start.time, end.time, compression, message.size, batch.size, total.data.sent.in.MB, MB.sec, total.data.sent.in.nMsg, nMsg.sec
2015-10-15 18:56:27:542, 2015-10-15 18:56:30:880, 0, 1000, 10000, 95.37, 28.5702, 100000, 29958.0587
Copyright Curiouser all right reserved,powered by Gitbook该文件最后修改时间: 2020-06-16 21:35:29

results matching ""

    No results matching ""