100字范文,内容丰富有趣,生活中的好帮手!
100字范文 > kafka集群搭建教程(使用自带的zookeeper)

kafka集群搭建教程(使用自带的zookeeper)

时间:2022-05-31 02:49:56

相关推荐

kafka集群搭建教程(使用自带的zookeeper)

kafka集群搭建教程(使用自带的zookeeper)

一、kafka简介二、kafka名词解释三、zookeeper与Kafka四、kafka集群搭建前准备1、下载2、检验jdk3、系统参数修改4、关闭防火墙五、zookeeper集群搭建1、解压2、修改配置zookeeper.properties文件内容:3、注意4、生成myid文件5、启动zookeeper六、kafka集群搭建1、修改配置内容:2、启动kafka3、创建topic4、查看topic5、写入消息,命令6、消费消息,命令七、注意事项

一、kafka简介

简单说明什么是kafka

Apache kafka是消息中间件的一种,我发现很多人不知道消息中间件是什么,在开始学习之前,我这边就先简单的解释一下什么是消息中间件,只是粗略的讲解,目前kafka已经可以做更多的事情。

举个例子,生产者消费者,生产者生产鸡蛋,消费者消费鸡蛋,生产者生产一个鸡蛋,消费者就消费一个鸡蛋,假设消费者消费鸡蛋的时候噎住了(系统宕机了),生产者还在生产鸡蛋,那新生产的鸡蛋就丢失了。再比如生产者很强劲(大交易量的情况),生产者1秒钟生产100个鸡蛋,消费者1秒钟只能吃50个鸡蛋,那要不了一会,消费者就吃不消了(消息堵塞,最终导致系统超时),消费者拒绝再吃了,”鸡蛋“又丢失了,这个时候我们放个篮子在它们中间,生产出来的鸡蛋都放到篮子里,消费者去篮子里拿鸡蛋,这样鸡蛋就不会丢失了,都在篮子里,而这个篮子就是”kafka“。

鸡蛋其实就是“数据流”,系统之间的交互都是通过“数据流”来传输的(就是tcp、https什么的),也称为报文,也叫“消息”。

消息队列满了,其实就是篮子满了,”鸡蛋“ 放不下了,那赶紧多放几个篮子,其实就是kafka的扩容。

各位现在知道kafka是干什么的了吧,它就是那个"篮子"。

Kafka是一种分布式的,基于发布/订阅的消息系统

二、kafka名词解释

后面大家会看到一些关于kafka的名词,比如topic、producer、consumer、broker,我这边来简单说明一下。

producer:生产者,就是它来生产“鸡蛋”的。

consumer:消费者,生出的“鸡蛋”它来消费。

topic:你把它理解为标签,生产者每生产出来一个鸡蛋就贴上一个标签(topic),消费者可不是谁生产的“鸡蛋”都吃的,这样不同的生产者生产出来的“鸡蛋”,消费者就可以选择性的“吃”了。

broker:就是篮子了。

大家一定要学会抽象的去思考,上面只是属于业务的角度,如果从技术角度,topic标签实际就是队列,生产者把所有“鸡蛋(消息)”都放到对应的队列里了,消费者到指定的队列里取。

三、zookeeper与Kafka

ZooKeeper提供服务时,是需要通过集群来实现,ZooKeeper集群中有一个leader,多个follower角色,其中leader提供写服务,follower提供读服务。

Kafka中ZooKeeper的用途:正如ZooKeeper用于分布式系统的协调和促进,Kafka使用ZooKeeper也是基于相同的原因。ZooKeeper用于管理、协调Kafka代理。每个Kafka代理都通过ZooKeeper协调其它Kafka代理。当Kafka系统中新增了代理或者某个代理故障失效时,ZooKeeper服务将通知生产者和消费者。生产者和消费者据此开始与其它代理协调工作。

四、kafka集群搭建前准备

1、下载

下载地址:/downloads本教程使用的版本为:kafka_2.12-2.6.0.tgz

2、检验jdk

java -vsersion

若没有安装java,需要先安装java

3、系统参数修改

vim /etc/sysctl.conffs.file-max=65536vm.max_map_count = 262144vim /etc/security/limits.conf* soft nofile 65535* hard nofile 131072* soft nproc 2048* hard nproc 4096

4、关闭防火墙

systemctl stop firewalld

五、zookeeper集群搭建

本次直接使用kafka自带的zookeeper,不需要单独下载zookeeper

1、解压

kafka安装包到/home/junxue/kafka_01目录下

vim config/zookeeper.properties

2、修改配置zookeeper.properties文件内容:

clientPort=2181

maxClientCnxns=100

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/junxue/kafka_01/zkdata

dataLogDir=/home/junxue/kafka_01/zklog

server.1=192.168.2.30:12888:13888

server.2=192.168.2.192:12888:13888

server.3=192.168.2.193:12888:13888

3、注意

三台服务器配置内容一致,需要在dataDir目录下创建myid文件,文件的内容必须与zookeeper.properties中的server.x编号保持一致。

4、生成myid文件

在三台机器上分别生成myid.我用的编号分别为1、2、3;

echo 1 > myid

5、启动zookeeper

依次启动三台机器上的zookeeper服务。

./bin/zookeeper-server-start.sh config/zookeeper.properties &

至少启动2个zookeeper才会显示如上图所示,假如启动一个,会显示如下

六、kafka集群搭建

vim config/server.properties

1、修改配置内容:

broker.id=1

prot = 9092

host.name = 10.16.10.113

work.threads=3

num.io.threads=8

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600

log.dirs=/usr/local/kafka-logs

num.partitions=16

num.recovery.threads.per.data.dir=1

offsets.topic.replication.factor=1

transaction.state.log.replication.factor=1

transaction.state.log.min.isr=1

log.retention.hours=168

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

zookeeper.connect=10.16.10.113:2181,10.16.10.114:2181,10.16.8.187:2181

zookeeper.connection.timeout.ms=6000

group.initial.rebalance.delay.ms=0

注意:每台服务器除broker.id 和 host.name 两个属性需要修改之外,其他属性保持一致。

2、启动kafka

./bin/kafka-server-start.sh ./config/server.properties &

三个kafka启动成功后,其中一个如下所示

3、创建topic

/home/junxue/kafka_01/kafka_2.12-2.6.0/bin/kafka-topics.sh --create --zookeeper 192.168.2.30:2181,192.168.2.192:2181,192.168.2.193:2181 --replication-factor 1 --partitions 2 --topic testtopic

4、查看topic

/home/junxue/kafka_01/kafka_2.12-2.6.0/bin/kafka-topics.sh --zookeeper 192.168.2.30:2181,192.168.2.192:2181,192.168.2.193:2181 --list

5、写入消息,命令

/home/junxue/kafka_01/kafka_2.12-2.6.0/bin/kafka-console-producer.sh --broker-list 192.168.2.30:9092 --topic testtopic

结果如下图所示,为了每次调用方便,我把以上命令行写入了kafka-console-producer.sh文件中。执行kafka-console-producer.sh文件等价执行上述命令。下面同理,不再单独说明。

6、消费消息,命令

/home/junxue/kafka_01/kafka_2.12-2.6.0/bin/kafka-console-consumer.sh --bootstrap-server 192.168.2.30:9092 --from-beginning --topic testtopic

能正常的写入消息、消费消息,kafka集群完成。

七、注意事项

发现zookeeper端口2181被占用

解决方案:

sudo lsof -i:2181kill 19915 (pid号)

参考:

【1】/kafka/index

【2】kafka——(一):初识kafka

【3】ELK+FileBeat+Kafka分布式系统搭建图文教程

【4】Kafka 常用命令总结

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。