Kafka 安装

安装 Java 环境

在安装 Kafka 之前,先确保Linux 环境上是否有 Java 环境,使用 java -version 命令查看 Java 版本,推荐使用Jdk 1.8 ,如果没有安装 Java 环境的话,可以按照这篇文章进行安装(https://www.jb51.net/article/169437.htm

安装 Zookeeper 环境

Kafka 的底层使用 Zookeeper 储存元数据,确保一致性,所以安装 Kafka 前需要先安装 Zookeeper,有两种方式安装 zk

  • Kafka 的发行版自带了 Zookeeper ,可以直接使用脚本来启动
  • 自己安装 zookeeper,本文选择这个方式

Zookeeper 有两种部署方式

  • 单机部署
  • 集群部署

Zookeeper 单机搭建

Zookeeper 单机搭建比较简单,从 https://www.apache.org/dyn/closer.cgi/zookeeper/ 官网下载一个稳定版本的 Zookeeper

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 如果没有解压工具,安装 zip 解压工具
# yum install unzip

# 解压
tar -zxvf zookeeper-3.4.10.tar.gz

cd /usr/local/zookeeper/zookeeper-3.4.10
mkidr data
cd conf
mv zoo_sample.cfg zoo.cfg # 重命名操作

# 编辑 zoo.cfg ,更改 dataDir = /usr/local/zookeeper/zookeeper-3.4.10/data

cd bin
./zkServer.sh start # 启动服务输入命令
./zkServer.sh stop # 关闭服务输入命令
./zkServer.sh status # 可以查看状态信息

输出下面内容表示搭建成功

1
2
3
4
5
6
7
8
9
10
11
12
./zkServer.sh start  # 启动服务输入命令,输出下面内容表示搭建成功
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.10/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED

./zkServer.sh status # 可以查看状态信息,输出下面内容表示搭建成功
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.10/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: leader

Zookeeper 集群搭建

准备条件

准备条件:需要三个服务器,在每个 /usr/local/ 下面新建 zookeeper 文件夹,把 zookeeper 的压缩包挪过来,解压,完成后会有 zookeeper-3.4.10 文件夹,进入到文件夹,新建两个文件夹,分别是 datalog 文件夹。

设置集群

然后编辑 conf/zoo.cfg 文件,三个文件的内容如下

1
2
3
4
5
6
7
8
9
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/zookeeper-3.4.10/data
dataLogDir=/usr/local/zookeeper/zookeeper-3.4.10/log
clientPort=12181
server.1=192.168.1.7:12888:13888
server.2=192.168.1.8:12888:13888
server.3=192.168.1.9:12888:13888

server.1 中的这个 1 表示的是服务器的标识也可以是其他数字,表示这是第几号服务器,这个标识要和下面我们配置的 myid 的标识一致可以。

192.168.1.7:12888:13888 为集群中的 ip 地址,第一个端口表示的是 master 与 slave 之间的通信接口,默认是 2888,第二个端口是leader选举的端口,集群刚启动的时候选举或者leader挂掉之后进行新的选举的端口,默认是 3888

配置文件各选项含义

  • tickTime: 这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。
  • initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒
  • syncLimit: 这个配置项标识 Leader 与Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是5*2000=10秒
  • dataDir: 快照日志的存储路径
  • dataLogDir: 事务日志的存储路径,如果不配置这个那么事务日志会默认存储到dataDir指定的目录,这样会严重影响zk的性能,当zk吞吐量较大的时候,产生的事务日志、快照日志太多
  • clientPort: 这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

创建 myid 文件

在了解完其配置文件后,现在来创建每个集群节点的 myid ,我们上面说过,这个 myid 就是 server.1 的这个 1 ,类似的,需要为集群中的每个服务都指定标识,使用 echo 命令进行创建

1
2
3
4
5
6
# server.1
echo "1" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid
# server.2
echo "2" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid
# server.3
echo "3" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid

启动服务并测试(每台都需要执行)

配置完成,为每个 zk 服务启动并测试,注意是每台服务器都要单独执行

1
2
cd /usr/local/zookeeper/zookeeper-3.4.10/bin
./zkServer.sh start

输出下面内容表示搭建成功

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
./zkServer.sh start  # 启动服务输入命令,输出下面内容表示搭建成功
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.10/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED


./zkServer.sh status # 可以查看状态信息,输出下面内容表示搭建成功--leader
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.10/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: leader

./zkServer.sh status # 可以查看状态信息,输出下面内容表示搭建成功--leader
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.10/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower

zk集群一般只有一个leader,多个follower,主一般是相应客户端的读写请求,而从主同步数据,当主挂掉之后就会从follower里投票选举一个leader出来。

Kafka 集群搭建

准备条件

1
2
3
4
5
6
cd /usr/local
mkdir kafka # 新建 kafka 文件夹,然后把下载完成的 tar.gz 包移到 /usr/local/kafka 目录下
tar -zxvf kafka_2.12-2.3.0.tgz # 解压
cd kafka_2.12-2.3.0 # 解压完成后,进入到cd kafka_2.12-2.3.0目录下
mkdir log # 新建 log 文件夹
cd config # 进入config目录下

进入到config目录下,我们可以看到有很多 properties 配置文件,这里主要关注 server.properties 这个文件。

kafka 启动方式有两种,一种是使用 kafka 自带的 zookeeper 配置文件来启动(可以按照官网来进行启动,并使用单个服务多个节点来模拟集群http://kafka.apache.org/quickstart#quickstart\_multibroker),一种是通过使用独立的zk集群来启动,这里推荐使用第二种方式,使用 zk 集群来启动

修改配置项

需要为每个服务都修改一下配置项,也就是server.properties, 需要更新和添加的内容有

1
2
3
4
5
6
7
8
9
10
broker.id=0  # 初始是0,每个 server 的broker.id 都应该设置为不一样的,就和 myid 一样 我的三个服务分别设置的是 1,2,3
log.dirs=/usr/local/kafka/kafka_2.12-2.3.0/log

# 在log.retention.hours=168 下面新增下面三项
message.max.byte=5242880
default.replication.factor=2
replica.fetch.max.bytes=5242880

# 设置zookeeper的连接端口
zookeeper.connect=192.168.1.7:2181,192.168.1.8:2181,192.168.1.9:2181

配置项的含义

  • broker.id=0 #当前机器在集群中的唯一标识,和zookeeper的myid性质一样
  • port=9092 #当前kafka对外提供服务的端口默认是9092
  • host.name=192.168.1.7 #这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。
  • num.network.threads=3 #这个是borker进行网络处理的线程数
  • num.io.threads=8 #这个是borker进行I/O处理的线程数
  • log.dirs=/usr/local/kafka/kafka_2.12-2.3.0/log #消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个
  • socket.send.buffer.bytes=102400 #发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能
  • socket.receive.buffer.bytes=102400 #kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘
  • socket.request.max.bytes=104857600 #这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小
  • num.partitions=1 #默认的分区数,一个topic默认1个分区数
  • log.retention.hours=168 #默认消息的最大持久化时间,168小时,7天
  • message.max.byte=5242880 #消息保存的最大值5M
  • default.replication.factor=2 #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务
  • replica.fetch.max.bytes=5242880 #取消息的最大直接数
  • log.segment.bytes=1073741824 #这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件
  • log.retention.check.interval.ms=300000 #每隔300000毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除
  • log.cleaner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能
  • zookeeper.connect=192.168.1.7:2181,192.168.1.8:2181,192.168.1.9:2181 #设置zookeeper的连接端口

启动 Kafka 集群并测试

启动服务,进入到 /usr/local/kafka/kafka_2.12-2.3.0/bin 目录下

1
2
# 启动后台进程
./kafka-server-start.sh -daemon ../config/server.properties

检查服务是否启动

1
2
3
4
# 执行命令 jps
6201 QuorumPeerMain
7035 Jps
6972 Kafka

kafka 已经启动,创建 Topic 来验证是否创建成功

1
2
cd ..  # 往回退一层到 /usr/local/kafka/kafka_2.12-2.3.0 目录
bin/kafka-topics.sh --create --zookeeper 192.168.1.7:2181 --replication-factor 2 --partitions 1 --topic cxuan # --replication-factor 2 复制两份;--partitions 1 创建1个分区;--topic 创建主题

查看我们的主题是否出创建成功

1
bin/kafka-topics.sh --list --zookeeper 192.168.1.7:2181

启动一个服务就能把集群启动起来

在一台机器上创建一个发布者

1
2
# 创建一个broker,发布者
./kafka-console-producer.sh --broker-list 192.168.1.7:9092 --topic cxuantopic

在一台服务器上创建一个订阅者

1
2
# 创建一个consumer, 消费者
bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --topic cxuantopic --from-beginning

注意:这里使用 –zookeeper 的话可能出现 zookeeper is not a recognized option 的错误,这是因为 kafka 版本太高,需要使用 --bootstrap-server 指令

测试结果

发布

消费

其他命令

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# 显示 topic
bin/kafka-topics.sh --list --zookeeper 192.168.1.7:2181

# 显示结果:
cxuantopic

# 查看 topic 状态
bin/kafka-topics.sh --describe --zookeeper 192.168.1.7:2181 --topic cxuantopic

# 下面是显示的详细信息
Topic:cxuantopic PartitionCount:1 ReplicationFactor:2 Configs:
Topic: cxuantopic Partition: 0 Leader: 1 Replicas: 1,2 Isr: 1,2

# 分区为为1 复制因子为2 主题 cxuantopic 的分区为0
# Replicas: 0,1 复制的为1,2

Leader 负责给定分区的所有读取和写入的节点,每个节点都会通过随机选择成为 leader。

Replicas 是为该分区复制日志的节点列表,无论它们是 Leader 还是当前处于活动状态。

Isr 是同步副本的集合。它是副本列表的子集,当前仍处于活动状态并追随Leader。

至此,kafka 集群搭建完毕。

验证多节点接收数据

刚刚我们都使用的是 相同的ip 服务,下面使用其他集群中的节点,验证是否能够接受到服务

在另外两个节点上使用

1
bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --topic cxuantopic --from-beginning

然后再使用 broker 进行消息发送,经测试三个节点都可以接受到消息。


Kafka 安装
https://flepeng.github.io/043-Kafka-Kafka-安装/
作者
Lepeng
发布于
2021年3月8日
许可协议