[0696].第11节:Kafka-Eagle监控

发布于:2025-02-15 ⋅ 阅读:(9) ⋅ 点赞:(0)

1.MySQL环境搭建


2.停止所有的Kafka服务:


3.Kafka 环境准备

  • 1.原始配置:
    在这里插入图片描述
  • 2.修改内存
if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G 
-XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 
-XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 
-XX:InitiatingHeapOccupancyPercent=70"
export JMX_PORT="9999"
#export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
fi
  • 3.注意:修改之后在启动 Kafka 之前要分发之其他节点: xsync kafka-server-start.sh

4.Kafka-Eagle 安装

4.1.下载:

4.2.安装:

a.上传安装包:

  • 1.下载Kafka-Eagle安装包后,上传压缩包 kafka-eagle-bin-2.0.8.tar.gz 到集群/opt/software 目录
    在这里插入图片描述
  • 2.解压到本地:tar -zxvf kafka-eagle-bin2.0.8.tar.gz
  • 3.进入刚才解压的目录kafka-eagle-bin-2.0.8,可以看到解压后是只有一个efak-web-2.0.8-bin.tar.gz文件:
    在这里插入图片描述

b.解压efak-web2.0.8-bin.tar.gz到指定目录:

  • 4.将efak-web2.0.8-bin.tar.gz解压到 /opt/module/目录下:tar -zxvf efak-web2.0.8-bin.tar.gz -C /opt/module/
    在这里插入图片描述

c.重命名efak-web-2.0.8目录

  • 1.mv efak-web-2.0.8/ efak
    在这里插入图片描述

4.3.配置:

a.修改efak配置文件:

  • 1.修改配置文件: vim /opt/module/efak/conf/system-config.properties,添加如下配置:
efak.zk.cluster.alias=cluster1
cluster1.zk.list=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka


######################################
# offset 保存在 kafka
cluster1.efak.offset.storage=kafka


######################################
# 配置 mysql 连接
efak.driver=com.mysql.jdbc.Driver
efak.url=jdbc:mysql://hadoop102:3306/ke?useUnicode=true&characterEncoding=UT
F-8&zeroDateTimeBehavior=convertToNull
efak.username=root
efak.password=000000

在这里插入图片描述
在这里插入图片描述

b.添加环境变量

  • 1.添加配置:
vim /etc/profile.d/my_env.sh
# kafkaEFAK
export KE_HOME=/opt/module/efak
export PATH=$PATH:$KE_HOME/bin
  • 2.重新编译:source /etc/profile

4.4.启动:

a.启动kafka集群

  • 1.注意:启动之前需要先启动 ZK 以及 KAFKA。
  • 2.启动kafka集群:kafka.sh start
    在这里插入图片描述
    在这里插入图片描述

b.启动 efak:

  • 1.命令:bin/ke.sh start
    在这里插入图片描述

c.访问:

  • 账号、密码:admin 、 123456
    在这里插入图片描述
    在这里插入图片描述

d.停止 efak

  • 1.命令 bin/ke.sh stop

4.5.说明:

  • 1.我们可以使用Kafka-Eagle来监控kafka,当然也可以自己写一个框架来实现对kafka的监控
  • 2.在生产端和消费端都有拦截器,我们通过拦截器将信息都暴露出去,这样就可以实现对Kafka的监控