kafka开启kerberos认证详细步骤

news/2025/3/11 11:12:36/文章来源:https://www.cnblogs.com/mandian/p/18764634

一、kerberos安装部署

kerberos的基本原理不做过多介绍了,可自行查阅;本文主要介绍kerberos的安装及使用;使用到的软件版本:系统:Red Hat Enterprise Linux release 8.6 (Ootpa) 、krb5-server:1.18.2

#使用到的软件版本
[root@kafka01 data]# cat /etc/redhat-release
Red Hat Enterprise Linux release 8.6 (Ootpa)
#通过yum安装
[root@kafka01 ~]# yum install krb5-server
#查看本版号
[root@kafka01 ~]# rpm -qi krb5-server 
Name        : krb5-server
Version     : 1.18.2
Release     : 30.el8_10
Architecture: x86_64
Install Date: Fri 07 Mar 2025 11:11:35 AM CST
Group       : System Environment/Daemons
Size        : 1481553
License     : MIT
Signature   : RSA/SHA256, Tue 22 Oct 2024 11:00:23 PM CST, Key ID 199e2f91fd431d51

二、准备机器

序号 IP 主机 部署服务
1 192.168.10.100 kafka01 Kerberos Server、Kerberos Client
2 192.168.10.101 kafka02 Kerberos Client
3 192.168.10.102 kafka03 Kerberos Client
绑定host文件
[root@kafka01 ~]# cat /etc/hosts
192.168.10.100    kafka01
192.168.10.101    kafka02
192.168.10.102    kafka03

Kerberos Client 根据需要进行安装,安装后可以使用 kadmin 命令;对应在 Kerberos Server 上使用 kadmin.local 命令。

三、Kerberos Server 安装

[root@kafka01 ~]# yum install krb5-server

1、配置krb5.conf

#编辑配置文件
[root@kafka01 ~]# vim /etc/krb5.conf
# To opt out of the system crypto-policies configuration of krb5, remove the
# symlink at /etc/krb5.conf.d/crypto-policies which will not be recreated.
includedir /etc/krb5.conf.d/[logging]default = FILE:/var/log/krb5libs.logkdc = FILE:/var/log/krb5kdc.logadmin_server = FILE:/var/log/kadmind.log[libdefaults]dns_lookup_realm = falseticket_lifetime = 24hrenew_lifetime = 7dforwardable = truerdns = falsepkinit_anchors = FILE:/etc/pki/tls/certs/ca-bundle.crt
#    spake_preauth_groups = edwards25519default_realm = NSSPKAFKA.COM  #域default_ccache_name = KEYRING:persistent:%{uid}[realms]NSSPKAFKA.COM = {kdc =  kafka01   #hostnameadmin_server = kafka01  #hostname}[domain_realm]#.kafka01 = NSSPKAFKA.COM #kafka01 = NSSPKAFKA.COM
以上配置相关参数
[logging]:日志的位置
[libdefaults]:每种连接的默认配置dns_lookup_realm:是否通过 dns 查找需使用的 releamticket_lifetime:凭证的有效时限,一般为 24 小时renew_lifetime:凭证最长可以被延期的时限,一般为一周。当凭证过期之后,对安全认证的服务后续访问就会失败forwardable:ticket 是否可以被转发(如果用户已经有了一个TGT,当他登入到另一个远程系统,KDC会为他重新创建一个TGT,而不需要让用户重新进行身份认证)rdns:如果为 true,则除根据 hostname 正向查找外,同时反向查找对应的 principal。如果 dns_canonicalize_hostname 设置为 false,则此标志不起作用。默认值为 true。pkinit_anchors:受信任锚(根)证书的位置;如果用户在命令行上指定X509_anchors,则不使用该配置。default_realm:默认的 realm,必须跟要配置的 realm 名称一致default_ccache_name:指定默认凭据缓存的名称。默认值为 DEFCCNAME
[realms]:列举使用的 realmkdc:kdc 运行的机器admin_server:kdc 数据库管理服务运行的机器
[domain_realm]:配置 domain name 或 hostname 对应的 releam详细说明可参考官网文档:http://web.mit.edu/kerberos/krb5-latest/doc/admin/conf_files/krb5_conf.html。

2、配置kdc.conf (/var/kerberos/krb5kdc/kdc.conf)

[root@kafka01 data]# vim /var/kerberos/krb5kdc/kdc.conf 
[kdcdefaults]kdc_ports = 88kdc_tcp_ports = 88spake_preauth_kdc_challenge = edwards25519[realms]
NSSPKAFKA.COM = {#master_key_type = aes256-ctsacl_file = /var/kerberos/krb5kdc/kadm5.acldict_file = /usr/share/dict/wordsadmin_keytab = /var/kerberos/krb5kdc/kadm5.keytabsupported_enctypes = aes256-cts:normal aes128-cts:normal arcfour-hmac:normal camellia256-cts:normal camellia128-cts:normal
}
以上配置相关参数详解
相关参数说明:
[kdcdefaults]:KDC 默认配置
kdc_ports:UDP 端口号
kdc_tcp_ports:TCP 端口号
[realms]:realm 数据库配置
master_key_type:主密钥的密钥类型;默认值为 aes256-cts-hmac-sha1-96。
acl_file:用于指定哪些用户可以访问 kdc 数据库的控制文件;如果不需要现在用户访问,该值可以设为空
dict_file:字典文件位置,该文件中的单词不能被用于密码;如果文件为空,或者没有为用户分配策略,则不会执行密码字典检查。
admin_keytab:KDC 进行校验的 keytab。
supported_enctypes:支持的加密方式,默认为 aes256-cts-hmac-sha1-96:normal aes128-cts-hmac-sha1-96:normal。
详细说明可参考官网文档:https://web.mit.edu/kerberos/krb5-latest/doc/admin/conf_files/kdc_conf.html。
3、创建数据库
[root@kafka01 ~]# kdb5_util create -s -r DATACENTER.COM

四、启动服务

1、启动服务

#开启自启动
[root@kafka01 ~]# systemctl enable krb5kdc.service 
Created symlink /etc/systemd/system/multi-user.target.wants/krb5kdc.service → /usr/lib/systemd/system/krb5kdc.service.
#开启Kerberos服务
[root@kafka01 ~]# systemctl start krb5kdc.service #开启kadmin服务
[root@kafka01 ~]# systemctl enable kadmin.service 
Created symlink /etc/systemd/system/multi-user.target.wants/kadmin.service → /usr/lib/systemd/system/kadmin.service.
[root@kafka01 ~]# systemctl start kadmin.service

2、创建账号

  • Kerberos 服务机器上可以使用 kadmin.local 来执行各种管理的操作。进入 kadmin.local:

    常用操作:

    操作 描述 例子
    add_principal, addprinc, ank 增加 principal add_principal -rnadkey test@ABC.COM
    delete_principal, delprinc 删除 principal delete_principal test@ABC.COM
    modify_principal, modprinc 修改 principal modify_principal test@ABC.COM
    rename_principal, renprinc 重命名 principal rename_principal test@ABC.COM test2@ABC.COM
    get_principal, getprinc 获取 principal get_principal test@ABC.COM
    list_principals, listprincs, get_principals, getprincs 显示所有 principal listprincs
    ktadd, xst 导出条目到 keytab xst -k /root/test.keytab test@ABC.COM
#执行命令
[root@kafka01 ~]# kadmin.local
kadmin.local:  add_principal admin/admin@NSSPKAFKA.COM
kadmin.local:  add_principal kafka-server/kafka01@NSSPKAFKA.COM				
kadmin.local:  add_principal kafka-server/kafka02@NSSPKAFKA.COM				
kadmin.local:  add_principal kafka-server/kafka03@NSSPKAFKA.COM				
kadmin.local:  add_principal kafka-client@NSSPKAFKA.COM		#导出账号密钥
kadmin.local: xst -norandkey -k  /root/data/kafka-server1.keytab kafka-server/kafka01@NSSPKAFKA.COM
kadmin.local: xst -norandkey -k  /root/data/kafka-server2.keytab kafka-server/kafka02@NSSPKAFKA.COM
kadmin.local: xst -norandkey -k  /root/data/kafka-server3.keytab kafka-server/kafka03@NSSPKAFKA.COM
kadmin.local: xst -norandkey -k  /root/data/kafka-client.keytab kafka-client@NSSPKAFKA.COM

五、Kerberos Client 安装

在其他集群机器上安装

[root@kafka01 ~]#yum install krb5-workstation

1、配置krb5.conf

从 192.168.10.100 上拷贝 /etc/krb5.conf 并覆盖本地的 /etc/krb5.conf。

#客户端可以是用kadmin命令
[root@kafka01 ~]# kadmin kinit(在客户端认证用户)
[root@kafka02 ~]# kinit admin/admin@DATACENTER.COM   #输入密码认证完成#查看当前的认证用户
[root@kafka01 ~]# klist#kdestroy(删除当前的认证缓存)
[root@kafka01 ~]# kdestroy

六、kafka集群开启kerberos认证

1、机器准备
序号 IP 主机 部署服务
1 192.168.10.100 kafka01 zookeeper、kafka
2 192.168.10.101 kafka02 zookeeper、kafka
3 192.168.10.102 kafka03 zookeeper、kafka
绑定host文件
[root@kafka01 ~]# cat /etc/hosts
192.168.10.100    kafka01
192.168.10.101    kafka02
192.168.10.102    kafka03
2、创建keytab文件

在安装 Kerberos 的机器上进入 kadmin(Kerberos 服务端上使用 kadmin.local,安装了 Kerberos Client 的机器上可以使用 kadmin),然后执行如下命令分别创建服务端和客户端的 keytab:

#执行命令
[root@kafka01 ~]# kadmin.local
kadmin.local:  add_principal admin/admin@NSSPKAFKA.COM
kadmin.local:  add_principal kafka-server/kafka01@NSSPKAFKA.COM				
kadmin.local:  add_principal kafka-server/kafka02@NSSPKAFKA.COM				
kadmin.local:  add_principal kafka-server/kafka03@NSSPKAFKA.COM				
kadmin.local:  add_principal kafka-client@NSSPKAFKA.COM		#导出账号密钥
kadmin.local: xst -norandkey -k  /root/data/kafka-server1.keytab kafka-server/kafka01@NSSPKAFKA.COM
kadmin.local: xst -norandkey -k  /root/data/kafka-server2.keytab kafka-server/kafka02@NSSPKAFKA.COM
kadmin.local: xst -norandkey -k  /root/data/kafka-server3.keytab kafka-server/kafka03@NSSPKAFKA.COM
kadmin.local: xst -norandkey -k  /root/data/kafka-client.keytab kafka-client@NSSPKAFKA.COM
3、Kerberos相关配置

拷贝 krb5.conf 及 keytab 文件到所有安装 Kafka 的机器,这里把文件都放到 Kafka 的 config/kerveros 目录下(kerberos 目录需新建)。

[root@kafka01 kerberos]# pwd
/opt/kafka_2.12-3.9.0/config/kerberos
[root@kafka01 kerberos]# ll
total 24
-rw-r--r-- 1 root root  95 Mar 10 15:53 client.properties
-rw-r--r-- 1 root root 246 Mar 10 16:11 kafka-client-jaas.conf
-rw------- 1 root root 379 Mar 10 16:03 kafka-client.keytab
-rw-r--r-- 1 root root 256 Mar 10 16:10 kafka-server-jaas.conf
-rw------- 1 root root 424 Mar 10 16:01 kafka-server.keytab
-rw-r--r-- 1 root root 786 Mar 10 16:10 krb5.conf
4、Kafka服务端配置(server.properties)
#执行命令
[root@kafka01 config]# vim server.properties
#配置文件开启认证
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=GSSAPI
sasl.enabled.mechanisms=GSSAPI
sasl.kerberos.service.name=kafka-server
5、新建 kafka-server-jaas.conf 文件,该文件也放到 Kafka 的 config/kerveros 目录下
[root@kafka01 kerberos]# cat kafka-server-jaas.conf 
KafkaServer {com.sun.security.auth.module.Krb5LoginModule requireduseKeyTab=truekeyTab="/opt/kafka_2.12-3.9.0/config/kerberos/kafka-server.keytab" #这是导出的账号keytab文件 不同的账号不同的文件storeKey=trueuseTicketCache=falseprincipal="kafka-server/kafka01@DATACENTER.COM";      #不同的机器 不同的账号,
};
6、修改 bin/kafka-server-start.sh 脚本,倒数第二行增加如下配置:
#进入启动脚本
[root@kafka01 bin]# vim kafka-server-start.sh #-Dzookeeper.sasl.client=false zk没有开启认证就设置false
export KAFKA_OPTS="-Dzookeeper.sasl.client=false -Dzookeeper.sasl.client.username=zk-server -Djava.security.krb5.conf=/opt/kafka_2.12-3.9.0/config/kerberos/krb5.conf -Djava.security.auth.login.config=/opt/kafka_2.12-3.9.0/config/kerberos/kafka-server-jaas.conf"

客户端配置

7、新建 kafka-client-jaas.conf 文件,该文件也放到 Kafka 的 config/kerveros 目录下。
[root@kafka01 kerberos]# vim kafka-client-jaas.conf
KafkaClient {com.sun.security.auth.module.Krb5LoginModule requireduseKeyTab=truekeyTab="/opt/kafka_2.12-3.9.0/config/kerberos/kafka-client.keytab" #客户端密钥storeKey=trueuseTicketCache=trueprincipal="kafka-client@DATACENTER.COM"; #客户端账号 这里的';' 不能省略
};

该配置主要为了使用 bin/kafka-topics.sh、bin/kafka-console-consumer.sh、kafka-console-producer.sh 等命令

#三个文件倒数第二行 新增以下内容
export KAFKA_OPTS="-Djava.security.krb5.conf=/opt/kafka_2.12-3.9.0/config/kerberos/krb5.conf -Djava.security.auth.login.config=/opt/kafka_2.12-3.9.0/config/kerberos/kafka-client-jaas.conf"

七、启动测试

#查看topic
[root@kafka01 ~]# sh /opt/kafka_2.12-3.9.0/bin/kafka-topics.sh --list --bootstrap-server kafka:9092 --command-config /opt/kafka_2.12-3.9.0/config/kerberos/client.properties#创建topic & 测试链接
[root@kafka01 ~]# sh /opt/kafka_2.12-3.9.0/bin/kafka-topics.sh --create --topic test --partitions 1 --replication-factor 1 --bootstrap-server localhost:9092 --command-config /opt/kafka_2.12-3.9.0/config/kerberos/client.properties
#生产者
[root@kafka01 ~]# sh /opt/kafka_2.12-3.9.0/bin/kafka-console-producer.sh --topic test --bootstrap-server nsspmsg.com:9092 --producer.config /opt/kafka_2.12-3.9.0/config/kerberos/client.properties#消费者
[root@kafka01 ~]# sh /opt/kafka_2.12-3.9.0/bin/kafka-console-consumer.sh --topic test --from-beginning --bootstrap-server nsspmsg.com:9092 --consumer.config /opt/kafka_2.12-3.9.0/config/kerberos/client.properties

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/897158.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

国货国用信创在教育领域的应用

信创,即信息技术应用创新产业,旨在实现信息技术领域的自主可控,减少对国外技术的依赖,保障国家信息安全。在教育领域,国货国用信创的应用正逐渐改变着传统的教育模式,为教育的现代化发展注入新的活力。随着科技的飞速发展,教育领域也面临着数字化转型的迫切需求。信创产…

信创概念十大龙头股的风险与机遇深度剖析

信创,即信息技术应用创新产业,旨在实现信息技术领域的自主可控,减少对国外技术的依赖,保障国家信息安全。近年来,随着国家政策的大力支持和科技发展的需求,信创概念逐渐兴起,相关企业迎来了前所未有的发展机遇。在信创概念板块中,有十大龙头股备受关注,它们在行业中具…

易基因:中农大曾祥芳团队WGBS+ChIP-seq揭示蛋氨酸在母胎免疫耐受和子宫内膜容受中的表观调控机制|Cell Rep

大家好,这里是专注表观组学十余年,领跑多组学科研服务的易基因。 母胎免疫耐受是指母体免疫系统对胎儿抗原的耐受,避免对胎儿产生免疫排斥反应。子宫内膜容受性是指子宫内膜接受胚胎着床的能力。子宫内膜容受性和母胎免疫耐受是成功妊娠的两个关键过程。然而,营养所涉及的分…

【文章】更新说明

重要 以后文章优先发布于公众号:瓜穷网络安全团队,请大家关注公众号。本文来自博客园,作者:aoaoaoao,转载请注明原文链接:https://www.cnblogs.com/websecyw/p/18764593

牛客题解 | 迷宫寻路

牛客题库题解题目 题目链接 题解 难度:偏难 知识点:BFS 状态压缩 队列 思路: 如果不存在钥匙和锁的情况:(理解BFS过程) (将例子中的小写字母看为1,大写字母看为0)构成数组G[5][5]起始位置G[0][1],因此得到b[0][1]=0【注】辅助数组b[i][j]用来记录从起始位置到坐标(i…

信创国产替代必看:5款好用的项目管理软件对比

随着信息技术的快速发展,国产替代成为了当前的一个重要趋势。在项目管理系统领域,国产软件也在不断崛起,与国外知名的项目管理工具如 Jira、Asana 等展开竞争。本文将对 5 款优秀的项目管理系统的功能进行对比,帮助您更好地了解它们的特点和优势。 国产项目管理系统的发展与…

Typora安装激活(保姆级教程)

提示:该教程以Typora-1.8.10版本进行安装激活,高版本可能会出现激活失败的情况,所以安装版本尽量是1.8.10及以下版本。目录一、官网地址二、激活工具三、安装Typora四、激活Typora 一、官网地址 官网地址:https://typora.io/ 中文官网:https://typoraio.cn/ 官网下载地址:…

milvus升级(2.4.6-2.4.21)

环境:Os:Centos 7原版本:v2.4.6目标版本:v2.4.21 说明: a.提前做好备份b.升级后需要把新版本的配置文件外挂出来,不能使用原有版本的,因为每个版本的配置文件参数都有可能不一样.1.镜像准备[root@localhost milvus]# docker pull registry.cn-shenzhen.aliyuncs.com/hxlk8s/mi…

牛客题解 | 缺失的括号

牛客题库题解题目 题目链接 题解 难度:中等难度 知识点:数学逻辑 思路: 依次判断: 1.若是s[i]为“(”是,是得left++。 当s[i]为“)”时:如果left>0,说明该“)”可以和之前的“(”抵消,因此left--。若此时left=0,说明给“)”无法抵消因此right++。 2.最终left保留…

No.51 ES6---Set数据结构

一、Set数据结构 1.1 基本用法ES6 提供了新的数据结构 Set。它类似于数组,但是成员的值都是唯一的,没有重复的值。 set 本身是一个构造函数,用来生成 Set 数据结构。<script>var s = new Set();var arr = [103,91,47,43,32,54,78];arr.forEach(x => s.add(x));cons…

可视化图解算法:反转链表

对于链表的相关操作,我们总结了一套【可视化+图解】方法,依据此方法来解决链表相关问题,链表操作变得易于理解,写出来的代码可读性高也不容易出错。1. 题目 描述 给定一个单链表的头结点pHead(该头节点是有值的,比如在下图,它的val是1),长度为n,反转该链表后,返回新链…

milvus异地恢复(mc cp方式拷贝)

环境:Os:Centos 7miluv:2.4.6 我这里源端库每天做了自动备份:##milvus备份0 2 * * * /script/milvus_backup.sh>/dev/null 2>&1 ##mc下载minio备份0 6 * * * /script/milvus_mc_download_backup.sh>/dev/null 2>&11.设置远程minio server服务器的别名[root…