flink1.12怎么通过kerberos认证读取kafka数据
这篇文章主要讲解了“flink1.12怎么通过kerberos认证读取kafka数据”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“flink1.12怎么通过kerberos认证读取kafka数据”吧!
创新互联专业为企业提供句容网站建设、句容做网站、句容网站设计、句容网站制作等企业网站建设、网页设计与制作、句容企业网站模板建站服务,十余年句容做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。
说明
一般我们在使用kafka的时候很少经过kerberos认证,通过flink消费kafka数据的时候相对比较容易,一般很容易测通。
但是如果kafka有kerberos的认证,相对比较麻烦,结合官网进行说明。
官方文档
https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/connectors/datastream/kafka/
主要就是说明需要配置flink-conf.yml以及kafka的配置。
自己配置
这里面涉及三个文件user.keytab、jaas.conf和krb5.conf文件。把这个配置文件配置好后在设置kafka的属性就可以了。
kafka的属性如下:
props.put("security.protocol", "SASL_PLAINTEXT");
props.put("sasl.mechanism", "GSSAPI");
props.put("sasl.kerberos.service.name", "kafka");
以上配置好,flink就可以提交任务进行kafka的消费了。
感谢各位的阅读,以上就是“flink1.12怎么通过kerberos认证读取kafka数据”的内容了,经过本文的学习后,相信大家对flink1.12怎么通过kerberos认证读取kafka数据这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!
网站标题:flink1.12怎么通过kerberos认证读取kafka数据
文章链接:http://azwzsj.com/article/ieihjg.html