librdkafka带鉴权认证访问kafka服务器

发布时间:2019-06-12 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了librdkafka带鉴权认证访问kafka服务器脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

librdkafka简介

librdkafka是用c语言实现的一个高性能的kafka客户端,因为性能强大,开发者们基于librdkafka开发了各种语言的kafka客户端,比如librdkafkad(c++),, node-rdkafka(Node.js), confulent-kafka-python(Python)等。
librdkafka的高性能主要体现在其多线程的设计以及尽可能的降低内存拷贝。

librdkakfa API 简介

librdkafka gIThub地址:https://github.com/edenhill/l... ,
其中,C语言API可以参考src/rdkafka.h头文件,简要介绍几个关键的对象

  • rd_kafka_t: kafka客户端对象
  • rd_kafka_conf_t: kafka客户端配置对象
  • rd_kafka_topic_t: kafka topic对象

创建这几个对象所使用的函数:

  • rd_kafka_new()
  • rd_kafka_conf_new()
  • rd_kafka_topic_new()

librdkafka支持多种协议以控制kafka服务器的访问权限,如SASL_PALIN, PLaiNTEXT, SASL_SSL等,在使用librdkafka时需要通过security.PRotocol参数指定协议类型,再辅以相应协议所需的其它参数完成权限认证。

如果使用SASL协议进行权限认证,需要对librdkafka添加SASL库依赖并重新编译。例如:在CentOS下安装如下依赖包:

yum -y install cyrus-sasl cyrus-sasl-devel

经过重新编译librdkafka后,进入examples目录下,执行

./rdkafka_example -X builtin.features

结果为:

 builtin.features = gzip,snappy,ssl,sasl,regex

可以看到librdkafka已经有了sasl特性,后续可以通过sasl协议进行访问认证。

producer 代码示例

初始化producer

int KafkaApi::init_producer(const std::string &brokers,
                            const std::string &username,
                            const std::string &password) {
  char errstr[512];
  /* Kafka configuration */
  if (NULL == conf_) {
    conf_ = rd_kafka_conf_new();
  }

  rd_kafka_conf_set(conf_, "queued.min.messages", "20", NULL, 0);
  rd_kafka_conf_set(conf_, "bootstrap.servers", brokers.c_str(), errstr,
                    sizeof(errstr));
  rd_kafka_conf_set(conf_, "security.protocol", "sasl_plaintext", errstr,
                    sizeof(errstr));
  rd_kafka_conf_set(conf_, "sasl.mechanisms", "PLAIN", errstr, sizeof(errstr));
  rd_kafka_conf_set(conf_, "sasl.username", username.c_str(), errstr,
                    sizeof(errstr));
  rd_kafka_conf_set(conf_, "sasl.password", password.c_str(), errstr,
                    sizeof(errstr));
  rd_kafka_conf_set(conf_, "api.version.request", "true", errstr,
                    sizeof(errstr));
  rd_kafka_conf_set_dr_msg_cb(conf_, dr_msg_cb_trampoline);

  /* Create Kafka handle */
  if (!(rk_ = rd_kafka_new(RD_KAFKA_PRODUCER, conf_, errstr, sizeof(errstr)))) {
    fprintf(stderr, "%% Failed to init producer: %sn", errstr);
    exit(1);
  }

  return 0;
}

初始化过程介绍:

1、首先通过rd_kafka_conf_new()函数创建rd_kafka_conf_t对象

2、设置rd_kafka_conf_t对象,设置kafka客户端参数,示例参数为:

  • bootstrap.servers: broker地址列表
  • security.protocol: 安全协议类型,示例为SASL_PLAINTEXT
  • sasl.mechanisms: sasl协议机制,示例为PLAIN, 表示普通文本
  • sasl.username: 认证用户名
  • sasl.password: 认证密码
  • api.version.request:
    可选,librdkafka与kafka服务器版本适配参数,该参数为true表示允许librdkafka向broker发送请求询问broker支持的API版本列表(apache
    Kafka
    v0.10.0版本后支持),以完成版本适配,更多版本适配要点见https://github.com/edenhill/l...
  • 设置发送消息的回调函数,因为librdkafka发送消息为非阻塞的,需要通过rd_kafka_poll()方法轮询消息是否发送成功,并设置响应的回调函数确认消息是否发送成功

3、调用rd_kafka_new()函数创建rd_kafka_t对象

发送消息

int KafkaApi::send_message(const std::string &topic, const char *data,
                           const int &data_len) {
  rd_kafka_topic_t *rkt = rd_kafka_topic_new(rk_, topic.c_str(), NULL);

  if (!rkt) {
    COMMLIB_LOG_ERR("kafka: create topic failed, err:%s",
                    rd_kafka_err2str(rd_kafka_errno2err(errno)));
    return rt::KDFKA_PRODUCE_ERR;
  }

  int ret = rd_kafka_produce(rkt, RD_KAFKA_PARTITION_UA, RD_KAFKA_MSG_F_COPY,
                             const_cast<char *>(data), data_len, NULL, 0, NULL);
  if (ret == -1) {
    COMMLIB_LOG_ERR("kafka: send message failed, err:%s",
                    rd_kafka_err2str(rd_kafka_errno2err(errno)));
    return rt::KDFKA_PRODUCE_ERR;
  }

  COMMLIB_LOG_DEBUG("produce message [%s]", data);
  rd_kafka_poll(rk_, 0);
  return rt::SUCCESS;
}

发送消息过程介绍:

1、通过rd_kafka_topic_new()方法创建rd_kafka_topic_t对象,注意topic是自动创建的(需要broker端设置能否自动创建topic的参数:auto.create.topics.enable=true), 除此之外,topic能否创建成功还与认证用户的权限有关,如果认证用户在broker端为super.users,则topic能够自动创建成功,否则则会报错: 用户无权限,需要先给用户添加ACL权限才行;最后一点,对于已经存在的topic, rd_kafka_topic_new()方法仍然返回的是旧的对象

2、发送消息通过调用rd_kafka_produce()函数完成,该函数的参数为:

  • rd_kafka_topic_t对象
  • partition: RD_KAFKA_PARTITION_UA表示为不设置
  • msgflags: 可设置为0或RD_KAFKA_MSG_F_COPY, RD_KAFKA_MSG_F_FREE,
    RD_KAFKA_MSG_F_BLOCK,
    RD_KAFKA_MSG_F_COPY表示发送的消息内容参数为值传递,rd_kafka_produce()函数返回之后将不会仍持有消息内容的引用
  • payload, 消息内容指针
  • len, 消息长度
  • key, 消息的key
  • msg_opaque: 每条消息的透明度指针,在消息发送的回调函数中使用

3、调用rd_kafka_poll()函数,使得消息发送的回调函数能够触发, 该函数第一个参数为rd_kafka_t对象,第二个参数为timeout_ms,设置为0表示为非阻塞

注意事项
在使用librdkafka带鉴权认证访问kafka服务器的过程中,解决消息发送失败问题的关键点有:

  • librdkafka的SASL依赖有没有添加
  • SASL认证的参数配置有没有正确,需要确认用户在broker端是否已经添加,以及确认用户拥有的权限
  • api.version.request参数,该参数设置不正确,将直接导致消息发送失败,使用过程中需要注意librdkafka的版本与broker的版本

脚本宝典总结

以上是脚本宝典为你收集整理的librdkafka带鉴权认证访问kafka服务器全部内容,希望文章能够帮你解决librdkafka带鉴权认证访问kafka服务器所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。