全国服务热线:400-6263-721

位置:长沙达内IT教育培训学校 > 学校动态 > Kafka的java API编写

Kafka的java API编写

来源:长沙达内IT教育培训学校时间:2023/2/8 16:28:50

  Kafka的java API编写,通过具体的内容向大家展现,希望对大家大数据Kafka的学习有所帮助。

  Kafka的java API编写

  一、生产者代码

  步: 需求

  接下来,编写Java程序,将1-100的数字消息写入到Kafka中

  第二步: 准备工作

  1) 创建maven项目 导入相关的依赖

  

   central //maven.aliyun.com/nexus/content/groups/public//

   true

   true always fail

   org.apache.kafka kafka-clients 2.4.1

   org.apache.commons commons-io 1.3.2

   org.slf4j slf4j-log4j12 1.7.6

   log4j log4j 1.2.16

  org.apache.maven.plugins

  maven-compiler-plugin

  3.7.  

  1.8

  1.8

  2) 导入log4j.properties

  将 log4j.properties 配置文件放入到 resources 文件夹中

  log4j.rootLogger=INFO,stdout

  log4j.appender.stdout=org.apache.log4j.ConsoleAppender

  log4j.appender.stdout.layout=org.apache.log4j.PatternLayout

  log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n

  3) 创建包和类

  创建包cn.it.kafka,并创建KafkaProducerTest类

  第三步: 代码开发

  生产者代码1: 默认异步发生数据方式, 不含回调函数

  package com.it.producer;

  import org.apache.kafka.clients.producer.KafkaProducer;

  import org.apache.kafka.clients.producer.Producer;

  import org.apache.kafka.clients.producer.ProducerRecord;

  import java.util.Properties;

  // kafka的生产者的代码:

  public class KafkaProducerTest {

  public static void main(String[] args) {

  //1.1: 构建生产者的配置信息:

  Properties props = new Properties();

  props.put("bootstrap.servers", "node1:9092,node2:9092,node3:9092");

  props.put("acks", "all"); // 消息确认机制: all表示 必须等待kafka端所有的副本全部接受到数据 确保数据不丢失

  // 说明: 在数据发送的时候, 可以发送键值对的, 此处是用来定义k v的序列化的类型

  props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  //1. 创建 kafka的生产者对象: KafkaProducer

  Producer producer = new KafkaProducer(props);

  //2. 执行数据的发送

  for (int i = 0; i < 100; i++) {

  // producerRecord对象: 生产者的数据承载对象

  ProducerRecord producerRecord =

  new ProducerRecord("product-topic", Integer.toString(i));

  producer.send(producerRecord);

  }

  //3. 释放资源

  producer.close();

  }

  }

  生产者的代码2: 同步发送操作

  package com.it.producer;

  import org.apache.kafka.clients.producer.KafkaProducer;

  import org.apache.kafka.clients.producer.Producer;

  import org.apache.kafka.clients.producer.ProducerRecord;

  import java.util.Properties;

  import java.util.concurrent.ExecutionException;

  // kafka的生产者的代码:

  public class KafkaProducerTest2 {

  @SuppressWarnings("all")

  public static void main(String[] args) {

  //1.1: 构建生产者的配置信息:

  Properties props = new Properties();

  props.put("bootstrap.servers", "node1:9092,node2:9092,node3:9092");

  props.put("acks", "all"); // 消息确认机制: all表示 必须等待kafka端所有的副本全部接受到数据 确保数据不丢失

  // 说明: 在数据发送的时候, 可以发送键值对的, 此处是用来定义k v的序列化的类型

  props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  //1. 创建 kafka的生产者对象: KafkaProducer

  Producer producer = new KafkaProducer(props);

  //2. 执行数据的发送

  for (int i = 0; i < 100; i++) {

  // producerRecord对象: 生产者的数据承载对象

  ProducerRecord producerRecord =

  new ProducerRecord("product-topic", Integer.toString(i));

  try {

  producer.send(producerRecord).get(); // get方法, 表示是同步发送数据的方式

  } catch (Exception e) {

  // 如果发生操作, 出现了异常, 认为, 数据发生失败了 ....

  e.printStackTrace();

  }

  }

  //3. 释放资源

  producer.close();

  }

  }

  生产者代码3: 异步发生数据, 带有回调函数操作

  package com.it.producer;

  import org.apache.kafka.clients.producer.*;

  import java.util.Properties;

  // kafka的生产者的代码:

  public class KafkaProducerTest {

  public static void main(String[] args) {

  //1.1: 构建生产者的配置信息:

  Properties props = new Properties();

  props.put("bootstrap.servers", "node1:9092,node2:9092,node3:9092");

  props.put("acks", "all"); // 消息确认机制: all表示 必须等待kafka端所有的副本全部接受到数据 确保数据不丢失

  // 说明: 在数据发送的时候, 可以发送键值对的, 此处是用来定义k v的序列化的类型

  props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

  //1. 创建 kafka的生产者对象: KafkaProducer

  Producer producer = new KafkaProducer(props);

  //2. 执行数据的发送

  for (int i = 0; i < 100; i++) {

  // producerRecord对象: 生产者的数据承载对象

  ProducerRecord producerRecord =

  new ProducerRecord("product-topic", Integer.toString(i));

  producer.send(producerRecord, new Callback() {

  public void onCompletion(RecordMetadata metadata, Exception exception) {

  // 在参数2中, 表示发生的状态异常, 如果 异常为null 表示数据以及发送成功, 如果不为null, 表示数据没有发送成功

  if(exception != null){

  // 执行数据发生失败的后措施...

  }

  }

  }); // 异步发送方式

  }

  //3. 释放资源

  producer.close();

  }

  }

  二、消费者代码

  消费者代码1: 自动提交偏移量数据

  package com.it.consumer;

  import org.apache.kafka.clients.consumer.ConsumerRecord;

  import org.apache.kafka.clients.consumer.ConsumerRecords;

  import org.apache.kafka.clients.consumer.KafkaConsumer;

  import java.time.Duration;

  import java.util.Arrays;

  import java.util.Properties;

  // kafka的消费者的代码

  public class KafkaConsumerTest {

  public static void main(String[] args) {

  //1.1: 指定消费者的配置信息

  Properties props = new Properties();

  props.setProperty("bootstrap.servers", "node1:9092,node2:9092,node3:9092");

  props.setProperty("group.id", "test"); // 消费者组的名称

  props.setProperty("enable.auto.commit", "true"); // 消费者自定提交消费偏移量信息给kafka

  props.setProperty("auto.commit.interval.ms", "1000"); // 每次自动提交偏移量时间间隔 1s一次

  props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  //1. 创建kafka的消费者核心类对象: KafkaConsumer

  KafkaConsumer consumer = new KafkaConsumer(props);

  //2. 让当前这个消费, 去监听那个topic?

  consumer.subscribe(Arrays.asList("product-topic")); // 一个消费者 可以同时监听多个topic的操作

  while (true) { // 一致监听

  //3. 从topic中 获取数据操作: 参数表示意思, 如果队列中没有数据, 较长等待多长时间

  // 如果超时后, topic中依然没有数据, 此时返回空的 records(空对象)

  ConsumerRecords records = consumer.poll(Duration.ofMillis(100));

  //4. 遍历ConsumerRecords, 从中获取消息数据

  for (ConsumerRecord record : records) {

  String value = record.value();

  System.out.println("接收到消息为:"+value);

  }

  }

  }

  }

  消费者代码2: 手动提交偏移量数据

  package com.it.consumer;

  import org.apache.kafka.clients.consumer.ConsumerRecord;

  import org.apache.kafka.clients.consumer.ConsumerRecords;

  import org.apache.kafka.clients.consumer.KafkaConsumer;

  import java.time.Duration;

  import java.util.Arrays;

  import java.util.Properties;

  // kafka的消费者的代码

  public class KafkaConsumerTest2 {

  public static void main(String[] args) {

  //1.1 定义消费者的配置信息

  Properties props = new Properties();

  props.setProperty("bootstrap.servers", "node1:9092,node2:9092,node3:9092");

  props.setProperty("group.id", "test01"); // 消费者组的名称

  props.setProperty("enable.auto.commit", "false"); // 消费者自定提交消费偏移量信息给kafka

  //props.setProperty("auto.commit.interval.ms", "1000"); // 每次自动提交偏移量时间间隔 1s一次

  props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  //1. 创建消费者的核心类对象

  KafkaConsumer consumer = new KafkaConsumer(props);

  //2. 指定要监听的topic

  consumer.subscribe(Arrays.asList("product-topic"));

  //3. 获取数据

  while(true) {

  ConsumerRecords consumerRecords = consumer.poll(Duration.ofMillis(1000));

  for (ConsumerRecord consumerRecord : consumerRecords) {

  String value = consumerRecord.value();

  // 执行消费数据操作

  System.out.println("数据为:"+ value);

  // 当执行完成后, 认为消息已经消费完成

  consumer.commitAsync(); // 手动提交偏移量信息

  }

  }

  }

  }

领取试听课
每天限量名额,先到先得

尊重原创文章,转载请注明出处与链接:http://www.peixun360.com/1684/news/592831/违者必究! 以上就是长沙达内IT教育培训学校 小编为您整理 Kafka的java API编写的全部内容。

温馨提示:提交留言后老师会第一时间与您联系!热线电话:400-6263-721