Springboot整合kafka基本使用
一. 项目搭建
同样的,我们需要创建一个基于Maven的项目,并且整合非常简单。我们只需要使用以下的.
<!--kafka依赖-->
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
模块中的完整的pom.xml文件
:
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>org.example</groupId>
<artifactId>springboot-kafka-all</artifactId>
<version>1.0-SNAPSHOT</version>
<properties>
<java.version>1.8</java.version>
</properties>
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.1.3.RELEASE</version>
</parent>
<dependencies>
<!--web-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<!--test-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
</dependency>
<!-- kafka的依赖-->
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<!--Hutool依赖-->
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.8.4</version>
</dependency>
<!--fast-json格式-->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.58</version>
</dependency>
<dependency>
<groupId> org.slf4j </groupId>
<artifactId> slf4j-api </artifactId>
<version> 1.6.4 </version>
</dependency>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-simple</artifactId>
<version>1.7.25</version>
<scope>compile</scope>
</dependency>
<!-- set get-->
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<version>2.1.3.RELEASE</version>
</plugin>
</plugins>
</build>
</project>
配置文件中的也很简单 application.yml。指定项目启动的端口号以及kafka的端口路径
server:
port: 8081
spring:
kafka:
producer:
bootstrap-servers: 127.0.0.1:9092
然后新建一个启动类,在启动之前别忘了开启Kafka集群,
看下控制台是否成功链接了Kafka
,
二. 基本使用如下
先从一个简单的例子,来快速体验一下Kafka
,新建HelloController.java接收信息和发送信息
@Slf4j
@RestController
public class HelloController {
private static final String topic = "test";
@Autowired
private KafkaTemplate<Object, Object> kafkaTemplate;
// 接收消息
@KafkaListener(id = "helloGroup", topics = topic)
public void listen(String msg) {
log.info("hello receive value: {}" , msg);
// hello receive value: hello kafka
}
@GetMapping("/hello")
public String hello() {
// 发送消息
kafkaTemplate.send(topic, "hello kafka");
return "hello";
}
}
我们通过KafkaTemplate
进行消息的发送, 通过@KafkaListener
进行消息的消费,我们可以指定消费者ID
以及监听的topic
,请求localhost:8081/hello
观察控制台的变化。请求后,发现消息发送和接收的非常快,我们也可以观察UI
后台的消息详情,同步对比
topic创建
之前我们的topic
是在UI
后台创建的,那么在SpringBoot
中如何创建呢? 下面我们试着发送一个不存在的topic
// 当topic不存在时 会默认创建一个topic
// num.partitions = 1 #默认Topic分区数
// num.replica.fetchers = 1 #默认副本数
@GetMapping("/hello1")
public String hello1() {
// 发送消息
kafkaTemplate.send("hello1", "hello1");
return "hello1";
}
// 接收消息
@KafkaListener(id = "hello1Group", topics = "hello1")
public void listen1(String msg) {
log.info("hello1 receive value: {}" , msg);
// hello1 receive value: hello1
}
在请求之后,当我们观察控制台和管理后台时,我们发现没有出现任何错误,并且系统还自动为我们创建了一个话题。在自动创建话题过程中,默认使用了一组参数。
num.partitions = 1 #默认Topic分区数
num.replica.fetchers = 1 #默认副本数
如果我想手动创建的话,我们可以通过NewTopic
来手动创建如下:
@Configuration
public class KafkaConfig {
@Bean
public KafkaAdmin admin(KafkaProperties properties){
KafkaAdmin admin = new KafkaAdmin(properties.buildAdminProperties());
// 默认False,在Broker不可用时,如果你觉得Broker不可用影响正常业务需要显示的将这个值设置为True
admin.setFatalIfBrokerNotAvailable(true);
// setAutoCreate(false) : 默认值为True,也就是Kafka实例化后会自动创建已经实例化的NewTopic对象
// initialize():当setAutoCreate为false时,需要我们程序显示的调用admin的initialize()方法来初始化NewTopic对象
return admin;
}
/**
* 创建指定参数的 topic
* @return
*/
@Bean
public NewTopic topic() {
return new NewTopic("hello2", 0, (short) 0);
}
}
创建之后我们需要更新他的话直接可以按照下面的方式
/**
* 更新 topic
* @return
*/
@Bean
public NewTopic topicUpdate() {
return new NewTopic("hello2", 1, (short) 1);
}
注意这里的参数只能+
不能-
这种方式太简单了,如果我想在代码逻辑中来创建呢?我们可以通过AdminClient
来手动创建
/**
* AdminClient 创建
*/
@Autowired
private KafkaProperties properties;
/**
* 创建主题
* @param topicName 主题名称
* @return 创建的主题名称
*/
@GetMapping("/create/{topicName}")
public String createTopic(@PathVariable String topicName) {
AdminClient client = AdminClient.create(properties.buildAdminProperties());
// 判断AdminClient是否创建成功
if (client != null) {
try {
Collection<NewTopic> newTopics = new ArrayList<>(1);
newTopics.add(new NewTopic(topicName, 1, (short) 1));
client.createTopics(newTopics);
} catch (Throwable e) {
e.printStackTrace();
} finally {
client.close();
}
}
return topicName;
}
观察下管理后台,发现topic
都创建成功了
三. 获取消息发送的结果
有时候我们发送消息不知道是不是发成功了,需要有一个结果通知。有两种方式,一种是同步
一种是异步
1. 同步获取结果
/**
* 获取通知结果
* @return
*/
@GetMapping("/hello2")
public String hello2() {
// 同步获取结果
ListenableFuture<SendResult<Object,Object>> future = kafkaTemplate.send("hello2","hello2");
try {
SendResult<Object,Object> result = future.get();
log.info("success >>> {}", result.getRecordMetadata().topic()); // success >>> hello2
}catch (Throwable e){
e.printStackTrace();
}
return "hello2";
}
2. 异步获取
/**
* 获取通知结果
* @return
*/
@GetMapping("/hello2")
public String hello2() {
// 发送消息 - 异步获取通知结果
kafkaTemplate.send("hello2", "async hello2").addCallback(new ListenableFutureCallback<SendResult<Object, Object>>() {
/**
* 当异步消息发送失败时,会执行该方法
* @param throwable 异常信息
*/
@Override
public void onFailure(Throwable throwable) {
log.error("fail >>>>{}", throwable.getMessage());
}
/**
* 当异步消息发送成功时,会执行该方法
* @param objectObjectSendResult 发送结果
*/
@Override
public void onSuccess(SendResult<Object, Object> objectObjectSendResult) {
log.info("async success >>> {}", objectObjectSendResult.getRecordMetadata().topic()); // async success >>> hello2
}
});
return "hello2";
}
四. Kafka事务
同样的,消息也会存在事务
,如果第一条消息发送成功,再发第二条消息的时候出现异常,那么就会抛出异常并回滚第一条消息,下面通过一个简单的例子体会一下
/**
* 这是一个使用 Spring Cloud 的 @KafkaListener 注解接收消息的示例,
* 定义了一个名为 hello3 的方法,该方法在执行过程中,会发送两条消息到指定的主题中,
* 然后接收该主题的消息,并打印出来。
*/
@GetMapping("/hello3")
public String hello3() {
kafkaTemplate.executeInTransaction(t -> {
t.send("hello3", "msg1");
if (true) {
throw new RuntimeException("failed");
}
t.send("hello3", "msg2");
return true;
});
return "hello3";
}
/**
* 这是一个使用 Spring Cloud 的 @KafkaListener 注解接收消息的示例,
* 定义了一个名为 listen3 的方法,该方法在执行过程中,会接收指定主题的消息,
* 并打印出来。
*/
@KafkaListener(id = "hello3Group", topics = "hello3")
public void listen3(String msg) {
log.info("hello3 receive value: {}", msg);
}
默认情况下,Spring-kafka
自动生成的KafkaTemplate
实例,是不具有事务消息发送能力的。我们需要添加transaction-id-prefix
来激活它
spring:
kafka:
producer:
bootstrap-servers: 127.0.0.1:9092
transaction-id-prefix: kafka_.
启动之后,观察控制台的变化 ,除此之外,还可以使用注解的方式@Transactional
来开启事务
/**
* 这是一个使用 Spring Cloud 的 @Transactional 注解进行事务控制的示例,
* 定义了一个名为 hello4 的方法,该方法在执行过程中,会发送两条消息到指定的主题中,
* 然后如果抛出了一个 RuntimeException,则会进行事务回滚,否则继续执行。
*/
@Transactional(rollbackFor = RuntimeException.class)
@GetMapping("/hello4")
public String hello4() {
kafkaTemplate.send("hello3", "msg1");
if (true) {
throw new RuntimeException("failed");
}
kafkaTemplate.send("hello3", "msg2");
return "hello4";
}
以上就是简单的使用kafka的集成,可以学习到对他的基本认识。
面试题:
1. Kafka是什么?它的主要特性是什么?
Kafka是一个分布式流处理平台,可以处理和存储大规模的流式数据。它具有以下主要特性:
- 可靠性:Kafka以分布式和冗余的方式存储数据,可以提供高可靠性的数据传输和存储。
- 可扩展性:Kafka可以水平扩展,适应各种数据规模和负载。
- 高性能:Kafka通过批量处理和零拷贝技术来实现高性能的数据传输。
- 消息顺序保证:Kafka会保证相同分区内的消息按照发送顺序进行处理。
- 多样的使用场景:Kafka可以用于日志收集、流式处理、消息队列、事件源等多个应用场景。
2. Kafka的消息传输机制是怎样的?
Kafka采用发布-订阅模式的消息传输机制。生产者将消息发送到一个或多个主题(topic)中,消费者通过订阅这些主题来接收消息。主题被分成多个分区(partition),每个分区中的消息有一个唯一的偏移量(offset),用于标识消息在分区中的位置。消费者可以以线性的方式读取和处理消息,每个消费者只能消费特定分区中的消息。
3. Kafka的数据持久化机制是怎样的?
Kafka使用日志(log)的方式来持久化数据。每个分区都有一个对应的日志文件,通过追加的方式将消息写入到日志文件中。消息在写入时会被持久化到磁盘,在内存中存在一定时间后,可以被清理。消费者读取消息时,可以根据偏移量来定位消息的位置。
4. Kafka如何保证数据的可靠性?
Kafka通过复制机制来保证数据的可靠性。每个分区可以有多个副本(replica),每个副本都保存了完整的分区数据。当一个副本宕机时,其他副本可以接替其工作,保证数据的连续性。同时,Kafka还可以配置多个副本之间的同步机制,以保证数据在不同副本之间的一致性。
5. Kafka的数据消费是如何实现的?
消费者通过订阅主题来接收消息。Kafka使用拉取模式(pull)来实现消费者的消息读取。消费者通过请求服务器获取分区中的消息,然后将这些消息进行处理。消费者可以手动控制消息的偏移量,以实现精确的消息读取和处理。
6. Kafka的容错机制是怎样的?
Kafka使用分布式的复制机制来实现容错。每个主题的分区可以有多个副本,当一个副本发生故障时,其他副本可以继续提供服务。Kafka还使用持久化的方式来存储消息,即使服务器发生故障,数据也不会丢失。此外,Kafka还具有监控和警报机制,可以及时发现和处理故障情况。
7. Kafka的并发控制是如何实现的?
Kafka使用分区来实现消息的并发处理。每个主题被分成多个分区,每个分区只能由一个消费者进行处理。这样可以保证相同分区内的消息按照发送顺序进行处理,同时能够实现消息的并发处理。
8. Kafka的优缺点是什么?
Kafka的优点包括高吞吐量、高可靠性、高扩展性、低延迟、灵活的数据模型和丰富的生态系统。它可以用于处理和存储大规模的流式数据,并支持多种使用场景。
Kafka的缺点包括相对复杂的部署和配置、对于小规模数据的应用可能过于庞大、消息一旦被消费则无法再次获取等。
9. Kafka的主要应用场景有哪些?
Kafka可以应用于日志收集、流式处理、消息队列、事件源等多个场景。在日志收集中,Kafka可以将日志数据进行实时处理和存储。在流式处理中,Kafka可以作为数据源和数据目的地,实现实时的数据处理和分析。在消息队列中,Kafka可以用于异步的消息传递和处理。在事件源中,Kafka可以作为事件的发布和订阅平台,实现实时的事件处理和分发。
10. Kafka与其他消息队列系统的比较有哪些?
Kafka与其他消息队列系统相比,主要有以下特点:
- 高吞吐量:Kafka通过批量处理和零拷贝技术实现了高吞吐量的数据传输和存储。
- 高可靠性:Kafka采用分布式复制机制和持久化存储,可以保证数据的高可靠性。
- 分布式和可扩展:Kafka可以水平扩展,适应各种数据规模和负载。
- 支持多种使用场景:Kafka可以应用于日志收集、流式处理、消息队列、事件源等多个场景。
- 较复杂的部署和配置:相对于其他消息队列系统,Kafka的部署和配置可能会较为复杂。
还没有评论,来说两句吧...