发表评论取消回复
相关阅读
相关 FlinkSql读取Kakfa数据写入Hive(进阶)
![1007094-20201223184540613-1153099181.png][] ![adb8902e01706a769d3e063711850e55.png][]
相关 FlinkSql读取Kakfa数据写入Hive(初尝)
![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV
相关 FlinkSQL读取Kafka数据写入Mysql
![1007094-20201209162713850-822342885.png][] ![b8aeb3266edc1616699cea035b818c31.png][]
相关 flink读取Hive数据写入Kafka(Hive Connector 和 kafka connector)
flink读取Hive数据写入Kafka 由于需要将kafka的数据读取出来并和hive中的数据进行join操作,突然发现flink1.12.0后实现了批流统一,所以学习
相关 flinksql把的userid写到指定的kafka分区
1、生产上flinksql经常用到根据指定的userid划分到同一个task任务里进行调度,这时候可以使用group by user\_id,解决相同userid分到同一个ta
相关 FlinkSql-cdc 实时ETL kafka 数据
文章目录 资源参考 1, 配置 debezium-mysql kafka 连接器 a, mysql开启binlog, 创建mysql 表和cdc用
相关 spark+kafka+hive
使用spark streaming消费kafka消息,并通过hql同步到hive中 用到的pom: <!-- https://mvnrepository.com/a
相关 FlinkSQL 数据去重,读写HBase,Kafka
> 需求:日活明细分析,需要保存日活明细数据。通过对数据去重得到日活,因为乱序数据,客户端时间可能会存在变化。 [HBase SQL Connector][]
相关 FlinkSQL Kafka to Hive
基于CDH平台,Hive2.1.1-CDH6.2.0 ,写入Hive简单操作。 [Hive Streaming][] import java.time.Dur
相关 FlinkSQL Kafka to Kafka
[Apache Kafka SQL Connector][] FlinkSql 读 Kafka import org.apache.flink.streami
还没有评论,来说两句吧...