发表评论取消回复
相关阅读
相关 Apache hudi 核心功能点分析
Hudi > 文中部分代码对应 0.14.0 版本 发展背景 初始的需求是Uber公司会有很多记录级别的更新场景,Hudi 在Uber 内部主要的一个场景,就是乘
相关 Apache Hudi 流转批 场景实践
背景 在某些业务场景下,我们需要一个标志来衡量hudi数据写入的进度,比如:Flink 实时向 Hudi 表写入数据,然后使用这个 Hudi 表来支持批量计算并通过一个
相关 【hudi】数据湖客户端运维工具Hudi-Cli实战
数据湖客户端运维工具Hudi-Cli实战 help hudi:student_mysql_cdc_hudi_fl->help AVAILABLE C
相关 【大数据入门核心技术-Hudi】(一)Hudi介绍
一、概述 Apache Hudi(Hadoop Upserts Delete and Incremental)是下一代流数据湖平台。Apache Hudi将核心仓库和数据
相关 Java 收集Stream流、流转数组、流转集合
收集stream流 把stream流的数据转回成集合。 stream的作用是把集合转换成一根传送带,借用stream流的强大功能进行的操作。 但是实际开发中数据最终
相关 Apache Hudi 是Uber 大数据存储系统
Apache 软件基金会( Apache Software Foundation,ASF)于[官网发文][Link 1], [Apache Hudi][] 晋升为 Apac
相关 activity默认流转
![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhp
相关 Apache Flink流批一体
Spark和Flink都具有流和批处理能力,但是他们的做法是相反的。 Spark Streaming是把流转化成一个个小的批来处理,这种方案的一个问题是我们需要的延迟越低,额
相关 Apache Hudi 在 B 站构建实时数据湖的实践
简介: B 站选择 Flink + Hudi 的数据湖技术方案,以及针对其做出的优化。 > 本文作者喻兆靖,介绍了为什么 B 站选择 Flink + Hudi 的数据湖技术方
相关 Hudi入门 快速教程
在深入研究Hudi机制之前,让我们首先了解Hudi正在解决的问题。 客户在使用数据湖时通常会问一个问题:当源记录被更新时,如何更新数据湖?这是一个很难解决的问题,因为一旦你写
还没有评论,来说两句吧...