flink实战--flinkSQL数据写入hudi

关注微信公众号【BigData512】,了解更多大数据技术,还有免费资料等你哦 

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2FBNTE4MTg5,size_16,color_FFFFFF,t_70

简介

          Apache Hudi 是目前最流行的数据湖解决方案之一,Data Lake Analytics 集成了 Hudi 服务高效的数据 MERGE(UPDATE/DELETE)场景,Apache Flink 作为目前最流行的流计算框架,在流式计算场景有天然的优势,当前,Flink 社区也在积极拥抱 Hudi 社区,发挥自身 streaming 写/读的优势,同时也对 batch 的读写做了支持。

环境准备

         Hudi 有一个为 Flink 准备的 bundle jar,它应该在启动时加载到 Flink SQL Client 中。我们可以在路径下手动构建 jar hudi-source-dir/pac


版权声明:本文为aA518189原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。