云栖大会 | Apache Spark 3.0 和 Koalas 最新进展

本资料来自2019-09-26在杭州举办的云栖大会的大数据 & AI 峰会分会。议题名称《 New Developments in the Open Source Ecosystem: Apache Spark 3.0 and Koalas 》,分享嘉宾 李潇, Databricks Spark 研发总监。
下面是本次会议的视频(由于微信公众号的限制,只能发布小于30分钟的视频, 完整视频和 PPT 请关注 过往记忆大数据 公众号并回复 spark_yq 获取。

2019年对 Spark 社区来说是一个比较特殊的年份。 10年前,马铁为了帮助自己的同学得到 Netflix 发起的 Netflix Prize 竞赛百万美金,诞生了一个伟大的项目,这就是现在的 Apache Spark。

640?wx_fmt=png

上面就是 Apache Spark 的发展历史。2019年09月将会发布 Apache Spark 3.0 预览版,明年年初将会发布 Apache Spark 3.0 正式版。

640?wx_fmt=png

世界级的知乎 stackoverflow 中当年 Spark 和 PySpark 排名都很靠前,10年累计排名 Apache Spark 第一,Apache Hadoop 第二;未来 Apache Spark 和 PySpark 将会垄断世界。

640?wx_fmt=png

Apache Spark 3.0 是社区共同努力的结果,大概开发了一年多。下面是 Apache Spark 3.0 的主要特性:

640?wx_fmt=png

  • 动态分区裁减

  • 自适应

  • Spark Graph

  • 加速感应调度(GPU,具体参见 )

  • Spark on k8s

  • DataSource API V2

  • ANSI SQL 兼容

  • SQL Hints

  • Vectorization in SparkR

  • JDK 11

  • Hadoop 3

  • Scala 2.12
下面主要介绍 Apache Spark 3.0 在查询方面的优化

640?wx_fmt=png

在 Spark 2.x 里面加了基于代价的优化,但是这个并不表现的很好。主要有以下几个原因:

  • 统计信息的缺失;

  • 统计信息过期;

  • 很难抽象出一个通用的 cost model。
为了解决这些问题,Apache Spark 3.0 引入了基于 Runtime 的查询优化。

640?wx_fmt=png

第一个就是动态分区裁减

640?wx_fmt=png

比如上面的 SQL 查询,假设 t2 表 t2.id < 2 过滤出来的数据比较少,但是由于之前版本的 Spark 无法进行动态计算代价,所以可能会导致 t1 表扫描出大量无效的数据。有了动态分区裁减,可以在运行的时候过滤掉 t1 表无用的数据

640?wx_fmt=png

经过这个优化,查询扫描的数据大大减少,性能提升了 33 倍

640?wx_fmt=png

第二个优化就是 AE(详情可以参见

640?wx_fmt=png

比如下面的查询,基于代价的模型优化不可能准确的评估,

640?wx_fmt=png

而有了 AE 之后,Spark 就可以动态统计相关信息,并动态调整执行计划,比如把 SortMergeJoin 变成 BroadcastHashJoin:

640?wx_fmt=png

Spark 在诞生之初就定位于统一的大数据处理引擎。

640?wx_fmt=png

数据处理主要经过以下三个阶段

640?wx_fmt=png

  • 商业智能

  • 大数据分析

  • 数据统一 + AI

640?wx_fmt=png

Spark 主要面对的是两个群体:数据工程师和数据科学家。

640?wx_fmt=png

近几年 Python 的使用者越来越多了,也导致越来越多的用户使用 pandas 来进行数据分析。但是 pandas 主要是解决小数据量的分析,当数据量大的时候,分析性能急剧下降。而为了进行大数据量的分析时,不得不学习新的计算引擎。

为了解决这个问题,Spark 开源了 koalas,其和 pandas 无缝兼容(koalas 的详细信息可以参见 koalas 开源以来的单日下载量:

640?wx_fmt=png

PySpark 作为数据分析的工具,单日下载量也在逐渐增加。

下面是 PySpark DataFrame 和 pandas DataFrame 的区别:

640?wx_fmt=png

下面是一个使用例子对比,主要是读取一个 csv 文件,并重命名列的名字,最后再添加一个新的列:

640?wx_fmt=png

可以看出,PySpark 相比 pandas 来说使用起来还是很麻烦,使用 pandas 的用户不得不学习新的 API,但是有了 koalas ,这个问题不存在了:

640?wx_fmt=png

下面我们来介绍数据工程

640?wx_fmt=png

在数据工程方面,数砖开源了 Delta Lake(具体参见

640?wx_fmt=png

Delta Lake 并不是凭空产生的,而是基于成千上万的用户痛点总结出来的。Delta Lake 的使用也很方面,直接把 parquet 替换成 delta:

640?wx_fmt=png

下面主要介绍 Delta Lake 的特性

640?wx_fmt=png

下面是 Delta Lake 的三个用户使用场景:

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

下面是数砖 Delta 的使用情况:

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png


新福利:

从9月11日开始至10月15日截止,一共五周时间,每周二我会从公众号底部留言+转发+在看综合最多的读者中抽取一名读者,免费包邮送实体新书《HBase原理与实践》,留言互动起来吧~

上周获奖名单:ZRTX

640?wx_fmt=jpeg

640?wx_fmt=jpeg

640?wx_fmt=jpeg

猜你喜欢

1、

2、

3、

4、

640?wx_fmt=png

过往记忆大数据微信群,请添加微信:fangzhen0219,备注【进群】


版权声明:本文为b6ecl1k7BS8O原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。