佳木斯湛栽影视文化发展公司

主頁 > 知識庫 > Apache Spark 2.0 在作業(yè)完成時卻花費(fèi)很長時間結(jié)束

Apache Spark 2.0 在作業(yè)完成時卻花費(fèi)很長時間結(jié)束

熱門標(biāo)簽:使用U盤裝系統(tǒng) 檢查注冊表項 硅谷的囚徒呼叫中心 網(wǎng)站建設(shè) 百度競價點(diǎn)擊價格的計算公式 阿里云 美圖手機(jī) 智能手機(jī)

現(xiàn)象

大家在使用 Apache Spark 2.x 的時候可能會遇到這種現(xiàn)象:雖然我們的 Spark Jobs 已經(jīng)全部完成了,但是我們的程序卻還在執(zhí)行。比如我們使用 Spark SQL 去執(zhí)行一些 SQL,這個 SQL 在最后生成了大量的文件。然后我們可以看到,這個 SQL 所有的 Spark Jobs 其實已經(jīng)運(yùn)行完成了,但是這個查詢語句還在運(yùn)行。通過日志,我們可以看到 driver 節(jié)點(diǎn)正在一個一個地將 tasks 生成的文件移動到最終表的目錄下面,當(dāng)我們作業(yè)生成的文件很多的情況下,就很容易產(chǎn)生這種現(xiàn)象。本文將給大家介紹一種方法來解決這個問題。

為什么會造成這個現(xiàn)象

Spark 2.x 用到了 Hadoop 2.x,其將生成的文件保存到 HDFS 的時候,最后會調(diào)用了 saveAsHadoopFile,而這個函數(shù)在里面用到了 FileOutputCommitter,如下:

問題就出在了 Hadoop 2.x 的 FileOutputCommitter 實現(xiàn)FileOutputCommitter 里面有兩個值得注意的方法:commitTask 和 commitJob。在 Hadoop 2.x 的FileOutputCommitter 實現(xiàn)里面,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)控制著 commitTask 和 commitJob 的工作方式。具體代碼如下(為了說明方便,我去掉了無關(guān)緊要的語句,完整代碼可以參見 FileOutputCommitter.java):

大家可以看到 commitTask 方法里面,有個條件判斷 algorithmVersion == 1,這個就是 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值,默認(rèn)為1;如果這個參數(shù)為1,那么在 Task 完成的時候,是將 Task 臨時生成的數(shù)據(jù)移到 task 的對應(yīng)目錄下,然后再在 commitJob 的時候移到最終作業(yè)輸出目錄,而這個參數(shù),在 Hadoop 2.x 的默認(rèn)值就是 1!這也就是為什么我們看到 job 完成了,但是程序還在移動數(shù)據(jù),從而導(dǎo)致整個作業(yè)尚未完成,而且最后是由 Spark 的 Driver 執(zhí)行 commitJob 函數(shù)的,所以執(zhí)行的慢也是有到底的。

而我們可以看到,如果我們將 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值設(shè)置為 2,那么在 commitTask 執(zhí)行的時候,就會調(diào)用 mergePaths 方法直接將 Task 生成的數(shù)據(jù)從 Task 臨時目錄移動到程序最后生成目錄。而在執(zhí)行 commitJob 的時候,直接就不用移動數(shù)據(jù)了,自然會比默認(rèn)的值要快很多。

注意,其實在 Hadoop 2.7.0 之前版本,我們可以將 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)設(shè)置為非1的值就可以實現(xiàn)這個目的,因為程序里面并沒有限制這個值一定為2,。不過到了 Hadoop 2.7.0,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值必須為1或2,具體參見 MAPREDUCE-4815。

怎么在 Spark 里面設(shè)置這個參數(shù)

問題已經(jīng)找到了,我們可以在程序里面解決這個問題。有以下幾種方法:

  • 直接在 conf/spark-defaults.conf 里面設(shè)置 spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version 2,這個是全局影響的。
  • 直接在 Spark 程序里面設(shè)置,spark.conf.set("mapreduce.fileoutputcommitter.algorithm.version", "2"),這個是作業(yè)級別的。
  • 如果你是使用 Dataset API 寫數(shù)據(jù)到 HDFS,那么你可以這么設(shè)置 dataset.write.option("mapreduce.fileoutputcommitter.algorithm.version", "2")。

不過如果你的 Hadoop 版本為 3.x,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的默認(rèn)值已經(jīng)設(shè)置為2了,具體參見 MAPREDUCE-6336 和 MAPREDUCE-6406。

因為這個參數(shù)對性能有一些影響,所以到了 Spark 2.2.0,這個參數(shù)已經(jīng)記錄在 Spark 配置文檔里面了 configuration.html,具體參見 SPARK-20107。

總結(jié)

以上所述是小編給大家介紹的Apache Spark 2.0 在作業(yè)完成時卻花費(fèi)很長時間結(jié)束,希望對大家有所幫助!

標(biāo)簽:賀州 湘潭 山南 黃山 煙臺 懷化 湖北 通遼

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Apache Spark 2.0 在作業(yè)完成時卻花費(fèi)很長時間結(jié)束》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266
    工布江达县| 长丰县| 报价| 上蔡县| 北流市| 丹巴县| 福州市| 南汇区| 普洱| 屏南县| 白银市| 漳浦县| 永福县| 两当县| 西乌珠穆沁旗| 甘孜县| 彭州市| 从化市| 清新县| 涿州市| 乐东| 敦煌市| 固原市| 简阳市| 石门县| 晴隆县| 濮阳市| 鱼台县| 东阳市| 祁连县| 自治县| 莱州市| 天祝| 浠水县| 湘西| 齐齐哈尔市| 综艺| 武川县| 绥中县| 集贤县| 惠东县|