Shuffle核心概念、Shuffle調(diào)優(yōu)及故障排除
Spark調(diào)優(yōu)之Shuffle調(diào)優(yōu)
本節(jié)開始先講解Shuffle核心概念;然后針對HashShuffle、SortShuffle進行調(diào)優(yōu);接下來對map端、reduce端調(diào)優(yōu);再針對Spark中的數(shù)據(jù)傾斜問題進行剖析及調(diào)優(yōu);最后是Spark運行過程中的故障排除。
一、Shuffle的核心概念
1. ShuffleMapStage與ResultStage
ShuffleMapStage與ResultStage
在劃分stage時,最后一個stage稱為FinalStage,它本質(zhì)上是一個ResultStage對象,前面的所有stage被稱為ShuffleMapStage。
ShuffleMapStage的結(jié)束伴隨著shuffle文件的寫磁盤。
ResultStage基本上對應(yīng)代碼中的action算子,即將一個函數(shù)應(yīng)用在RDD的各個partition的數(shù)據(jù)集上,意味著一個job的運行結(jié)束。
2. Shuffle中的任務(wù)個數(shù)
我們知道,Spark Shuffle分為map階段和reduce階段,或者稱之為ShuffleRead階段和ShuffleWrite階段,那么對于一次Shuffle,map過程和reduce過程都會由若干個task來執(zhí)行,那么map task和reduce task的數(shù)量是如何確定的呢?
假設(shè)Spark任務(wù)從HDFS中讀取數(shù)據(jù),那么初始RDD分區(qū)個數(shù)由該文件的split個數(shù)決定,也就是一個split對應(yīng)生成的RDD的一個partition,我們假設(shè)初始partition個數(shù)為N。
初始RDD經(jīng)過一系列算子計算后(假設(shè)沒有執(zhí)行repartition和coalesce算子進行重分區(qū),則分區(qū)個數(shù)不變,仍為N,如果經(jīng)過重分區(qū)算子,那么分區(qū)個數(shù)變?yōu)镸),我們假設(shè)分區(qū)個數(shù)不變,當執(zhí)行到Shuffle操作時,map端的task個數(shù)和partition個數(shù)一致,即map task為N個。
reduce端的stage默認取spark.default.parallelism這個配置項的值作為分區(qū)數(shù),如果沒有配置,則以map端的最后一個RDD的分區(qū)數(shù)作為其分區(qū)數(shù)(也就是N),那么分區(qū)數(shù)就決定了reduce端的task的個數(shù)。
3. reduce端數(shù)據(jù)的讀取
根據(jù)stage的劃分我們知道,map端task和reduce端task不在相同的stage中,map task位于ShuffleMapStage,reduce task位于ResultStage,map task會先執(zhí)行,那么后執(zhí)行的reduce task如何知道從哪里去拉取map task落盤后的數(shù)據(jù)呢?
reduce端的數(shù)據(jù)拉取過程如下:
map task 執(zhí)行完畢后會將計算狀態(tài)以及磁盤小文件位置等信息封裝到MapStatus對象中,然后由本進程中的MapOutPutTrackerWorker對象將mapStatus對象發(fā)送給Driver進程的MapOutPutTrackerMaster對象;在reduce task開始執(zhí)行之前會先讓本進程中的MapOutputTrackerWorker向Driver進程中的MapoutPutTrakcerMaster發(fā)動請求,請求磁盤小文件位置信息;當所有的Map task執(zhí)行完畢后,Driver進程中的MapOutPutTrackerMaster就掌握了所有的磁盤小文件的位置信息。此時MapOutPutTrackerMaster會告訴MapOutPutTrackerWorker磁盤小文件的位置信息;完成之前的操作之后,由BlockTransforService去Executor0所在的節(jié)點拉數(shù)據(jù),默認會啟動五個子線程。每次拉取的數(shù)據(jù)量不能超過48M(reduce task每次最多拉取48M數(shù)據(jù),將拉來的數(shù)據(jù)存儲到Executor內(nèi)存的20%內(nèi)存中)。
二、HashShuffle解析
以下的討論都假設(shè)每個Executor有1個cpu core。
1. 未經(jīng)優(yōu)化的HashShuffleManager
shuffle write階段,主要就是在一個stage結(jié)束計算之后,為了下一個stage可以執(zhí)行shuffle類的算子(比如reduceByKey),而將每個task處理的數(shù)據(jù)按key進行“劃分”。所謂“劃分”,就是對相同的key執(zhí)行hash算法,從而將相同key都寫入同一個磁盤文件中,而每一個磁盤文件都只屬于下游stage的一個task。在將數(shù)據(jù)寫入磁盤之前,會先將數(shù)據(jù)寫入內(nèi)存緩沖中,當內(nèi)存緩沖填滿之后,才會溢寫到磁盤文件中去。
下一個stage的task有多少個,當前stage的每個task就要創(chuàng)建多少份磁盤文件。比如下一個stage總共有100個task,那么當前stage的每個task都要創(chuàng)建100份磁盤文件。如果當前stage有50個task,總共有10個Executor,每個Executor執(zhí)行5個task,那么每個Executor上總共就要創(chuàng)建500個磁盤文件,所有Executor上會創(chuàng)建5000個磁盤文件。由此可見,未經(jīng)優(yōu)化的shuffle write操作所產(chǎn)生的磁盤文件的數(shù)量是極其驚人的。
shuffle read階段,通常就是一個stage剛開始時要做的事情。此時該stage的每一個task就需要將上一個stage的計算結(jié)果中的所有相同key,從各個節(jié)點上通過網(wǎng)絡(luò)都拉取到自己所在的節(jié)點上,然后進行key的聚合或連接等操作。由于shuffle write的過程中,map task給下游stage的每個reduce task都創(chuàng)建了一個磁盤文件,因此shuffle read的過程中,每個reduce task只要從上游stage的所有map task所在節(jié)點上,拉取屬于自己的那一個磁盤文件即可。
shuffle read的拉取過程是一邊拉取一邊進行聚合的。每個shuffle read task都會有一個自己的buffer緩沖,每次都只能拉取與buffer緩沖相同大小的數(shù)據(jù),然后通過內(nèi)存中的一個Map進行聚合等操作。聚合完一批數(shù)據(jù)后,再拉取下一批數(shù)據(jù),并放到buffer緩沖中進行聚合操作。以此類推,直到最后將所有數(shù)據(jù)到拉取完,并得到最終的結(jié)果。
未優(yōu)化的HashShuffleManager工作原理如下圖所示:
未優(yōu)化的HashShuffleManager工作原理2. 優(yōu)化后的HashShuffleManager
為了優(yōu)化HashShuffleManager我們可以設(shè)置一個參數(shù):spark.shuffle.consolidateFiles,該參數(shù)默認值為false,將其設(shè)置為true即可開啟優(yōu)化機制,通常來說,如果我們使用HashShuffleManager,那么都建議開啟這個選項。
開啟consolidate機制之后,在shuffle write過程中,task就不是為下游stage的每個task創(chuàng)建一個磁盤文件了,此時會出現(xiàn)shuffleFileGroup的概念,每個shuffleFileGroup會對應(yīng)一批磁盤文件,磁盤文件的數(shù)量與下游stage的task數(shù)量是相同的。一個Executor上有多少個cpu core,就可以并行執(zhí)行多少個task。而第一批并行執(zhí)行的每個task都會創(chuàng)建一個shuffleFileGroup,并將數(shù)據(jù)寫入對應(yīng)的磁盤文件內(nèi)。
當Executor的cpu core執(zhí)行完一批task,接著執(zhí)行下一批task時,下一批task就會復(fù)用之前已有的shuffleFileGroup,包括其中的磁盤文件,也就是說,此時task會將數(shù)據(jù)寫入已有的磁盤文件中,而不會寫入新的磁盤文件中。因此,consolidate機制允許不同的task復(fù)用同一批磁盤文件,這樣就可以有效將多個task的磁盤文件進行一定程度上的合并,從而大幅度減少磁盤文件的數(shù)量,進而提升shuffle write的性能。
假設(shè)第二個stage有100個task,第一個stage有50個task,總共還是有10個Executor(Executor CPU個數(shù)為1),每個Executor執(zhí)行5個task。那么原本使用未經(jīng)優(yōu)化的HashShuffleManager時,每個Executor會產(chǎn)生500個磁盤文件,所有Executor會產(chǎn)生5000個磁盤文件的。但是此時經(jīng)過優(yōu)化之后,每個Executor創(chuàng)建的磁盤文件的數(shù)量的計算公式為:cpu core的數(shù)量 * 下一個stage的task數(shù)量,也就是說,每個Executor此時只會創(chuàng)建100個磁盤文件,所有Executor只會創(chuàng)建1000個磁盤文件。
優(yōu)化后的HashShuffleManager工作原理如下圖所示:
優(yōu)化后的HashShuffleManager工作原理

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風翻身?