一文詳解Hive知識體系
三、Hive數(shù)據(jù)抽樣
當(dāng)數(shù)據(jù)規(guī)模不斷膨脹時(shí),我們需要找到一個(gè)數(shù)據(jù)的子集來加快數(shù)據(jù)分析效率。因此我們就需要通過篩選和分析數(shù)據(jù)集為了進(jìn)行模式 & 趨勢識別。目前來說有三種方式來進(jìn)行抽樣:隨機(jī)抽樣,桶表抽樣,和塊抽樣。
3.1 隨機(jī)抽樣
關(guān)鍵詞:rand()函數(shù)。
使用rand()函數(shù)進(jìn)行隨機(jī)抽樣,limit關(guān)鍵字限制抽樣返回的數(shù)據(jù),其中rand函數(shù)前的distribute和sort關(guān)鍵字可以保證數(shù)據(jù)在mapper和reducer階段是隨機(jī)分布的。
案例如下:
select * from table_name
where col=xxx
distribute by rand() sort by rand()
limit num;
使用order 關(guān)鍵詞:
案例如下:
select * from table_name
where col=xxx
order by rand()
limit num;
經(jīng)測試對比,千萬級數(shù)據(jù)中進(jìn)行隨機(jī)抽樣 order by方式耗時(shí)更長,大約多30秒左右。
3.2 塊抽樣
關(guān)鍵詞:tablesample()函數(shù)。
tablesample(n percent) 根據(jù)hive表數(shù)據(jù)的大小按比例抽取數(shù)據(jù),并保存到新的hive表中。如:抽取原h(huán)ive表中10%的數(shù)據(jù)
注意:測試過程中發(fā)現(xiàn),select語句不能帶where條件且不支持子查詢,可通過新建中間表或使用隨機(jī)抽樣解決。
select * from xxx tablesample(10 percent) 數(shù)字與percent之間要有空格
tablesample(nM) 指定抽樣數(shù)據(jù)的大小,單位為M。select * from xxx tablesample(20M) 數(shù)字與M之間不要有空格
tablesample(n rows) 指定抽樣數(shù)據(jù)的行數(shù),其中n代表每個(gè)map任務(wù)均取n行數(shù)據(jù),map數(shù)量可通過hive表的簡單查詢語句確認(rèn)(關(guān)鍵詞:number of mappers: x)select * from xxx tablesample(100 rows) 數(shù)字與rows之間要有空格
3.3 桶表抽樣
關(guān)鍵詞:tablesample (bucket x out of y [on colname])。
其中x是要抽樣的桶編號,桶編號從1開始,colname表示抽樣的列,y表示桶的數(shù)量。
hive中分桶其實(shí)就是根據(jù)某一個(gè)字段Hash取模,放入指定數(shù)據(jù)的桶中,比如將表table_1按照ID分成100個(gè)桶,其算法是hash(id) % 100,這樣,hash(id) % 100 = 0的數(shù)據(jù)被放到第一個(gè)桶中,hash(id) % 100 = 1的記錄被放到第二個(gè)桶中。創(chuàng)建分桶表的關(guān)鍵語句為:CLUSTER BY語句。
例如:將表隨機(jī)分成10組,抽取其中的第一個(gè)桶的數(shù)據(jù):
select * from table_01
tablesample(bucket 1 out of 10 on rand())
四、Hive計(jì)算引擎
目前Hive支持MapReduce、Tez和Spark 三種計(jì)算引擎。
4.1 MR計(jì)算引擎
MR運(yùn)行的完整過程:
Map在讀取數(shù)據(jù)時(shí),先將數(shù)據(jù)拆分成若干數(shù)據(jù),并讀取到Map方法中被處理。數(shù)據(jù)在輸出的時(shí)候,被分成若干分區(qū)并寫入內(nèi)存緩存(buffer)中,內(nèi)存緩存被數(shù)據(jù)填充到一定程度會溢出到磁盤并排序,當(dāng)Map執(zhí)行完后會將一個(gè)機(jī)器上輸出的臨時(shí)文件進(jìn)行歸并存入到HDFS中。
當(dāng)Reduce啟動時(shí),會啟動一個(gè)線程去讀取Map輸出的數(shù)據(jù),并寫入到啟動Reduce機(jī)器的內(nèi)存中,在數(shù)據(jù)溢出到磁盤時(shí)會對數(shù)據(jù)進(jìn)行再次排序。當(dāng)讀取數(shù)據(jù)完成后會將臨時(shí)文件進(jìn)行合并,作為Reduce函數(shù)的數(shù)據(jù)源。
4.2 Tez計(jì)算引擎
Apache Tez是進(jìn)行大規(guī)模數(shù)據(jù)處理且支持DAG作業(yè)的計(jì)算框架,它直接源于MapReduce框架,除了能夠支持MapReduce特性,還支持新的作業(yè)形式,并允許不同類型的作業(yè)能夠在一個(gè)集群中運(yùn)行。
Tez將原有的Map和Reduce兩個(gè)操作簡化為一個(gè)概念——Vertex,并將原有的計(jì)算處理節(jié)點(diǎn)拆分成多個(gè)組成部分:Vertex Input、Vertex Output、Sorting、Shuffling和Merging。計(jì)算節(jié)點(diǎn)之間的數(shù)據(jù)通信被統(tǒng)稱為Edge,這些分解后的元操作可以任意靈活組合,產(chǎn)生新的操作,這些操作經(jīng)過一些控制程序組裝后,可形成一個(gè)大的DAG作業(yè)。
通過允許Apache Hive運(yùn)行復(fù)雜的DAG任務(wù),Tez可以用來處理數(shù)據(jù),之前需要多個(gè)MR jobs,現(xiàn)在一個(gè)Tez任務(wù)中。
Tez和MapReduce作業(yè)的比較:
Tez繞過了MapReduce很多不必要的中間的數(shù)據(jù)存儲和讀取的過程,直接在一個(gè)作業(yè)中表達(dá)了MapReduce需要多個(gè)作業(yè)共同協(xié)作才能完成的事情。
Tez和MapReduce一樣都運(yùn)行使用YARN作為資源調(diào)度和管理。但與MapReduce on YARN不同,Tez on YARN并不是將作業(yè)提交到ResourceManager,而是提交到AMPoolServer的服務(wù)上,AMPoolServer存放著若干已經(jīng)預(yù)先啟動ApplicationMaster的服務(wù)。
當(dāng)用戶提交一個(gè)作業(yè)上來后,AMPoolServer從中選擇一個(gè)ApplicationMaster用于管理用戶提交上來的作業(yè),這樣既可以節(jié)省ResourceManager創(chuàng)建ApplicationMaster的時(shí)間,而又能夠重用每個(gè)ApplicationMaster的資源,節(jié)省了資源釋放和創(chuàng)建時(shí)間。
Tez相比于MapReduce有幾點(diǎn)重大改進(jìn):
當(dāng)查詢需要有多個(gè)reduce邏輯時(shí),Hive的MapReduce引擎會將計(jì)劃分解,每個(gè)Redcue提交一個(gè)MR作業(yè)。這個(gè)鏈中的所有MR作業(yè)都需要逐個(gè)調(diào)度,每個(gè)作業(yè)都必須從HDFS中重新讀取上一個(gè)作業(yè)的輸出并重新洗牌。而在Tez中,幾個(gè)reduce接收器可以直接連接,數(shù)據(jù)可以流水線傳輸,而不需要臨時(shí)HDFS文件,這種模式稱為MRR(Map-reduce-reduce*)。
Tez還允許一次發(fā)送整個(gè)查詢計(jì)劃,實(shí)現(xiàn)應(yīng)用程序動態(tài)規(guī)劃,從而使框架能夠更智能地分配資源,并通過各個(gè)階段流水線傳輸數(shù)據(jù)。對于更復(fù)雜的查詢來說,這是一個(gè)巨大的改進(jìn),因?yàn)樗薎O/sync障礙和各個(gè)階段之間的調(diào)度開銷。
在MapReduce計(jì)算引擎中,無論數(shù)據(jù)大小,在洗牌階段都以相同的方式執(zhí)行,將數(shù)據(jù)序列化到磁盤,再由下游的程序去拉取,并反序列化。Tez可以允許小數(shù)據(jù)集完全在內(nèi)存中處理,而MapReduce中沒有這樣的優(yōu)化。倉庫查詢經(jīng)常需要在處理完大量的數(shù)據(jù)后對小型數(shù)據(jù)集進(jìn)行排序或聚合,Tez的優(yōu)化也能極大地提升效率。
4.3 Spark計(jì)算引擎
Apache Spark是專為大規(guī)模數(shù)據(jù)處理而設(shè)計(jì)的快速、通用支持DAG(有向無環(huán)圖)作業(yè)的計(jì)算引擎,類似于Hadoop MapReduce的通用并行框架,可用來構(gòu)建大型的、低延遲的數(shù)據(jù)分析應(yīng)用程序。
Spark是用于大規(guī)模數(shù)據(jù)處理的統(tǒng)一分析引擎,基于內(nèi)存計(jì)算,提高了在大數(shù)據(jù)環(huán)境下數(shù)據(jù)處理的實(shí)時(shí)性,同時(shí)保證了高容錯(cuò)性和高可伸縮性,允許用戶將Spark部署在大量硬件之上,形成集群。
Spark運(yùn)行流程
Spark運(yùn)行流程
Spark具有以下幾個(gè)特性。
1.高效性
Spark會將作業(yè)構(gòu)成一個(gè)DAG,優(yōu)化了大型作業(yè)一些重復(fù)且浪費(fèi)資源的操作,對查詢進(jìn)行了優(yōu)化,重新編寫了物理執(zhí)行引擎,如可以實(shí)現(xiàn)MRR模式。
2.易用性
Spark不同于MapReducer只提供兩種簡單的編程接口,它提供了多種編程接口去操作數(shù)據(jù),這些操作接口如果使用MapReduce去實(shí)現(xiàn),需要更多的代碼。Spark的操作接口可以分為兩類:transformation(轉(zhuǎn)換)和action(執(zhí)行)。Transformation包含map、flatmap、distinct、reduceByKey和join等轉(zhuǎn)換操作;Action包含reduce、collect、count和first等操作。
3.通用性
Spark針對實(shí)時(shí)計(jì)算、批處理、交互式查詢,提供了統(tǒng)一的解決方案。但在批處理方面相比于MapReduce處理同樣的數(shù)據(jù),Spark所要求的硬件設(shè)施更高,MapReduce在相同的設(shè)備下所能處理的數(shù)據(jù)量會比Spark多。所以在實(shí)際工作中,Spark在批處理方面只能算是MapReduce的一種補(bǔ)充。
4.兼容性
Spark和MapReduce一樣有豐富的產(chǎn)品生態(tài)做支撐。例如Spark可以使用YARN作為資源管理器,Spark也可以處理Hbase和HDFS上的數(shù)據(jù)。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個(gè)字
最新活動更多
-
即日-11.13立即報(bào)名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報(bào)名>>> 2024工程師系列—工業(yè)電子技術(shù)在線會議
-
12月19日立即報(bào)名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報(bào)名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
-
精彩回顧立即查看>> 【限時(shí)免費(fèi)下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
推薦專題
- 1 【一周車話】沒有方向盤和踏板的車,你敢坐嗎?
- 2 特斯拉發(fā)布無人駕駛車,還未迎來“Chatgpt時(shí)刻”
- 3 特斯拉股價(jià)大跌15%:Robotaxi離落地還差一個(gè)蘿卜快跑
- 4 馬斯克給的“驚喜”夠嗎?
- 5 打完“價(jià)格戰(zhàn)”,大模型還要比什么?
- 6 馬斯克致敬“國產(chǎn)蘿卜”?
- 7 神經(jīng)網(wǎng)絡(luò),誰是盈利最強(qiáng)企業(yè)?
- 8 比蘋果偉大100倍!真正改寫人類歷史的智能產(chǎn)品降臨
- 9 諾獎進(jìn)入“AI時(shí)代”,人類何去何從?
- 10 Open AI融資后成萬億獨(dú)角獸,AI人才之爭開啟
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市