亚洲熟女综合色一区二区三区,亚洲精品中文字幕无码蜜桃,亚洲va欧美va日韩va成人网,亚洲av无码国产一区二区三区,亚洲精品无码久久久久久久

你知道Linux中大文件快速處理小的方法有哪些嗎?

今天小編要跟大家分享的文章是關(guān)于Linux中大文件快速處理小的方法有哪些。相信正在從事Linux相關(guān)工作的小伙伴一定都遇到過這種情況, Linux入門新手和正在Linux學習的小伙伴快來看一看吧,希望能夠?qū)Υ蠹矣兴鶐椭?/p>

Linux中大文件快速處理小的方法有哪些嗎?

1.背景

工作中使用MapReduce任務導出一批含有路徑的文件,共計行數(shù)300W+,需要檢測文件是否在對應的服務器中存在,而文件所在的服務器并非hadoop集群的服務器,因此打算采用bash腳本進行。具體的方法如下(可直接看方法2,方法1效率較低):

2. 采用的方法

a. 方法1

原本打算使用如下腳本,進行簡單驗證:

!/bin/bash

count=0

cat oriTest.txt | while read data

do

count=$(( $count+1 ))

echo $count

dir=echo "$data" | awk -F "t" '{print $5}'

if [ -e $dir ];then

echo "$data" >> exist.txt

else

echo "$data" >> noexist.txt

fi

done

原始數(shù)據(jù)格式如下:

name mark id dir

運行時發(fā)現(xiàn)處理5000行需要將近4、5分鐘的時間(機器為8核),果斷不行啊,隨后打算采用多進程的方法來執(zhí)行,見方法2

b. 方法2

主要是通過將大文件分為小文件,然后對小文件進行后臺遍歷讀取,腳本如下:

!/bin/bash

source ~/.bashrc

判斷路徑是否存在

readdata(){

cat $1 | while read data

do

dir=echo "$data" | awk -F "t" '{print $5}'

if [ -e $dir ];then

echo "$data" >> "exist_$1.txt"

else

echo "$data" >> "noexist_$1.txt"

fi

done

}

大文件切分為小文件,生成文件名為xaa,axb等(可以自己命名文件)

split -l 10000 oriTest.txt

declare -a files # 聲明數(shù)組

files=($(ls x*)) # 分割后的小文件名保存數(shù)組

遍歷,并后臺執(zhí)行

for i in ${files[@]};do

echo $i

readdata $i &

done

以上就是小編今天為大家分享的關(guān)于Linux運維人員你知道Linux中大文件快速處理小的方法有哪些嗎?的文章,希望本篇文章能夠?qū)φ趶氖翷inux相關(guān)工作的小伙伴們有所幫助。想要了解更多Linux相關(guān)知識記得關(guān)注馬哥教育官網(wǎng)。最后祝愿小伙伴們工作順利哦!

聲明:文章來源于網(wǎng)絡,侵刪!

相關(guān)新聞

歷經(jīng)多年發(fā)展,已成為國內(nèi)好評如潮的Linux云計算運維、SRE、Devops、網(wǎng)絡安全、云原生、Go、Python開發(fā)專業(yè)人才培訓機構(gòu)!