更新時(shí)間:2020-11-04 來(lái)源:黑馬程序員 瀏覽量:
MapReduce程序會(huì)根據(jù)輸入的文件產(chǎn)生多個(gè)map任務(wù)。Hadoop提供的Mapper類是實(shí)現(xiàn)Map任務(wù)的一個(gè)抽象基類,該基類提供了一個(gè)map()方法,默認(rèn)情況下,Mapper類中的map()方法是沒(méi)有做任何處理的。
如果我們想自定義map()方法,我們只需要繼承Mapper類并重寫map()方法即可。接下來(lái),我們以詞頻統(tǒng)計(jì)為例,自定義一個(gè)map()方法,具體代碼如文件所示。
文件 WordCountMapper.java
import java.io.IOException; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { @Override protected void map(LongWritable key, Text value, Mapper< LongWritable, Text, Text, IntWritable>.Context context) throws IOException, InterruptedException { // 接收傳入進(jìn)來(lái)的一行文本,把數(shù)據(jù)類型轉(zhuǎn)換為String類型 String line = value.toString(); // 將這行內(nèi)容按照分隔符切割 String[] words = line.split(" "); // 遍歷數(shù)組,每出現(xiàn)一個(gè)單詞就標(biāo)記一個(gè)數(shù)組1 例如:<單詞,1> for (String word : words) { // 使用context,把Map階段處理的數(shù)據(jù)發(fā)送給Reduce階段作為輸入數(shù)據(jù) **context.write(new Text(word), new IntWritable(1));** } } }
猜你喜歡:
Spark有哪些特點(diǎn),Spark的生態(tài)系統(tǒng)包含哪些組件?
Watch機(jī)制特點(diǎn)有哪些?Watch簡(jiǎn)介
2020-11-03Znode儲(chǔ)存結(jié)構(gòu)是怎樣的?節(jié)點(diǎn)類型有哪幾種?
2020-11-03YARN資源管理框架的體系結(jié)構(gòu)【大數(shù)據(jù)文章】
2020-11-03Zookeeper集群中的三種角色簡(jiǎn)單介紹
2020-11-03Spark的集群安裝部署【大數(shù)據(jù)技術(shù)文章】
2020-10-29Spark有哪些特點(diǎn),Spark的生態(tài)系統(tǒng)包含哪些組件?
2020-10-28