发表评论取消回复
相关阅读
相关 【解读 ahooks 源码系列】DOM篇(四)
前言 本文是 ahooks 源码([v3.7.4][])系列的第四篇,也是 DOM 篇的完结篇,往期文章: [【解读 ahooks 源码系列】DOM 篇(一)][
相关 hadoop源码分析(MapReduce)
原文地址:http://wwangcg.iteye.com/category/171858【good 也有其他方面的内容】 [hadoop 源码分析(一) jobCli
相关 Hadoop Counter
Hadoop Counte是Hadoop自带的一个很实用的功能,它可以统计全局某个量的数量,如,MR中用Kafka发送消息,就可以用Hadoop Counter统计发送成功信息
相关 Hadoop WordCount源码解读
MapReduce编程模型 MapReduce采用“分而治之”的思想。将HDFS上海量数据切分成为若干块,将每块的数据分给集群上的节点进行计算。然后通过整合各节点的中间结果,
相关 Hadoop中MapReduce中的counter的意义
MapReduce Counter为提供我们一个窗口:观察MapReduce job运行期的各种细节数据。今年三月份期间,我曾经专注于MapReduce性能调优工作,是否优化
相关 [Hadoop源码解读](二)MapReduce篇之Mapper类
前面在讲InputFormat的时候,讲到了Mapper类是如何利用RecordReader来读取InputSplit中的K-V对的。 这一篇里,开始对Mapper.cl
相关 [Hadoop源码解读](三)MapReduce篇之Job类
下面,我们只涉及MapReduce 1,而不涉及YARN。 ![Center][] 当我们在写MapReduce程序的时候,通常,在main函数里,我们会像下面这样做
相关 [Hadoop源码解读](四)MapReduce篇之Counter相关类
![Center][] 当我们定义一个Counter时,我们首先要定义一枚举类型: public static enum MY_COUNTER{
相关 [Hadoop源码解读](五)MapReduce篇之Writable相关类
前面讲了InputFormat,就顺便讲一下Writable的东西吧,本来应当是放在HDFS中的。 当要在进程间传递对象或持久化对象的时候,就需要序列化对象成字节流,反之
相关 [Hadoop源码解读](一)MapReduce篇之InputFormat
平时我们写MapReduce程序的时候,在设置输入格式的时候,总会调用形如job.setInputFormatClass(KeyValueTextInputFormat.cla
还没有评论,来说两句吧...