求大神教BH1750,看了手册和许多汽车设计标准资料手册,还是不太懂,

求大神详解,不太懂
package com.zkpk.import org.apache.hadoop.conf.Cimport org.apache.hadoop.fs.Pimport org.apache.hadoop.io.IntWimport org.apache.hadoop.io.LongWimport org.apache.hadoop.io.Timport org.apache.hadoop.mapreduce.Jimport org.apache.hadoop.mapreduce.Mimport org.apache.hadoop.mapreduce.Rimport org.apache.hadoop.mapreduce.lib.input.FileInputFimport org.apache.hadoop.mapreduce.lib.input.TextInputFimport org.apache.hadoop.mapreduce.lib.output.FileOutputFimport org.apache.hadoop.mapreduce.lib.output.TextOutputFclass UserMapper extends Mapper&LongWritable, Text, Text, IntWritable& { protected void map(
LongWritable key,
Text value,
org.apache.hadoop.mapreduce.Mapper&LongWritable, Text, Text, IntWritable&.Context context)
throws java.io.IOException, InterruptedException {
IntWritable one = new IntWritable(1);
String[] columns = value.toString().split("\t");
if (columns != null && columns.length == 6) {
Text uid = new Text(columns[1]);
context.write(uid, one);
} };}class UserReducer extends Reducer&Text, IntWritable, Text, IntWritable& { protected void reduce(
java.lang.Iterable&IntWritable& values,
org.apache.hadoop.mapreduce.Reducer&Text, IntWritable, Text, IntWritable&.Context context)
throws java.io.IOException, InterruptedException {
int sum = 0;
for(IntWritable value : values){
sum += value.get();
context.write(key, new IntWritable(sum)); };}public class UserCount { /**
* @param args
*/ public static void main(String[] args)throws Exception {
Configuration conf = new Configuration();
Job job = new Job(conf, "UserUid");
job.setJarByClass(UserCount.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
job.setMapperClass(UserMapper.class);
job.setReducerClass(UserReducer.class);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.waitForCompletion(true); }}
分享即可获得 1 积分
这是hadoop的wordCount程序啊,对input文件下的文档单词分类计数,你在hadoop output 文件夹下可以看到,每个单词出现的频数
你还没有登录,请先登录或注册慕课网帐号
这是MapReduce程序,是Hadoop处理数据的核心。程序有三部分组成:第一部分:Map。表示将数据进行分词处理,分隔符是制表键第二部分:Reduce。将Map的输出进行汇总,得到最后的输出。第三部分:主程序。将Map和Reduce组成一个任务job,来执行,数据的输入和输出都来至于HDFS。有问题,可以再问我。呵呵
你还没有登录,请先登录或注册慕课网帐号
直接说 什么问题
直接贴代码
你还没有登录,请先登录或注册慕课网帐号
9047人关注
Copyright (C)
All Rights Reserved | 京ICP备 号-2BH1750FVI_中文数据手册
BH1750FVI 是一种用于两线式串行总线接口的数字型光强度传感器集成电路。这种集成 电路可以根据收集的光线强度数据来调整液晶或者键盘背景灯的亮度。利用它的高分辨 率可以探测较大范围的光强度变化。
BH1750FVI_中文数据手册下载
下载资料需要,并消耗一定积分。
下载此资料的人还喜欢:
技术交流、我要发言! 发表评论可获取积分! 请遵守相关规定。
本周热点资料
电子资料热门词
上传者其它资料
传感与控制下载排行求大神帮我看下这个值钱吗,自己不太懂 谢谢!【古玩鉴定吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:136,151贴子:
求大神帮我看下这个值钱吗,自己收藏
求大神帮我看下这个值钱吗,自己不太懂 谢谢!
有人没啊。。
登录百度帐号推荐应用}

我要回帖

更多关于 建筑工程资料员手册 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信