iszjw 发表于 2018-10-31 08:51:38

hadoop中MapReduce多种join实现实例分析

package com.mr.reduceSizeJoin;  
import java.io.IOException;
  
import java.util.ArrayList;
  
import org.apache.hadoop.conf.Configuration;
  
import org.apache.hadoop.conf.Configured;
  
import org.apache.hadoop.fs.Path;
  
import org.apache.hadoop.io.Text;
  
import org.apache.hadoop.mapreduce.Job;
  
import org.apache.hadoop.mapreduce.Mapper;
  
import org.apache.hadoop.mapreduce.Reducer;
  
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  
import org.apache.hadoop.mapreduce.lib.input.FileSplit;
  
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
  
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
  
import org.apache.hadoop.util.Tool;
  
import org.apache.hadoop.util.ToolRunner;
  
import org.slf4j.Logger;
  
import org.slf4j.LoggerFactory;
  
/**
  
* @author zengzhaozheng
  
* 用途说明:
  
* reudce side join中的left outer join
  
* 左连接,两个文件分别代表2个表,连接字段table1的id字段和table2的cityID字段
  
* table1(左表):tb_dim_city(id int,name string,orderid int,city_code,is_show)
  
* tb_dim_city.dat文件内容,分隔符为"|":
  
* id   nameorderidcity_codeis_show
  
* 0       其他      9999   9999         0
  
* 1       长春      1      901          1
  
* 2       吉林      2      902          1
  
* 3       四平      3      903          1
  
* 4       松原      4      904          1
  
* 5       通化      5      905          1
  
* 6       辽源      6      906          1
  
* 7       白城      7      907          1
  
* 8       白山      8      908          1
  
* 9       延吉      9      909          1
  
* -------------------------风骚的分割线-------------------------------
  
* table2(右表):tb_user_profiles(userID int,userName string,network string,double flow,cityID int)
  
* tb_user_profiles.dat文件内容,分隔符为"|":
  
* userID   network   flow    cityID
  
* 1         2G       123      1
  
* 2         3G       333      2
  
* 3         3G       555      1
  
* 4         2G       777      3
  
* 5         3G       666      4
  
*
  
* -------------------------风骚的分割线-------------------------------
  
*结果:
  
*1   长春1   901 1   1   2G123
  
*1   长春1   901 1   3   3G555
  
*2   吉林2   902 1   2   3G333
  
*3   四平3   903 1   4   2G777
  
*4   松原4   904 1   5   3G666
  
*/
  
public class ReduceSideJoin_LeftOuterJoin extends Configured implements Tool{
  
    private static final Logger logger = LoggerFactory.getLogger(ReduceSideJoin_LeftOuterJoin.class);
  
    public static class LeftOutJoinMapper extends Mapper {
  
      private CombineValues combineValues = new CombineValues();
  
      private Text flag = new Text();
  
      private Text joinKey = new Text();
  
      private Text secondPart = new Text();
  
      @Override
  
      protected void map(Object key, Text value, Context context)
  
                throws IOException, InterruptedException {
  
            //获得文件输入路径
  
            String pathName = ((FileSplit) context.getInputSplit()).getPath().toString();
  
            //数据来自tb_dim_city.dat文件,标志即为"0"
  
            if(pathName.endsWith("tb_dim_city.dat")){
  
                String[] valueItems = value.toString().split("\\|");
  
                //过滤格式错误的记录
  
                if(valueItems.length != 5){
  
                  return;
  
                }
  
                flag.set("0");
  
                joinKey.set(valueItems);
  
                secondPart.set(valueItems+"\t"+valueItems+"\t"+valueItems+"\t"+valueItems);
  
                combineValues.setFlag(flag);
  
                combineValues.setJoinKey(joinKey);
  
                combineValues.setSecondPart(secondPart);
  
                context.write(combineValues.getJoinKey(), combineValues);
  

  
            }//数据来自于tb_user_profiles.dat,标志即为"1"
  
            else if(pathName.endsWith("tb_user_profiles.dat")){
  
                String[] valueItems = value.toString().split("\\|");
  
                //过滤格式错误的记录
  
                if(valueItems.length != 4){
  
                  return;
  
                }
  
                flag.set("1");
  
                joinKey.set(valueItems);
  
                secondPart.set(valueItems+"\t"+valueItems+"\t"+valueItems);
  
                combineValues.setFlag(flag);
  
                combineValues.setJoinKey(joinKey);
  
                combineValues.setSecondPart(secondPart);
  
                context.write(combineValues.getJoinKey(), combineValues);
  
            }
  
      }
  
    }
  
    public static class LeftOutJoinReducer extends Reducer {
  
      //存储一个分组中的左表信息
  
      private ArrayList leftTable = new ArrayList();
  
      //存储一个分组中的右表信息
  
      private ArrayList rightTable = new ArrayList();
  
      private Text secondPar = null;
  
      private Text output = new Text();
  
      /**
  
         * 一个分组调用一次reduce函数
  
         */
  
      @Override
  
      protected void reduce(Text key, Iterable value, Context context)
  
                throws IOException, InterruptedException {
  
            leftTable.clear();
  
            rightTable.clear();
  
            /**
  
             * 将分组中的元素按照文件分别进行存放
  
             * 这种方法要注意的问题:
  
             * 如果一个分组内的元素太多的话,可能会导致在reduce阶段出现OOM,
  
             * 在处理分布式问题之前最好先了解数据的分布情况,根据不同的分布采取最
  
             * 适当的处理方法,这样可以有效的防止导致OOM和数据过度倾斜问题。
  
             */
  
            for(CombineValues cv : value){
  
                secondPar = new Text(cv.getSecondPart().toString());
  
                //左表tb_dim_city
  
                if("0".equals(cv.getFlag().toString().trim())){
  
                  leftTable.add(secondPar);
  
                }
  
                //右表tb_user_profiles
  
                else if("1".equals(cv.getFlag().toString().trim())){
  
                  rightTable.add(secondPar);
  
                }
  
            }
  
            logger.info("tb_dim_city:"+leftTable.toString());
  
            logger.info("tb_user_profiles:"+rightTable.toString());
  
            for(Text leftPart : leftTable){
  
                for(Text rightPart : rightTable){
  
                  output.set(leftPart+ "\t" + rightPart);
  
                  context.write(key, output);
  
                }
  
            }
  
      }
  
    }
  
    @Override
  
    public int run(String[] args) throws Exception {
  
          Configuration conf=getConf(); //获得配置文件对象
  
            Job job=new Job(conf,"LeftOutJoinMR");
  
            job.setJarByClass(ReduceSideJoin_LeftOuterJoin.class);
  

  
            FileInputFormat.addInputPath(job, new Path(args)); //设置map输入文件路径
  
            FileOutputFormat.setOutputPath(job, new Path(args)); //设置reduce输出文件路径
  

  
            job.setMapperClass(LeftOutJoinMapper.class);
  
            job.setReducerClass(LeftOutJoinReducer.class);
  

  
            job.setInputFormatClass(TextInputFormat.class); //设置文件输入格式
  
            job.setOutputFormatClass(TextOutputFormat.class);//使用默认的output格式
  

  
            //设置map的输出key和value类型
  
            job.setMapOutputKeyClass(Text.class);
  
            job.setMapOutputValueClass(CombineValues.class);
  

  
            //设置reduce的输出key和value类型
  
            job.setOutputKeyClass(Text.class);
  
            job.setOutputValueClass(Text.class);
  
            job.waitForCompletion(true);
  
            return job.isSuccessful()?0:1;
  
    }
  
    public static void main(String[] args) throws IOException,
  
            ClassNotFoundException, InterruptedException {
  
      try {
  
            int returnCode =ToolRunner.run(new ReduceSideJoin_LeftOuterJoin(),args);
  
            System.exit(returnCode);
  
      } catch (Exception e) {
  
            // TODO Auto-generated catch block
  
            logger.error(e.getMessage());
  
      }
  
    }
  
}


页: [1]
查看完整版本: hadoop中MapReduce多种join实现实例分析