得过且过 发表于 2018-10-29 10:00:20

Hadoop学习--上传文件指定复制因子--day04

  import java.io.ByteArrayOutputStream;
  import java.io.FileInputStream;
  import java.io.FileOutputStream;
  import java.io.InputStream;
  import java.net.URL;
  import org.apache.hadoop.conf.Configuration;
  import org.apache.hadoop.fs.FSDataInputStream;
  import org.apache.hadoop.fs.FSDataOutputStream;
  import org.apache.hadoop.fs.FileStatus;
  import org.apache.hadoop.fs.FileSystem;
  import org.apache.hadoop.fs.FileUtil;
  import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
  import org.apache.hadoop.fs.Path;
  import org.apache.hadoop.io.IOUtils;
  import org.junit.Test;

  public>  @Test
  public void modirepli() throws Exception {
  // 创建configuration对象,有个默认的加载顺序,先从core-default.xml,再到src目录中的文件,这
  //里我们给定了
  Configuration conf = new Configuration();
  //修改当前文件的块大小
  conf.set("dfs.blocksize", "20480");
  // 从配置文件中得到该分布式文件系统的对象
  FileSystem fs = FileSystem.get(conf);
  //修改复制因子,其实是通过创建新的流,在上传新的数据的过程中指定了新的文件副本数的意思,并不
  //是真正修改了原有的文件副本数
  FSDataOutputStream out = fs.create(new Path("/user/hadoop/data2/kaola-copy2.jpg"), (short)2);
  IOUtils.copyBytes(new FileInputStream("E:/zhaopian.jpg"), out, 1024);
  out.close();
  }
  }

页: [1]
查看完整版本: Hadoop学习--上传文件指定复制因子--day04