设为首页 收藏本站
查看: 672|回复: 0

[经验分享] hadoop自己的例子

[复制链接]

尚未签到

发表于 2016-12-9 06:22:25 | 显示全部楼层 |阅读模式
从今天开始做一个自己的hadoop的例子,例子的目标是完成如下任务。

任务目标:
有一个informix数据库,其中有一个表有100万的数据,任务完成通过MapRed的方式将这100万数据导入到HDFS中,可以使用informix的分页sql达到并发查询数据库的目的。

任务开始:
1、编写MapRed的实现类起名称为InformixLoader。
大致代码如下
LOG.info("SqlMapper");
String url = context.getConfiguration().get("informix.url");
String[] str = value.toString().split("_");
long start = Long.parseLong(str[0]);
long length = Long.parseLong(str[1]);
Connection conn = null;
Statement st = null;
ResultSet rs = null;
String sql = "";
try {
Class.forName("com.informix.jdbc.IfxDriver");
conn = DriverManager.getConnection(url, "niosuser", "db");
st = conn.createStatement();
sql = "select skip " + start + " first " + length
+ " int_id from tpa_sts_cell_ne";
LOG.info("SqlMapper sql:" + sql);
rs = st.executeQuery(sql);
dataKey.set(value.toString());
Path file = new Path(StringUtils.unEscapeString(TMP_MAP_DIR
+ value.toString()));
FileSystem fs = file.getFileSystem(context.getConfiguration());
fs.createNewFile(file);
FSDataOutputStream output = fs.create(file);
LOG.info("SqlMapper createNewFile OK!");
while (rs.next()) {
String c1 = rs.getString(1)+"\n";
output.write(c1.getBytes());
output.flush();
}
output.close();
//fs.close();
data.set(value.toString());
context.write(dataKey, value);
LOG.info("SqlMapper OK!");
} catch (Exception e) {
throw new IOException(sql, e.fillInStackTrace());
} finally {
if (rs != null) {
try {
rs.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (st != null) {
try {
st.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (conn != null) {
try {
conn.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
}


2、编写InputFormater类
代码如下:

LOG.info("InputFormarter");
String url = context.getConfiguration().get("informix.url");
Connection conn = null;
Statement st = null;
ResultSet rs = null;
try {
Class.forName("com.informix.jdbc.IfxDriver");
conn = DriverManager.getConnection(url, "niosuser", "db");
st = conn.createStatement();
String sql = "select count(*) from tpa_sts_cell_ne";
rs = st.executeQuery(sql);
rs.next();
int count = rs.getInt(1);
List<InputSplit> splits = new ArrayList<InputSplit>();
int size = 50000;
int inv = count / size;
int last = count % size;
for (int i = 0; i < inv; i++) {
SqlSplit s = new SqlSplit(i * size, size);
splits.add(s);
}
if (last!=0){
SqlSplit s = new SqlSplit(inv * size, last);
splits.add(s);
}
return splits;
} catch (Exception e) {
throw new IOException(e.fillInStackTrace());
} finally {
if (rs != null) {
try {
rs.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (st != null) {
try {
st.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (conn != null) {
try {
conn.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
}

3、编写reducer类
大致代码如下
String keyStr = key.toString();
Path outFile = new Path(StringUtils.unEscapeString(TMP_RED_DIR
+ keyStr));
LOG.info("SqlReducer outfile:"+outFile.getName());
FileSystem outfs = outFile
.getFileSystem(context.getConfiguration());
outfs.createNewFile(outFile);
FSDataOutputStream output = outfs.create(outFile);
for (Text val : values) {
LOG.info("SqlReducer");
String str = val.toString();
LOG.info("file:"+str);
Path inputFile = new Path(StringUtils
.unEscapeString(TMP_MAP_DIR + str));
FileSystem fs = inputFile.getFileSystem(context
.getConfiguration());
FSDataInputStream input = fs.open(inputFile);
BufferedInputStream bi = new BufferedInputStream(input);
byte[] buffer=new byte[1024];
int length=bi.read(buffer);
while (length!=-1) {
if (length==1024){
output.write(buffer);
}else{
byte[] tmp=new byte[length];
for(int i=0;i<tmp.length;i++){
tmp=buffer;
}
output.write(buffer);
}
length=bi.read(buffer);
}
bi.close();
input.close();
//fs.close();
output.flush();
}
output.close();
result.set(key.toString());
context.write(key, result);

4、编写outformat类
大致代码如下:
Path outFilePath = getDefaultWorkFile(context, "");
final FileSystem fs = outFilePath.getFileSystem(context
.getConfiguration());
final FSDataOutputStream output = fs.create(outFilePath);
return new RecordWriter<Text, Text>() {
@Override
public void close(TaskAttemptContext context)
throws IOException, InterruptedException {
output.flush();
output.close();
//fs.close();
}
@Override
public void write(Text key, Text value) throws IOException,
InterruptedException {
LOG.info("RecordWriter filename:"+value.toString());
Path file = new Path(StringUtils.unEscapeString(TMP_RED_DIR
+ value.toString()));
FileSystem fs = file.getFileSystem(context
.getConfiguration());
FSDataInputStream input = fs.open(file);
BufferedInputStream bi = new BufferedInputStream(input);
byte[] buffer=new byte[1024];
int length=bi.read(buffer);
while (length!=-1) {
if (length==1024){
output.write(buffer);
}else{
byte[] tmp=new byte[length];
for(int i=0;i<tmp.length;i++){
tmp=buffer;
}
output.write(buffer);
}
length=bi.read(buffer);
}
bi.close();
input.close();
//fs.close();
}
};

5、编写启动代码
大致代码如下:
File jarFile = EJob.createTempJar("bin");
EJob.addClasspath("I:\\work\\hadoop\\hadoop\\hadoop-site.xml");
ClassLoader classLoader = EJob.getClassLoader();
Thread.currentThread().setContextClassLoader(classLoader);
args = new String[] { "/tmp/sqlloader10/" };
Configuration conf = new Configuration();
String[] otherArgs = new GenericOptionsParser(conf, args)
.getRemainingArgs();
if (otherArgs.length != 1) {
System.err.println("Usage: informixLoader <out>");
System.exit(2);
}
conf
.set("informix.url",
"jdbc:informix-sqli://10.0.2.36:8001/niosdb:INFORMIXSERVER=niosserver");
Job job = new Job(conf, "informix loader");
// And add this statement. XXX
((JobConf) job.getConfiguration()).setJar(jarFile.toString());
job.setInputFormatClass(InputFormarter.class);
job.setJarByClass(InformixLoader.class);
job.setMapperClass(SqlMapper.class);
job.setReducerClass(SqlReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);
job.setOutputFormatClass(OutputFormater.class);
// FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
FileOutputFormat.setOutputPath(job, new Path(otherArgs[0]));
System.exit(job.waitForCompletion(true) ? 0 : 1);

5、详细分析后续说明

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-311507-1-1.html 上篇帖子: Hadoop源代码分析(二四) 下篇帖子: Hadoop简单的Map/Reduce
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表