Hadoop大数据教程:基于Java API实现的编译
来源:优技培训(CUUG)
Hadoop大数据教程:基于Java API实现的编译,如果用户使用Eclipse开发,则需要导入hadoop-core-x.y.x.jar核心包,由于Eclipse会自动编译,则直接使用export功能导出词频统计的jar包即可;如果使用Linux中的vim开发,则应使用下面的方法进行编译并打包。
在上节Java实现中有三个类:WordcountMapper.java、WordcountReducer.java、MyWordCount.java,用户的当前工作目录只有这三个Java文件,则编译脚本如下:
#!/bin/bash
#编译并打包单词统计MapReduce程序
HADOOP_VERSION=1.0.4
HADOOP_HOME=/home/nuoline/Hadoop-$HADOOP_VERSION
LIB=${HADOOP_HOME}/Hadoop-core-${HADOOP_VERSION}.jar
mkdir wordcount
javac –cp $LIB –d wordcount *.java
jar -cvf /usr/nuoline/wordcount.jar -C wordcount/
在该脚本中的HADOOP_HOME是Hadoop的安装目录,LIB是词频统计的依赖库,只需要Hadoop-core-${HADOOP_VERSION}.jar核心包就可以。执行上述脚本就可以编译并打包词频统计程序。
精华阅读