Hadoop 安装及目录结构
优质博文IT-BLOG-CN
一、准备工作
【1】创建用户: useradd
用户名
【2】配置创建的用户具有root
权限,修改/etc/sudoers
文件,找到下面一行,在root
下面添加一行,如下所示:(注意:需要先给sudoer
文件赋权限,修改完会后,将权限修改回来)修改完毕,现在可以用创建的帐号登录,然后用命令su -
,即可获得root
权限进行操作。
## Allow root to run any commands anywhereroot ALL=(ALL) ALL创建的用户 ALL=(ALL) ALL
【3】在/opt
目录下创建module
、software
文件夹,同时修改文件的所有者 sudo chmod 777
文件地址。
sudo mkdir modulesudo mkdir software
二、下载地址
下载地址
解压:tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/
三、配置环境变量
【1】查看Hadoop
解压目录
[zzx@localhost hadoop-2.7.2-src]$ pwd/opt/module/hadoop-2.7.2-src
【2】打开/etc/profile
[zzx@localhost etc]$ sudo vi profile
【3】在文件中添加Hadoop
的环境变量
##HADOOP_HOMEexport HADOOP_HOME=/opt/module/hadoop-2.7.2export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin
【4】重启配置文件,让修改的配置文件生效
[root@localhost etc]# source /etc/profile
【5】测试是否安装成功(如果Hadoop
命令不生效就重启试试reboot
)
[root@localhost soft]# hadoop versionHadoop 2.7.2Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b165c4fe8a74265c792ce23f546c64604acf0e41Compiled by jenkins on 2016-01-26T00:08ZCompiled with protoc 2.5.0From source with checksum d0fda26633fa762bff87ec759ebe689cThis command was run using /opt/module/hadoop-2.7.2/share/hadoop/common/hadoop-common-2.7.2.jar
四、可能会遇见的问题
【问题描述】Error: JAVA_HOME is not set and could not be found.
【解决办法】在安装目录下/etc/hadoop/
下,找到hadoop-env.sh
#将下面的 $JAVA_HOME 修改为绝对路径,下面一行为默认的,错误展示export JAVA_HOME=$JAVA_HOME #修改后的正确展示 export JAVA_HOME=/usr/local/soft/jdk8
五、Hadoop目录结构
【1】查看Hadoop
目录结构
[root@localhost hadoop-2.7.2]# ll总用量 28drwxr-xr-x. 2 10011 10011 194 1月 26 2016 bindrwxr-xr-x. 3 10011 10011 20 1月 26 2016 etcdrwxr-xr-x. 2 10011 10011 106 1月 26 2016 includedrwxr-xr-x. 3 10011 10011 20 1月 26 2016 libdrwxr-xr-x. 2 10011 10011 239 1月 26 2016 libexec-rw-r--r--. 1 10011 10011 15429 1月 26 2016 LICENSE.txt-rw-r--r--. 1 10011 10011 101 1月 26 2016 NOTICE.txt-rw-r--r--. 1 10011 10011 1366 1月 26 2016 README.txtdrwxr-xr-x. 2 10011 10011 4096 1月 26 2016 sbindrwxr-xr-x. 4 10011 10011 31 1月 26 2016 share
【2】重要目录:
◕‿-。 bin
目录: 存放对Hadoop
相关服务(HDFS
,YARN
)进行操作的脚本,里面常用的就是hadoop
这个配置;
。◕‿◕。 etc
目录: Hadoop
的配置文件目录,存放Hadoop
的配置文件。后期会修改大量配置文件;
◕‿-。 lib
目录: 存放Hadoop
的本地库(对数据进行压缩解压缩功能);
。◕‿◕。 sbin
目录: 存放启动或停止Hadoop
相关服务的脚本,很重要;
◕‿-。 share
目录: 存放Hadoop
的依赖jar
包、文档、和官方案例;
六、启动 HDFS并运行 MapReduce程序
【1】配置: hadoop-env.sh
:在etc/hadoop/hadoop-en.sh
修改JAVA_HOME
路径为JDK
的绝对路径。
export JAVA_HOME=/usr/local/soft/jdk8
【2】配置: core-site.xml
:hadoop01
需要配置hosts
映射,存储系统会自动创建
<property><name>fs.defaultFS</name> <value>hdfs://hadoop1:9000</value