单节点Hadoop环境搭建(学习笔记(自学用),勿喷)

1.下载VMware

2.下载CentOs镜像

 阿里云站点:阿里云开源镜像站资源目录

CentOS-7-x86_64-Minimal-1708.iso 精简版,自带的软件最少

3.安装镜像

4.安装ping命令相关包

yum install -y iputils时发现报错

a)ip addr 命令查自己的网卡

b)cd /etc/sysconfig/network-scripts

c)ls 找到自己的网卡

d)vi 自己的网卡    ONBOOT改为yes

e)systemctl restart Network 重启网络后再安装 不再报错

5.ssh客户端使用Xshell

6.修改ip地址

a)ifconfig查看ip地址 报错: yum install -y net-tools

b)route -n查看gateway

c)vi /etc/sysconfig/network-scripts/ifcfg-ens33 编辑静态ip

IPADDR=192.168.204.128
NETMASK=255.255.255.0
GATEWAY=192.168.204.2
DNS1=119.29.29.29
DNS2=8.8.8.8

 7.关闭防火墙 

systemctl stop firewalld.service  systemctl disable firewalld.service(永久关闭)

 查看状态systemctl status firewalld.service

8.禁用selinux   

vi /etc/selinux/config

 9.设置主机名 

hostnamectl set-hostname hadoop

10.主机映射 

vim /etc/hosts  

11.配置免密登录

 a)生成密钥 ssh-keygen

b)发送密钥ssh-copy-id hadoop(主机名) 本机也需要发送

12.安装jdk

通过Xftp

tar -zxvf 压缩包名解压 到自定义目录/usr/java

修改环境变量 vi /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_131
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

使环境变量生效 source /etc/profile

java -version验证环境变量

13.安装hadoop

Index of /dist/hadoop/corehttp://archive.apache.org/dist/hadoop/core/下载hadoop包

tar -zxvf 压缩包名解压 到自定义目录/usr/hadoop

修改配置文件  所有都在{HadoopHome}/etc/hadoop

a)hadoop-env.sh

       

b)  core-site.xml

核心配置文件

见hadoop官网文档

fs.defaultFS主节点配置名称

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

  此处设置为主节点的主机名

​
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop:9000</value>
    </property>
</configuration>

​

c)  hdfs-site.xml

dfs.replication副本个数 根据节点个数来

见hadoop官网文档

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

d)  yarn-site.xml 资源调度

见hadoop官网文档

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

e) mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

见hadoop官网文档

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

f)配置环境变量

 hadoop version 验证hadoop环境变量

g)配置slaves

vi slaves

改为本机主机名  hadoop

h)环境格式化 

bin/hdfs namenode -format

i)启动

sbin目录下 start-all.sh

j)验证 

jps

页面验证

hdfs: namenode的ip:50070

yarn: resourcemanager的ip:8088


版权声明:本文为huang361964533原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。