hadoop 安装

2022-10-17,

hadoop 开源软件,可靠的、分布式、可伸缩的框架。

分布在不同主机上的进程协同在一起构成的应用。

大数据解决了两个问题
----------------------

1t = 1024g
1p = 1024t
1e = 1024p
1z = 1024e
1y = 1024z
1n = 1024y

1.存储
  分布式存储
2.计算
  分布式计算
分布式
----------------------
由分布在不同主机上的进程协同在一起,才能构成整个应用。

b/s
-----------
  browser / http server:瘦客户端.

failure over //容灾
fault over    //容错

大数据的四个v特征
-----------------
1.volume //体量大
2.variety //样式多.
3.velocity //速度快
4.valueless //价值密度低

hadoop四个模块
-------------------
1.common
2.hdfs
3.hadoop yarn
4.hadooop mapreduce(mr)

1.安装jdk 大同小异 
a)下载jdk-8u65-linux-x64.tar.gz
b)tar开
$>su centos ; cd ~
$>mkdir downloads
$>cp /mnt/hdfs/downloads/bigdata/jdk-8u65-linux-x64.tar.gz ~/downlooads
$>tar -xzvf jdk-8u65-linux-x64.tar.gz
c)创建/soft文件夹
$>sudo mkdir /soft
$>sudo chown centos:centos /soft
d)移动tar开的文件到/soft下
$>mv ~/downloads/jdk-1.8.0_65 /soft/
e)创建符号连接
$>ln -s /soft/jdk-1.8.0_65 /soft/jdk
f)验证jdk安装是否成功
$>cd /soft/jdk/bin
$>./java -version

centos配置环境变量
------------------------
1.编辑/etc/profile
$>sudo nano /etc/profile
...
export java_home=/soft/jdk
exprot path=$path:$java_home/bin
2.使环境变量即刻生效
$>source /etc/profile

3.进入任意目录下,测试是否ok
$>cd ~
$>java -version

 

安装hadoop

下载 

1.安装hadoop
a)下载hadoop-2.7.3.tar.gz
b)tar开
$>su centos ; cd ~
$>cp /mnt/hdfs/downloads/bigdata/hadoop-2.7.3.tar.gz ~/downloads
$>tar -xzvf hadoop-2.7.3.tar.gz
c)无
d)移动tar开的文件到/soft下
$>mv ~/downloads/hadoop-2.7.3 /soft/
e)创建符号连接
$>ln -s /soft/hadoop-2.7.3 /soft/hadoop
f)验证jdk安装是否成功
$>cd /soft/hadoop/bin
$>./hadoop version

hadoop 查看版本没有 '-'  只需要 ./hadoop version

2.配置hadoop环境变量
$>sudo nano /etc/profile
...
export java_home=/soft/jdk
exprot path=$path:$java_home/bin

export hadoop_home=/soft/hadoop
export path=$path:$hadoop_home/bin:$hadoop_home/sbin

3.生效
$>source /etc/profile

配置hadoop 本人本地是客户端也是服务端在一台机器上 配置免密登录时可体现

独立模式下

1.standalone(local)
nothing !
不需要启用单独的hadoop进程。

/usr/local/hadoop/hadoop-2.7.3/bin  hdfs dfs -ls /

 

伪分布模式。

2.pseudodistributed mode

a)进入${hadoop_home}/etc/hadoop目录
b)编辑core-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>fs.defaultfs</name>
<value>hdfs://localhost/</value>
</property>
</configuration>
c)编辑hdfs-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
d)编辑mapred-site.xml
注意:cp mapred-site.xml.template mapred-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
e)编辑yarn-site.xml
<?xml version="1.0"?>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

 

f)配置ssh
1)检查是否安装了ssh相关软件包(openssh-server + openssh-clients + openssh)
$yum list installed | grep ssh

2)检查是否启动了sshd进程
$>ps -af | grep sshd

3)在client侧生成公私秘钥对。
$>ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa

4)生成~/.ssh文件夹,里面有id_rsa(私钥) + id_rsa.pub(公钥)

5)追加公钥到~/.ssh/authorized_keys文件中(文件名、位置固定)
$>cd ~/.ssh
$>cat id_rsa.pub >> authorized_keys

 

如果有.ssh可删除 重新生成

 

 

 

 

6)测试
$>ssh localhost
注意:第一次需要输入密码  再次登陆如果登陆不进去 修改目录权限 为644
7)修改authorized_keys的权限为644.
$>chmod 644 authorized_keys

 

《hadoop 安装.doc》

下载本文的Word格式文档,以方便收藏与打印。