博客
关于我
Hadoop是小象——Hadoop集群安装配置
阅读量:171 次
发布时间:2019-02-26

本文共 2510 字,大约阅读时间需要 8 分钟。

Hadoop集群安装配置指南

环境准备

在开始Hadoop安装之前,首先需要确保环境配置正确。以下是我们需要完成的主要步骤:

1. 安装所需软件

Java安装

  • 必须安装JavaTM 1.5.x。建议使用Sun公司发行的Java版本。

SSH配置

  • 已安装OpenSSH(CentOS默认安装),确保sshd服务正常运行。

2. 集群网络配置

集群网络环境配置如下:

  • Master节点内网IP:192.168.235.131
  • Slave1内网IP:192.168.235.132
  • Slave2内网IP:192.168.235.133

网络问题解决

  • 克隆虚拟机时,需手动修改MAC地址并重新分配IP地址,避免网络冲突。

3. SSH免密登录设置

Host文件配置

  • /etc/hosts文件尾部添加以下内容:
    192.168.235.131 master192.168.235.132 slave1192.168.235.133 slave2
  • 确保所有节点均正确解析。

Hostname修改

  • 修改每个节点的hostname,例如(以Master节点为例):
    sudo hostnamectl set-hostname master
  • 重启终端后,执行$hostname验证配置。

SSH免密登录

  • 在Master节点生成RSA密钥,并将其添加到Slave节点的~/.ssh/authorized_keys文件中。
    ssh-keygen -t rsa
  • 传输密钥文件:
    scp ~/.ssh/id_rsa.pub root@slave1:~scp ~/.ssh/id_rsa.pub root@slave2:~
  • 在Slave节点添加密钥并设置权限:
    chmod 600 ~/.ssh/authorized_keys

4. Hadoop安装

Hadoop源码下载

  • 使用wget下载Hadoop二进制源码:
    wget http://mirror.apache.org/hadoop/core/hadoop-2.8.5.tar.gz
  • 解压文件并进入目录:
    tar -zxvf hadoop-2.8.5.tar.gz

Hadoop配置

Master节点配置文件
  • 修改core-site.xml
    vim ~/hadoop/etc/hadoop/core-site.xml

    配置内容如下:

    fs.default.name
    hdfs://master:9000
    hadoop.tmp.dir
    file:/home/leesanghyuk/hadoop-2.8.5/hadoop/tmp
  • 类似地修改hdfs-site.xmlmapred-site.xmlyarn-site.xml等配置文件。
Slave节点配置
  • 将Hadoop文件传输到Slave节点并解压:
    scp -r ~/hadoop root@slave1:~scp -r ~/hadoop root@slave2:~

环境变量配置

  • 修改/etc/profile文件:
    vi /etc/profile

    添加以下内容:

    # Hadoop环境变量配置export HADOOP_HOME=/home/leesanghyuk/hadoop-2.8.5export HADOOP_INSTALL=$HADOOP_HOMEexport HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  • 使配置生效:
    source /etc/profile

5. Hadoop启动

格式化NameNode

  • 格式化namenode:
    hadoop namenode -format
  • 启动Hadoop集群:
    start-all.sh

验证集群状态

  • 查看进程:
    jps
  • 确认Hadoop服务运行状态。

6. Hadoop集群测试

创建测试文件

  • 生成测试文件:
    echo "My name is LeesangHyuk. This is a example program called WordCount, run by LeesangHyuk " > testWordCount
  • 创建输入目录并上传文件:
    hadoop fs -mkdir /wordCountInputhadoop fs -put testWordCount /wordCountInput

执行WordCount程序

  • 运行MapReduce程序:
    hadoop jar ~/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar wordcount /wordCountInput /wordCountOutput
  • 查看输出结果:
    hadoop fs -ls /wordCountOutputhadoop fs -cat /wordCountOutput/part-r-00000

注意事项

  • 确保所有节点的防火墙和SELinux设置已关闭。
  • Hadoop的日志聚合和资源管理配置需根据实际负载进行优化。
  • 定期检查节点状态和网络连接,确保集群稳定运行。

通过以上步骤,可以实现一个功能正常的Hadoop集群环境,满足大数据处理和分析需求。

转载地址:http://dqak.baihongyu.com/

你可能感兴趣的文章
ny540 奇怪的排序 简单题
查看>>
NYOJ -216 A problem is easy
查看>>
NYOJ 1066 CO-PRIME(数论)
查看>>
NYOJ 737:石子合并(一)(区间dp)
查看>>
nyoj 91 阶乘之和(贪心)
查看>>
nyoj------203三国志
查看>>
NYOJ-525 一道水题
查看>>
NYOJ127星际之门(一)
查看>>
nyoj58 最少步数
查看>>
N皇后问题
查看>>
N皇后问题
查看>>
n种方式教你用python读写excel等数据文件
查看>>
OAuth 2.0 MAC Tokens
查看>>
OAuth 及 移动端鉴权调研
查看>>
OAuth2 + Gateway统一认证一步步实现(公司项目能直接使用),密码模式&授权码模式
查看>>
OAuth2 Provider 项目常见问题解决方案
查看>>
OAuth2 vs JWT,到底怎么选?
查看>>
Vue.js 学习总结(14)—— Vue3 为什么推荐使用 ref 而不是 reactive
查看>>
oauth2-shiro 添加 redis 实现版本
查看>>
OAuth2.0_JWT令牌-生成令牌和校验令牌_Spring Security OAuth2.0认证授权---springcloud工作笔记148
查看>>