CentOS 7.4安装及Hadoop伪分布式配置(虚拟机:VMware)
准备VMware虚拟机安装CentOs 7.4虚拟机创建CentOS 7.4安装网络配置JDK配置Hadoop伪分布式安装配置安装Hadoopcore-site.xmlhdfs-site.xml格式化namenode并启动hadoop准备
VMware 版本:14.1.3 build-9474260CentOS7:CentOS-7-x86_64-DVD-.isoJDK:jdk-8u231-linux-x64.tar.gzHadoop:hadoop-2.6.0.tar.gzVMware虚拟机安装CentOs 7.4
虚拟机创建
打开VMware界面如下:
点击屏幕中创建新的虚拟机按钮
选择“典型”按下一步
下一步,客户机操作系统选择Linux,版本选择CentOS7.4 64位
下一步,自己给虚拟机起个名字,选择虚拟机的存放位置
下一步,指定磁盘大小,官方建议20G,我这里不做改动,大家自行决定大小,选择将虚拟磁盘拆分成多个文件
下一步,点自定义硬件
可将声卡移除也可保留,自己选择
自行指定内存和处理器。
点击网络适配器,右侧网络连接选自定义,下拉菜单选VMnet8(NAT模式)
最后关闭
点击完成创建虚拟机,创建好后如下
点击编辑此虚拟机配置,进行如图操作,将下载好的iso文件导入
CentOS 7.4安装
开启虚拟机,出现如下画面,选择第一个按回车等待一会,进入如下画面,左侧下拉选择中文,点击继续
进入如下画面
点击安装位置,可不改动,点击完成即可
点击软件选择,进入如下画面,选带GUI的服务器选项,不需要桌面的可不进行这一步,有其他需求的请自行选择,选完点击完成
点击网络和主机名,进入如下界面,将网络连接按钮打开,修改主机名并应用(可选)点击完成
点击开始安装,设置root用户密码,创建普通用户
设置root用户密码,可不遵循密码规则,点击两次完成即可
创建用户亦可不遵循密码规则,点击两次完成即可
安装完后点击重启
6.点击第一个,同意许可,并完成配置
网络配置
控制面板\网络和 Internet\网络连接 右击VMnet8 点击属性双击IPV4
选择使用下面IP地址选项
在VMware点编辑下的虚拟网络编辑器,再点右下角的更改设置
选择NAT模式,点击NAT设置
将网关和子网掩码填入IPV4属性中
如下图DNS与网关相同IP地址前三个与网关相同最后一个在DHCP设置中起始与结束IP范围内
如图我这里的范围是128-254,则我设置IP为192.168.40.130
3. root 登录,修改/etc/sysconfig/network-scripts/ifcfg-ens33
有的可能不是这个文件,可能是其他名字
vim /etc/sysconfig/network-scripts/ifcfg-ens33
打开文件,如图所示
将BOOTPROTO="dhcp"
改为BOOTPROTO="static"
在文件末尾添加
IPADDR=192.168.40.128 # 设置IPNETMASK=255.255.255.0 # 子网掩码GATEWAY=192.168.40.2 # 设置网关DNS1=192.168.40.2 #和网关保持一致就行
修改完,如下
4. 重启服务service network restart
,出现如图所示表示成功
5. ping 百度、主机,再从主机ping虚拟机看是否能ping通,ping通了则说明配置成功,反之则失败,至于为什么失败了,请自行百度。
JDK配置
从主机复制jdk-8u231-linux-x64.tar.gz
到虚拟机内,我直接复制到了主目录在 usr 目录下创建文件夹javamkdir /usr/java
非root用户前面加sudosudo mkdir /usr/java
将jdk-8u231-linux-x64.tar.gz
解压到java目录下tar -zxvf jdk-8u231-linux-x64.tar.gz -C /usr/java/
配置环境变量vim /etc/profile
在末尾添加如下代码export JAVA_HOME=/usr/java/jdk1.8.0_231 #jdk解压后目录export JRE_HOME=/usr/java/jdk1.8.0_231/jre #jdk目录下的jre目录export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
输入source /etc/profile
使配置文件重新生效配置环境变量vim ~/.bashrc
在末尾添加如下代码
export JAVA_HOME=/usr/java/jdk1.8.0_231 #jdk解压后目录export JRE_HOME=/usr/java/jdk1.8.0_231/jre #jdk目录下的jre目录export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
输入source ~/.bashrc
使配置文件重新生效输入java -version
出现如下画面则说明jdk配置成功
Hadoop伪分布式安装配置
安装Hadoop
将hadoop安装包复制进虚拟机,并解压到/usr/local/
目录下tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local/
为方便后续操作将目录改名为hadoopmv hadoop-2.6.0/ hadoop
普通用户则需更改目录权限sudo chown -R hadoop ./hadoop
配置环境变量vim /etc/profile
在末尾添加如下代码export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
输入source /etc/profile使配置文件重新生效输入hadoop
出现如下图,则说明配置成功
core-site.xml
vim /usr/local/hadoop/etc/hadoop/core-site.xml
打开core-site.xml
文件如图所示
在configuration标签中插入如下代码
<configuration><property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value><description>Abase for other temporary directories.</description></property><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property></configuration>
1.hadoop.tmp.dir:设置临时目录,若不设置,hadoop退出就会清空默认的临时目录,下次启动就需要重新初始化。该临时目录自定义,事先可以不存在
2. fs.defaultFS:hdfs路径的逻辑名称。在访问hdfs时需要使用。注意此处用的时localhost,即只能通过本机访问,若要实现远程访问,需要把localhost置为IP。例如:hdfs://192.168.0.105:9000
hdfs-site.xml
vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
在configuration标签中插入如下代码<configuration><property><name>dfs.replication</name> <value>1</value></property><property><name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value></property><property><name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value></property></configuration>
dfs.replication 表示副本数量,伪分布式设置为1dfs.namenode.name.dir 本地磁盘目录,是存储fsimage文件的地方dfs.datanode.data.dir 是一个本地磁盘目录,HDFS数据存放block的地方
格式化namenode并启动hadoop
输入./bin/hdfs namenode -format
格式化namenode,除非出错,否则不要重新格式化启动hadoop集群,输入start-all.sh
输入jps
出现下图6个进程说明hadoop伪分布式配置成功输入hdfs dfs -mkdir -p /user/hadoop
创建hdfs用户目录
*转载请注明出处,文中有不正确处欢迎评论中指出*