了解Hadoop的同学都知道,Hadoop有两个核心的组成部分,一个是HDFS,另一个则是MapReduce,HDFS作为Hadoop的数据存储方案,MapReduce则提供计算服务;同时,HDFS作为一种分布式文件系统,它的安装也是需要相应的格式化操作的,如果安装失败或者我们需要重新安装的时候,那我们就需要对HDFS重新进行格式化,这篇文章就和大家一起讨论下如何进行HDFS的重新格式化。
重新格式化hdfs系统的方法:
1、打开hdfs-site.xml
我们打开Hadoop的hdfs-site.xml,基本配置如下所示:
1
2
3
4
5
6
7
8
|
< property > < name >dfs.name.dir</ name > </ property > < property > < name >dfs.data.dir</ name > < value >/usr/local/hadoop/hdsf/data</ value > </ property > |
将 dfs.name.dir所指定的目录删除、dfs.data.dir所指定的目录删除,及我们需要删除hdfs-site.xml中配置的存储信息路径。
2、删除core-site.xml配置文件指定的相关目录
1
2
3
4
|
< property > < name >hadoop.tmp.dir</ name > < value >/usr/local/hadoop/hadooptmp</ value > </ property > |
将hadoop.tmp.dir所指定的目录删除,即删除Hadoop的临时文件路径。
3、重新执行命令:hadoop namenode -format
格式化完毕。
这种格式化HDFS的方式是需要把原来HDFS中的数据全部清空,然后再格式化并安装一个全新的HDFS。
注:这种格式化方式需要将HDFS中的数据全部清空,以后我们探讨不需删除数据即可重新格式化的方法。
总结
以上就是本文关于hadoop重新格式化HDFS步骤解析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅:浅谈七种常见的Hadoop和Spark项目案例等以及本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!
原文链接:http://blog.csdn.net/l1028386804/article/details/72857449