snrg.net
当前位置:首页 >> hADoop配置出现问题 >>

hADoop配置出现问题

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs...

换了台机器,问题解决,hadoop-0.20.2-test.jar TestDFSIO 和 hadoop-0.20.2-examples.jar sort测试通过,期间又遇到了2个问题。 无法解析主机名:修改/etc/hosts(需要root权限) Name node is in safe mode:hadoop dfsadmin -safemod...

你没有安装或者配置JAVA_HOME,请查看你的/etc/profile、hadoop/conf/hadoop-env.sh等需要配置JDK的文件。 另外一种可能是你安装配置了JDK,但是没有source /etc/profile,或者source后没有退出当前shell并重新登录来刷新JDK配置。

检查xml文件,有没有不符合语法的地方,或者多弄个不起眼的符号自己没发现

配置hadoop的环境变量 vim /etc/profile export HADOOP_HOME=/home/park/work/hadoop-2.5.2/ export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin 重新加载profile使配置生效 source /etc/profile 环境变量配置完成,测试环境变量是否生效 ec...

因为hadoop 是JAVA开发的 所以 需要JDK 才能运行

参考这篇文章:http://blog.csdn.net/xiaolang85/article/details/7975618 试试看。顺便确定你的master文件中写的是localhost

那个是HDFS的数据存储目录,也就是HDFS的数据块是存在那两个目录下的,你删掉的话,数据就丢了,但如果设置了多副本的话,可能可以自动恢复,但我估计你那应该没有,你是不想要那些数据了嘛?

先输入stop-all.sh 如果出现Are you sure you want to continue connecting (yes/no)? 输入yes 然后在执行 start-dfs.sh就好了

做毕设需要用到Hadopp数据库,但是考虑到给自己的电脑中装n个虚拟机一定会使自己电脑的速度和效率变得很低,所以选择使用阿里云的云服务器来进行项目的开发。 在阿里云官网租用一个服务器(学生服务有优惠:P),创建时公共镜像选择Ubuntu14.04,...

网站首页 | 网站地图
All rights reserved Powered by www.snrg.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com