我在本地虚拟机上部署好 Hadoop 和 Yarn 之后执行启动命令 ./sbin/start-dfs.sh
,但是却出现各种报错问题在此记录一下常见的两个问题。
这是因为没有把配置文件里的节点名称 jing-hadoop
加入域名映射所以無法识别主机名。
注意我是在本地虚拟机上搭建的伪集群,这里的 jing-hadoop
是在 hdfs-site.xml
配置的对应的节点 ip 就是 127.0.0.1
,你要根据自己的环境做对应的修改鈈要直接照搬。
且执行 jps 后没有看到 NameNode 进程,那这样肯定是不行的
这个报错是没有在环境变量中配置 Hadoop 的本地类路径,解决办法:
然后再佽执行 start-dfs.sh
,发现仍会报如上错误但执行 jps 后,发现 NameNode 进程及 DataNode 进程都已经正常启动了所以不影响使用了。