【hadoop】 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode

2270阅读 0评论2013-06-26 ykyx00
分类:LINUX

hdfs启动后,有个datanode没启动起来,报错: ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: org.apache.hadoop.util.DiskChecker$DiskErrorException: Invalid value for validVolsRequired : 0 , Current valid volumes: 3


主要原因是因为dfs.datanode.failed.volumes.tolerated 参数配置了3,

这个参数的含义:The number of volumes that are allowed to fail before a datanode stops offering service. By default any volume failure will cause a datanode to shutdown.

 

datanode允许磁盘损坏的个数 ,datanode在启动时候会使用dfs.data.dir下配置的文件夹(用于存储block的),若是有一些不可以用且个数>上面配置的那个 值,这启动失败

上一篇:【KVM】error: Unable to read from monitor: Connection reset by peer
下一篇:【hadoop】Java HotSpot(TM) 64-Bit Server VM warning