Hadoop出现DataXceiver error processing WRITE_BLOCK operation
  TEZNKK3IfmPf 2023年11月12日 19 0

Hadoop出现DataXceiver error processing WRITE_BLOCK operation

字面理解为文件操作超租期,实际上就是data stream操作过程中文件被删掉了。以前也遇到过,通常是因为Mapred多个task操作同一个文件,一个task完成后删掉文件导致。

修改
1、datanode所在的linux服务器提高文件句柄参数;

2、增加DataNode句柄参数:dfs.datanode.max.transfer.threads

修改hdfs-site.xml

<property>
<name>dfs.datanode.max.transfer.threads</name>
<value>8192</value>
</property>

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月12日 0

暂无评论

推荐阅读
  TEZNKK3IfmPf   2024年05月31日   51   0   0 linux服务器
  TEZNKK3IfmPf   2024年05月31日   29   0   0 linux服务器centos
  TEZNKK3IfmPf   2024年05月31日   29   0   0 linuxbind
  TEZNKK3IfmPf   2024年05月31日   39   0   0 linuxshell
TEZNKK3IfmPf