博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop2.7实战v1.0之JVM参数调优
阅读量:6273 次
发布时间:2019-06-22

本文共 982 字,大约阅读时间需要 3 分钟。

Hadoop正式上线之前,首先要调整的是各个进程的JVM参数设置,特别是对于HDFS Namenode来说。

HDFS的JVM参数配置文件: hadoop-env.sh 

Namenode进程的JVM配置: HADOOP_NAMENODE_OPTS

Datanode进程的JVM配置: HADOOP_DATANODE_OPTS
client命令行的JVM配置: HADOOP_CLIENT_OPTS
对于Namenode而言, 由于元数据存储\操作都在内存中,所以Namenode JVM要根据集群规模设置,通常情况下换算公式为:

在HDFS中,任何block,文件或者目录在内存中均以对象的形式存储,每个对象约占150byte,如果有1000 0000个小文件,每个文件占用一个block,则namenode需要2G空间。如果存储1亿个文件,则namenode需要20G空间。这样namenode内存容量严重制约了集群的扩展。

Apache Hadoop JVM配置($HADOOP_HOME/etc/hadoop/hadoop-env.sh):

export HADOOP_NAMENODE_OPTS="-Dhadoop.security.logger=${HADOOP_SECURITY_LOGGER:-INFO,RFAS} -Dhdfs.audit.logger=${HDFS_AUDIT_LOGGER:-INFO,NullAppender} $HADOOP_NAMENODE_OPTS -Xmx2048M

export HADOOP_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS $HADOOP_DATANODE_OPTS -Xmx2048M"
-Xmx标识进程使用最大的内存大小

CDH4/5 JVM配置(通过web ):
进入CDH4/5--》hdfs1/hdfs--》配置tab--》搜索"堆栈"关键字,
修改 namenode,datanode,journalnode,failover controller的java进程堆栈最大大小,保存,再重启集群生效.
namenode:8G
datanode:7G
journalnode:512M
failover controller:512M

转载地址:http://mfmpa.baihongyu.com/

你可能感兴趣的文章
input checkbox 复选框大小修改
查看>>
网吧维护工具
查看>>
BOOT.INI文件参数
查看>>
vmstat详解
查看>>
新年第一镖
查看>>
unbtu使用笔记
查看>>
OEA 中 WPF 树型表格虚拟化设计方案
查看>>
Android程序开发初级教程(一) 开始 Hello Android
查看>>
使用Gradle打RPM包
查看>>
“我意识到”的意义
查看>>
淘宝天猫上新辅助工具-新品填表
查看>>
再学 GDI+[43]: 文本输出 - 获取已安装的字体列表
查看>>
nginx反向代理
查看>>
操作系统真实的虚拟内存是什么样的(一)
查看>>
hadoop、hbase、zookeeper集群搭建
查看>>
python中一切皆对象------类的基础(五)
查看>>
modprobe
查看>>
android中用ExpandableListView实现三级扩展列表
查看>>
%Error opening tftp://255.255.255.255/cisconet.cfg
查看>>
java读取excel、txt 文件内容,传到、显示到另一个页面的文本框里面。
查看>>