Linux在服务器上部署tomcattomcat部署运行后cpu升到最高一直不降。

Loadrunner(5)
在线上环境中我们是采用了tomcat作为Web服务器,它的处理性能直接关系到用户体验,在平时的工作和学习中,归纳出以下6种调优经验。
1. 服务器资源
服务器所能提供CPU、内存、硬盘的性能对处理能力有决定性影响。
(1) 对于高并发情况下会有大量的运算,那么CPU的速度会直接影响到处理速度。
(2)内存在大量数据处理的情况下,将会有较大的内存容量需求,可以用-Xmx -Xms -XX:MaxPermSize等参数对内存不同功能块进行划分。我们之前就遇到过内存分配不足,导致虚拟机一直处于full GC,从而导致处理能力严重下降。
(3)硬盘主要问题就是读写性能,当大量文件进行读写时,磁盘极容易成为性能瓶颈。最好的办法还是利用下面提到的缓存。
2. 利用缓存和压缩
对于静态页面最好是能够缓存起来,这样就不必每次从磁盘上读。这里我们采用了Nginx作为缓存服务器,将图片、css、js文件都进行了缓存,有效的减少了后端tomcat的访问。
另外,为了能加快网络传输速度,开启gzip压缩也是必不可少的。但考虑到tomcat已经需要处理很多东西了,所以把这个压缩的工作就交给前端的Nginx来完成。
除了文本可以用gzip压缩,其实很多图片也可以用图像处理工具预先进行压缩,找到一个平衡点可以让画质损失很小而文件可以减小很多。曾经我就见过一个图片从300多kb压缩到几十kb,自己几乎看不出来区别。
3. 采用集群
单个服务器性能总是有限的,最好的办法自然是实现横向扩展,那么组建tomcat集群是有效提升性能的手段。我们还是采用了Nginx来作为请求分流的服务器,后端多个tomcat共享session来协同工作。
4. 优化tomcat参数
这里以tomcat7的参数配置为例,需要修改conf/server.xml文件,主要是优化连接配置,关闭客户端dns查询。
&Connector port=&8080&&&
&&&&&&&&&& protocol=&org.apache.coyote.http11.Http11NioProtocol&&
&&&&&&&&&& connectionTimeout=&20000&&
&&&&&&&&&& redirectPort=&8443&&&
&&&&&&&&&& maxThreads=&500&&&
&&&&&&&&&& minSpareThreads=&20&&
&&&&&&&&&& acceptCount=&100&
&&&&&&&&&& disableUploadTimeout=&true&
&&&&&&&&&& enableLookups=&false&&&
&&&&&&&&&& URIEncoding=&UTF-8& /&
5. 改用APR库
tomcat默认采用的BIO模型,在几百并发下性能会有很严重的下降。tomcat自带还有NIO的模型,另外也可以调用APR的库来实现操作系统级别控制。
NIO模型是内置的,调用很方便,只需要将上面配置文件中protocol修改成org.apache.coyote.http11.Http11NioProtocol,重启即可生效。上面配置我已经改过了,默认的是HTTP/1.1。
APR则需要安装第三方库,在高并发下会让性能有明显提升。具体安装方法详见《]》
6. 优化网络
Joel也明确提出了优化网卡驱动可以有效提升性能,这个对于集群环境工作的时候尤为重要。由于我们采用了linux服务器,所以优化内核参数也是一个非常重要的工作。给一个参考的优化参数:
1. 修改/f文件,在最后追加如下内容:
net.core.netdev_max_backlog = 32768
net.core.somaxconn = 32768
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max =
net.core.wmem_max =
net.ipv4.ip_local_port_range =
net.ipv4.route.gc_timeout = 100
net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_keepalive_time = 1200
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 2
net.ipv4.tcp_syn_retries = 2
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 000000
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 65536
2. 保存退出,执行sysctl -p生效
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:44086次
排名:千里之外
原创:42篇
转载:41篇Tomcat内存溢出的三种情况及解决办法分析
&Tomcat内存溢出的原因
  在生产环境中tomcat内存设置不好很容易出现内存溢出。造成内存溢出是不一样的,当然处理方式也不一样。
  这里根据平时遇到的情况和相关资料进行一个总结。常见的一般会有下面三种情况:
  1.OutOfMemoryError: Java heap space
  2.OutOfMemoryError: PermGen space
  3.OutOfMemoryError: unable to create new native thread.
  Tomcat内存溢出解决方案
  对于前两种情况,在应用本身没有内存泄露的情况下可以用设置tomcat jvm参数来解决。(-Xms -Xmx
-XX:PermSize -XX:MaxPermSize)
  最后一种可能需要调整操作系统和tomcat jvm参数同时调整才能达到目的。
  第一种:是堆溢出。
  原因分析:
JVM堆的设置是指java程序运行过程中JVM可以调配使用的内存空间的设置.JVM在启动的时候会自动设置Heap
size的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)是物理内存的1/4。可以利用JVM提供的-Xmn
-Xms -Xmx等选项可进行设置。Heap size 的大小是Young Generation 和Tenured Generaion
在JVM中如果98%的时间是用于GC且可用的Heap size 不足2%的时候将抛出此异常信息。
最大不要超过可用物理内存的80%,一般的要将-Xms和-Xmx选项设置为相同,而-Xmn为1/4的-Xmx值。
  没有内存泄露的情况下,调整-Xms -Xmx参数可以解决。
  -Xms:初始堆大小
  -Xmx:最大堆大小
  但堆的大小受下面三方面影响:
  1.相关操作系统的数据模型(32-bt还是64-bit)限制;(32位系统下,一般限制在1.5G~2G;我在2003 server
系统下(物理内存:4G和6G,jdk:1.6)测试 1612M,64位操作系统对内存无限制。)
  2.系统的可用虚拟内存限制;
  3.系统的可用物理内存限制。
  堆的大小可以使用 java -Xmx***M version 命令来测试。支持的话会出现jdk的版本号,不支持会报错。
  -Xms -Xmx一般配置成一样比较好比如set JAVA_OPTS= -Xms1024m
其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)是物理内存的1/4。可以利用JVM提供的-Xmn -Xms
-Xmx等选项可
实例,以下给出1G内存环境下java jvm 的参数设置参考:
JAVA_OPTS="-server -Xms800m -Xmx800m&
-XX:PermSize=64M -XX:MaxNewSize=256m
-XX:MaxPermSize=128m -Djava.awt.headless=true "
JAVA_OPTS="-server -Xms768m -Xmx768m -XX:PermSize=128m
-XX:MaxPermSize=256m -XX:
NewSize=192m -XX:MaxNewSize=384m"
CATALINA_OPTS="-server -Xms768m -Xmx768m -XX:PermSize=128m
-XX:MaxPermSize=256m
-XX:NewSize=192m -XX:MaxNewSize=384m"
服务器为1G内存:JAVA_OPTS="-server -Xms800m -Xmx800m
-XX:PermSize=64M -XX:MaxNewSize=256m
-XX:MaxPermSize=128m -Djava.awt.headless=true "
服务器为64位、2G内存: JAVA_OPTS='-server -Xms1024m -Xmx1536m
-XX:PermSize=128M -XX:MaxNewSize=256m
-XX:MaxPermSize=256m'
-------------------解决方案1:-----------------------------
前提:是执行startup.bat启动tomcat的方式
Linux服务器:
在/usr/local/apache-tomcat-5.5.23/bin 目录下的catalina.sh
添加:JAVA_OPTS='-Xms512m -Xmx1024m'&
或者 JAVA_OPTS="-server -Xms800m
-Xmx800m&& -XX:MaxNewSize=256m"
或者 CATALINA_OPTS="-server -Xms256m -Xmx300m"
Windows服务器:
在catalina.bat最前面加入
set JAVA_OPTS=-Xms128m -Xmx350m
或者set CATALINA_OPTS=-Xmx300M -Xms256M
(区别是一个直接设置jvm内存,
另一个设置tomcat内存,CATALINA_OPTS似乎可以与JAVA_OPTS不加区别的使用)
基本参数说明
-client,-server
这两个参数用于设置虚拟机使用何种运行模式,一定要作为第一个参数,client模式启动比较快,但运行时性能和内存管理效率不如server模式,通常用于客户端应用程序。相反,server模式启动比client慢,但可获得更高的运行性能。
在windows上,缺省的虚拟机类型为client模式,如果要使用server模式,就需要在启动虚拟机时加-server参数,以获得更高性能,对服务器端应用,推荐采用server模式,尤其是多个CPU的系统。在Linux,Solaris上缺省采用server模式。
&此外,在多cup下,建议用server模式
-Xms&size&
设置虚拟机可用内存堆的初始大小,缺省单位为字节,该大小为1024的整数倍并且要大于1MB,可用k(K)或m(M)为单位来设置较大的内存数。初始堆大小为2MB。加“m”说明是MB,否则就是KB了。
例如:-Xms6400K,-Xms256M
-Xmx&size&
设置虚拟机
的最大可用大小,缺省单位为字节。该值必须为1024整数倍,并且要大于2MB。可用k(K)或m(M)为单位来设置较大的内存数。缺省堆最大值为64MB。
例如:-Xmx81920K,-Xmx80M
当应用程序申请了大内存运行时虚拟机抛出java.lang.OutOfMemoryError: Java heap
space错误,就需要使用-Xmx设置较大的可用内存堆。
PermSize/MaxPermSize:定义Perm段的尺寸,即永久保存区域的大小,PermSize为JVM启动时初始化Perm的内存大小;MaxPermSize为最大可占用的Perm内存大小。在用户生产环境上一般将这两个值设为相同,以减少运行期间系统在内存申请上所花的开销。
如果用startup.bat启动tomcat,OK设置生效.够成功的分配200M内存.
-------------------解决方案2:------------------------
前提:是执行startup.bat启动tomcat的方式
手动设置Heap size
Windows服务器:
修改TOMCAT_HOME/bin/catalina.bat,在“echo "Using CATALINA_BASE:
$CATALINA_BASE"”上面加入以下行:
set JAVA_OPTS=%JAVA_OPTS% -server -Xms800m -Xmx800m -XX:MaxNewSize=256m&&
注:JAVA_OPTS是保留先前设置。
Linux服务器:
修改TOMCAT_HOME/bin/catalina.sh
在“echo "Using CATALINA_BASE: $CATALINA_BASE"”上面加入以下行:
JAVA_OPTS="$JAVA_OPTS -server -Xms800m -Xmx800m -XX:MaxNewSize=256m"
注:$JAVA_OPTS是保留先前设置。
-------------------解决方案3:-----------------------------
前提:是执行windows的系统服务启动tomcat的方式
但是如果不是执行startup.bat启动tomcat而是利用windows的系统服务启动tomcat服务,上面的设置就不生效了,
就是说set JAVA_OPTS=-Xms128m -Xmx350m 没起作用.上面分配200M内存就OOM了..
windows服务执行的是bin\tomcat.exe.他读取注册表中的值,而不是catalina.bat的设置.
修改注册表HKEY_LOCAL_MACHINE\SOFTWARE\Apache Software Foundation\Tomcat
Service Manager\Tomcat5\Parameters\JavaOptions
-Dcatalina.home="C:\ApacheGroup\Tomcat 5.0"
-Djava.endorsed.dirs="C:\ApacheGroup\Tomcat
5.0\common\endorsed"
加入 -Xms300m -Xmx350m&
重起tomcat服务,设置生效
-------------------解决方案4:-----------------------------
前提:是执行windows的系统服务启动tomcat的方式
在安装tomcat时若有勾选"NT Service(NT/2000/XP only)"
则安装完成后在安装目录的"bin"目录里会有一个tomcat.exe的档案
先把tomcat的服务停掉
在命令列模式下(运行里输入CMD)
将目录切换到tomcat的bin目录
用下面的命令把服务移除
tomcat -uninstall "Apache Tomcat 4.1"
接下来,写个批处理。
set SERVICENAME=Apache Tomcat 4.1
set CATALINA_HOME=E:\Tomcat 4.1.24
set CLASSPATH=D:\j2sdk1.4.1_01\lib
set JAVACLASSPATH=%CLASSPATH%
JAVACLASSPATH=%JAVACLASSPATH%;�TALINA_HOME%\bin\bootstrap.jar
JAVACLASSPATH=%JAVACLASSPATH%;�TALINA_HOME%\common\lib\servlet.jar
set JAVACLASSPATH=%JAVACLASSPATH%;%JAVA_HOME%\lib\tools.jar
tomcat.exe -install "%SERVICENAME%"
"%JAVA_HOME%\jre\bin\server\jvm.dll"
-Djava.class.path="%JAVACLASSPATH%" -Dcatalina.home="�TALINA_HOME%"
-Xms512m -Xmx768m -start org.apache.catalina.startup.Bootstrap
-params start -stop org.apache.catalina.startup.Bootstrap -params
stop -out "�TALINA_HOME%\logs\stdout.log" -err
"�TALINA_HOME%\logs\stderr.log"
注意,从 tomcat.exe
-install开始的是最后一行!不要手工回车换行把这一行分成了好几段。保存后在命令行下执行这个bat文件,注意执行的时候将“服务”窗口关闭。
第二种:永久保存区域溢出
 原因分析:
PermGen space的全称是Permanent Generation
space,是指内存的永久保存区域,这块内存主要是被JVM存放Class和Meta信息的,Class在被Loader时就会被放到PermGen
space中,它和存放类实例(Instance)的Heap区域不同,GC(Garbage
Collection)不会在主程序运行期对PermGen
space进行清理,所以如果你的应用中有很CLASS的话,就很可能出现PermGen
space错误,这种错误常见在web服务器对JSP进行pre compile的时候。如果你的WEB APP下都用了大量的第三方jar,
其大小超过了jvm默认的大小(4M)那么就会产生此错误信息了。但目前的hibernate和spring项目中也很容易出现这样的问题。可能是由于这些框架会动态class,而且jvm的gc是不会清理PemGen
space的,超过了jvm默认的大小(4M),导致内存溢出。
  建议:将相同的第三方jar文件移置到tomcat/shared/lib目录下,这样可以达到减少jar
文档重复占用内存的目的。
这一个一般是加大-XX:PermSize -XX:MaxPermSize 来解决问题。
  -XX:PermSize 永久保存区域初始大小
  -XX:PermSize 永久保存区域初始最大值
  这一般结合第一条使用,比如 set JAVA_OPTS= -Xms1024m -Xmx1024m
-XX:PermSize=128M -XX:PermSize=256M
  有一点需要注意:java -Xmx***M version 命令来测试的最大堆内存是 -Xmx与 -XX:PermSize的和
比如系统支持最大的jvm堆大小事1.5G,那 -Xmx1024m -XX:PermSize=768M 是无法运行的。
-----------------解决方案1:-------------------------
Linux服务器:
在catalina.sh的第一行增加:
JAVA_OPTS=
-XX:PermSize=128M
-XX:MaxNewSize=256m
-XX:MaxPermSize=256m
在“echo "Using CATALINA_BASE:&&
$CATALINA_BASE"”上面加入以下行:
JAVA_OPTS="-server -XX:PermSize=64M -XX:MaxPermSize=128m
Windows服务器:
在catalina.bat的第一行增加:
set JAVA_OPTS=-Xms64m -Xmx256m -XX:PermSize=128M -XX:MaxNewSize=256m
-XX:MaxPermSize=256m&
-----------------解决方案2:------------------------
修改TOMCAT_HOME/bin/catalina.bat(Linux下为catalina.sh),在Java代码
“echo "Using CATALINA_BASE:
$CATALINA_BASE"”上面加入以下行:&&&
set JAVA_OPTS=%JAVA_OPTS% -server -XX:PermSize=128M
-XX:MaxPermSize=512m&&
“echo "Using CATALINA_BASE:
$CATALINA_BASE"”上面加入以下行:
set JAVA_OPTS=%JAVA_OPTS% -server -XX:PermSize=128M
-XX:MaxPermSize=512m
catalina.sh下为:
JAVA_OPTS="$JAVA_OPTS -server -XX:PermSize=128M
-XX:MaxPermSize=512m"&
JAVA_OPTS="$JAVA_OPTS -server -XX:PermSize=128M
-XX:MaxPermSize=512m"
  第三种:无法创建新的线程。
  这种现象比较少见,也比较奇怪,主要是和jvm与系统内存的比例有关。
  这种怪事是因为JVM已经被系统分配了大量的内存(比如1.5G),并且它至少要占用可用内存的一半。有人发现,在线程个数很多的情况下,你分配给JVM的内存越多,那么,上述错误发生的可能性就越大。
  原因分析
(从这个blog中了解到原因:):
  每一个32位的进程最多可以使用2G的可用内存,因为另外2G被操作系统保留。这里假设使用1.5G给JVM,那么还余下500M可用内存。这500M内存中的一部分必须用于系统dll的加载,那么真正剩下的也许只有400M,现在关键的地方出现了:当你使用Java创建一个线程,在JVM的内存里也会创建一个Thread对象,但是同时也会在操作系统里创建一个真正的物理线程(参考JVM规范),操作系统会在余下的
400兆内存里创建这个物理线程,而不是在JVM的1500M的内存堆里创建。在jdk1.4里头,默认的栈大小是256KB,但是在jdk1.5里头,默认的栈大小为1M每线程,因此,在余下400M的可用内存里边我们最多也只能创建400个可用线程。
  这样结论就出来了,要想创建更多的线程,你必须减少分配给JVM的最大内存。还有一种做法是让JVM宿主在你的JNI代码里边。
  给出一个有关能够创建线程的最大个数的估算公式:
  (MaxProcessMemory - JVMMemory - ReservedOsMemory) /
(ThreadStackSize) = Number of threads
  对于jdk1.5而言,假设操作系统保留120M内存:
  1.5GB JVM: (2GB-1.5Gb-120MB)/(1MB) = ~380 threads
  1.0GB JVM: (2GB-1.0Gb-120MB)/(1MB) = ~880 threads
  在2000/XP/2003的boot.ini里头有一个启动选项,好像是:/PAE /3G
,可以让用户进程最大内存扩充至3G,这时操作系统只能占用最多1G的虚存。那样应该可以让JVM创建更多的线程。
  因此这种情况需要结合操作系统进行相关调整。
  因此:我们需要结合不同情况对tomcat内存分配进行不同的诊断才能从根本上解决问题。
检测当前JVM内存使用情况:
System.out.println("JVM MAX MEMORY: " +
Runtime.getRuntime().maxMemory()/+"M");
System.out.println("JVM IS USING MEMORY:" +
Runtime.getRuntime().totalMemory()/+"M");
System.out.println("JVM IS FREE MEMORY:" +
Runtime.getRuntime().freeMemory()/+"M");
这三个方法都是说JVM的内存使用情况而不是操作系统的内存;
  maxMemory()这个方法返回的是java虚拟机(这个进程)能构从操作系统那里挖到的最大的内存,以字节为单位,如果在运行java程序的时候,没有添加-Xmx参数,那么就是64兆,也就是说maxMemory()返回的大约是64*字节,这是java虚拟机默认情况下能从操作系统那里挖到的最大的内存。如果添加了-Xmx参数,将以这个参数后面的值为准,例如java
-cp ClassPath -Xmx512m ClassName,那么最大内存就是512*字节。
  totalMemory()这个方法返回的是java虚拟机现在已经从操作系统那里挖过来的内存大小,也就是java虚拟机这个进程当时所占用的所有内存。如果在运行java的时候没有添加-Xms参数,那么,在java程序运行的过程的,内存总是慢慢的从操作系统那里挖的,基本上是用多少挖多少,直挖到maxMemory()为止,所以totalMemory()是慢慢增大的。如果用了-Xms参数,程序在启动的时候就会无条件的从操作系统中挖-Xms后面定义的内存数,然后在这些内存用的差不多的时候,再去挖。
  freeMemory()是什么呢,刚才讲到如果在运行java的时候没有添加-Xms参数,那么,在java程序运行的过程的,内存总是慢慢的从操作系统那里挖的,基本上是用多少挖多少,但是java虚拟机100%的情况下是会稍微多挖一点的,这些挖过来而又没有用上的内存,实际上就是freeMemory(),所以freeMemory()的值一般情况下都是很小的,但是如果你在运行java程序的时候使用了-Xms,这个时候因为程序在启动的时候就会无条件的从操作系统中挖-Xms后面定义的内存数,这个时候,挖过来的内存可能大部分没用上,所以这个时候freeMemory()可能会有些
--------------------解决方案--------------------------
JVM堆大小的调整
  Sun HotSpot
1.4.1使用分代收集器,它把堆分为三个主要的域:新域、旧域以及永久域。Jvm生成的所有新对象放在新域中。一旦对象经历了一定数量的垃圾收集循环后,便获得使用期并进入旧域。在永久域中jvm则存储class和method对象。就配置而言,永久域是一个独立域并且不认为是堆的一部分。
  下面介绍如何控制这些域的大小。可使用-Xms和-Xmx 控制整个堆的原始大小或最大值。
  下面的命令是把初始大小设置为128M:
  java &Xms128m
  &Xmx256m为控制新域的大小,可使用-XX:NewRatio设置新域在堆中所占的比例。
  下面的命令把整个堆设置成128m,新域比率设置成3,即新域与旧域比例为1:3,新域为堆的1/4或32M:
java &Xms128m &Xmx128m
&XX:NewRatio =3可使用-XX:NewSize和-XX:MaxNewsize设置新域的初始值和最大值。
  下面的命令把新域的初始值和最大值设置成64m:
java &Xms256m &Xmx256m &Xmn64m
  永久域默认大小为4m。运行程序时,jvm会调整永久域的大小以满足需要。每次调整时,jvm会对堆进行一次完全的垃圾收集。
  使用-XX:MaxPerSize标志来增加永久域搭大小。在WebLogic
Server应用程序加载较多类时,经常需要增加永久域的最大值。当jvm加载类时,永久域中的对象急剧增加,从而使jvm不断调整永久域大小。为了避免调整,可使用-XX:PerSize标志设置初始值。
  下面把永久域初始值设置成32m,最大值设置成64m。
java -Xms512m -Xmx512m -Xmn128m -XX:PermSize=32m
-XX:MaxPermSize=64m
  默认状态下,HotSpot在新域中使用复制收集器。该域一般分为三个部分。第一部分为Eden,用于生成新的对象。另两部分称为救助空间,当Eden充满时,收集器停止应用程序,把所有可到达对象复制到当前的from救助空间,一旦当前的from救助空间充满,收集器则把可到达对象复制到当前的to救助空间。From和to救助空间互换角色。维持活动的对象将在救助空间不断复制,直到它们获得使用期并转入旧域。使用-XX:SurvivorRatio可控制新域子空间的大小。
  同NewRation一样,SurvivorRation规定某救助域与Eden空间的比值。比如,以下命令把新域设置成64m,Eden占32m,每个救助域各占16m:
java -Xms256m -Xmx256m -Xmn64m -XX:SurvivorRation =2
  如前所述,默认状态下HotSpot对新域使用复制收集器,对旧域使用标记-清除-压缩收集器。在新域中使用复制收集器有很多意义,因为应用程序生成的大部分对象是短寿命的。理想状态下,所有过渡对象在移出Eden空间时将被收集。如果能够这样的话,并且移出Eden空间的对象是长寿命的,那么理论上可以立即把它们移进旧域,避免在救助空间反复复制。但是,应用程序不能适合这种理想状态,因为它们有一小部分中长寿命的对象。最好是保持这些中长寿命的对象并放在新域中,因为复制小部分的对象总比压缩旧域廉价。为控制新域中对象的复制,可用-XX:TargetSurvivorRatio控制救助空间的比例(该值是设置救助空间的使用比例。如救助空间位1M,该值50表示可用500K)。该值是一个百分比,默认值是50。当较大的堆栈使用较低的sruvivorratio时,应增加该值到80至90,以更好利用救助空间。用-XX:maxtenuring
threshold可控制上限。
  为放置所有的复制全部发生以及希望对象从eden扩展到旧域,可以把MaxTenuring
Threshold设置成0。设置完成后,实际上就不再使用救助空间了,因此应把SurvivorRatio设成最大值以最大化Eden空间,设置如下:
java … -XX:MaxTenuringThreshold=0 &XX:SurvivorRatio=50000 …
垃圾回收描述:
垃圾回收分多级,0级为全部(Full)的垃圾回收,会回收OLD段中的垃圾;1级或以上为部分垃圾回收,只会回收Young中的垃圾,内存溢出通常发生于OLD段或Perm段垃圾回收后,仍然无内存空间容纳新的Java对象的情况。
当一个URL被访问时,内存申请过程如下:
A. JVM会试图为相关Java对象在Eden中初始化一块内存区域
B. 当Eden空间足够时,内存申请结束。否则到下一步
JVM试图释放在Eden中所有不活跃的对象(这属于1或更高级的垃圾回收);释放后若Eden空间仍然不足以放入新对象,则试图将部分Eden中活跃对象放入Survivor区/OLD区
Survivor区被用来作为Eden及OLD的中间交换区域,当OLD区空间足够时,Survivor区的对象会被移到Old区,否则会被保留在Survivor区
E. 当OLD区空间不够时,JVM会在OLD区进行完全的垃圾收集(0级)
完全垃圾收集后,若Survivor及OLD区仍然无法存放从Eden复制过来的部分对象,导致JVM无法在Eden区为新对象创建内存区域,则出现”out
of memory错误”
Java堆相关参数:
ms/mx:定义YOUNG+OLD段的总尺寸,ms为JVM启动时YOUNG+OLD的内存大小;mx为最大可占用的YOUNG+OLD内存大小。在用户生产环境上一般将这两个值设为相同,以减少运行期间系统在内存申请上所花的开销。
NewSize/MaxNewSize:定义YOUNG段的尺寸,NewSize为JVM启动时YOUNG的内存大小;MaxNewSize为最大可占用的YOUNG内存大小。在用户生产环境上一般将这两个值设为相同,以减少运行期间系统在内存申请上所花的开销。
PermSize/MaxPermSize:定义Perm段的尺寸,PermSize为JVM启动时Perm的内存大小;MaxPermSize为最大可占用的Perm内存大小。在用户生产环境上一般将这两个值设为相同,以减少运行期间系统在内存申请上所花的开销。
SurvivorRatio:设置Survivor空间和Eden空间的比例
MEM_ARGS="-Xms512m -Xmx512m -XX:NewSize=256m -XX:MaxNewSize=256m
-XX:PermSize=128m -XX:MaxPermSize=128m -XX:SurvivorRatio=6"
在上面的例子中:
YOUNG+OLD: 512M
YOUNG: 256M
Perm: 128M
Eden: YOUNG*6/(6+1+1)=192M
Survivor: YOUNG/(6+1+1)=32M
Java堆的总尺寸=YOUNG+OLD+Perm=640M
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。tomcat cpu占用过高,系统负载高问题跟踪
坚毅的刀刀
发布时间: 11:12:29
线上8核 服务器,负载为8为正常情况,目前CPU负载过高,最高负载30多,平均负载在20左右,已经持续近一周,具体占用CPU资源的服务是tomcat_sc,占用CPU资源高达:720%使用jconsole去跟踪更改catalina.sh 启动设置:&
$ CATALINA_OPTS="-Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=8933 -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false -Djava.rmi.server.hostname=$server_ip";
import java.rmi.registry.LocateRimport javax.management.MBeanSimport javax.management.remote.JMXConnectorSimport javax.management.remote.JMXConnectorServerFimport javax.management.remote.JMXServiceURL;import java.io.IOEimport java.lang.management.ManagementFimport java.net.MalformedURLEpublic class JmxTest {public static void main(String[] args) {MBeanServer mbeanServer =ManagementFactory.getPlatformMBeanServer();JMXServiceURL url = null;try {url = new JMXServiceURL("service:jmx:rmi://localhost:12199/jndi/rmi://localhost:8933/jmxrmi");} catch (MalformedURLException e) {e.printStackTrace();}JMXConnectorServer connectorServer =null;try {connectorServer = JMXConnectorServerFactory.newJMXConnectorServer(url, null, mbeanServer);} catch (IOException e) {e.printStackTrace();}try {System.setProperty("java.rmi.server.randomIDs", "true");LocateRegistry.getRegistry(8933);connectorServer.start();} catch (IOException e) {e.printStackTrace(); }}}
hostname -i 为127.0.0.1 测试服务器配置完后,在本机使用jconsole连接,输入测试服务器帐号密码即可连上。网上资料说要改hostname,没有更改hostname也可行线上先开了服务器端口,又开了 本机端口,telnet可以连上,但jconsole无法连接,查google,说:the jvm you're trying to connect to actually exposes *two* ports, the one specified via -Dcom.sun.management.jmxremote.port, and some other one. The 2nd one is random, but jconsole wants to connect to it, so if you have a firewall, and you've only opened up the above port, you're hosed.
只开放了一个端口就不可以?必须外网服务器所有端口都对内网开放?继续跟踪。jmap jconsole jstack都是java自带的jmx 问题跟踪工具, 可以学习一下帮助分析定位内存溢出 程序死锁之类的程序问题使用 jmap 查看内存状况jmap -histo:live pid服务自建类的数量并不多jstack 跟踪堆栈也没看出个所以然继续jconsole调查 google &jconsole remote set random port to certain& 找到一篇像样的文章: /content/controller/developer/insights/jconsole3/于是写了servlet去注册指定端口 未果 在测试机上先试试 写java文件:出现 java.rmi.AccessException: Cannot modify this registry 错误 注释掉 catalina.sh的启动设置 -Dcom.sun.management.jmxremote.port=8933 也不行 最终放弃了jconsole 使用 java.lang.management..ThreadMXBean 用焱哥转发 新阳提供的 jsp页面 分析性能问题,主要是看线程阻塞情况主要代码:
ThreadMXBean tm = ManagementFactory.getThreadMXBean();tm.setThreadContentionMonitoringEnabled(true);&%long [] tid = tm.getAllThreadIds();ThreadInfo [] tia = tm.getThreadInfo(tid, Integer.MAX_VALUE);long [][] threadArray = new long[tia.length][2];for (int i = 0; i & tia. i++) {long threadId = tia[i].getThreadId();long cpuTime = tm.getThreadCpuTime(tia[i].getThreadId())/(00);threadArray[i][0] = threadId;threadArray[i][1] = cpuT}
检测到如下线程问题:Thread ID: 89
Thread Name: http-6080-Processor73
Thread State: RUNNABLE
Thread Lock Name: null
Thread Lock Owner Name: null
Thread CPU Time: 35678 sec
Stack Info: (depth:31)
+java.util.HashMap.get(HashMap.java:303)
+com.netqin.baike.server.nqrs.CloudSecurityCommand.writePkgsLog(CloudSecurityCommand.java:466)
+com.netqin.baike.server.nqrs.CloudSecurityCommand.execute(CloudSecurityCommand.java:153)
+com.netqin.baike.server.BaikeServer.service(BaikeServer.java:64)
+sun.reflect.GeneratedMethodAccessor33.invoke(Unknown Source)CPU占用时间达到 35678秒 ,到下午到了50000秒左右,tomcat的CPU占用达到了200%分析代码,发现是单例bean中使用了 hashmap 作为类对象,多线程访问时 类成员hashmap并不是线程安全的 非单例,引起了问题。更正代码后,几个月没有发现问题
来源:/shenguanpu/archive//2299759

我要回帖

更多关于 tomcat服务器部署项目 的文章

 

随机推荐