我完全不知道什么情况这是什么情况?求解。谢谢。

电脑连无线的开了,为何搜不到无線网,上面还有个红叉,这是什么情况,求解?

我们都知道JVM的内存管理是自动化嘚Java语言的程序指针也不需要开发人员手工释放,JVM的GC会自动的进行回收但是,如果编程不当JVM仍然会发生内存泄露,导致Java程序产生了OutOfMemoryError(OOM)错误 产生OutOfMemoryError错误的原因包括: .SocketException: Too many open files对于第1种异常,是JVM的线程由于递归或者方法调用层次太多占满了线程堆栈而导致的,线程堆栈默认大小為1M 对于第2种异常,是由于系统对文件句柄的使用是有限制的而某个应用程序使用的文件句柄超过了这个限制,就会导致这个问题 上媔介绍了OOM相关的基础知识,接下来我们开始讲述笔者经历的一次OOM问题的定位和解决的过程 产生问题的现象 现在我们确定,1021的数字已经相當的接近1021的最大进程数了正如前面我们提到,在Linux操作系统里线程是通过轻量级的进程实现的,因此限制用户的最大进程数,就是限淛用户的最大线程数至于为什么没有精确达到1024这个最大值就已经报出异常,应该是系统的自我保护功能在还剩下3个线程的前提下,就開始报错 到此为止,我们已经通过分析来找到问题的原因但是,我们还是我完全不知道什么情况为什么会创建这么多的线程从第一個输出得知,JVM已经创建的应用线程有907个那么他们都在做什么事情呢? 于是在问题发生的时候,我们又使用JVM的jstack命令查看输出得知,每個线程都阻塞在打印日志的语句上log4j中打印日志的代码实现如下: public void }在log4j中,打印日志有一个锁锁的作用是让打印日志可以串行,保证日志茬日志文件中的正确性和顺序性 那么,新的问题又来了为什么只有凌晨0点会出现打印日志阻塞,其他时间会偶尔发生呢这时,我们帶着新的线索又回到问题开始的思路凌晨12点应用没有定时任务,系统会不会有其他的IO密集型的任务比如说归档日志、磁盘备份等? 经過与运维部门碰头基本确定是每天凌晨0点日志切割导致磁盘IO被占用,于是堵塞打印日志日志是每个工作任务都必须的,日志阻塞线程池就阻塞,线程池阻塞就导致线程池被撑大线程池里面的线程数超过1024就会报错。 到这里我们基本确定了问题的原因,但是还需要对ㄖ志切割导致IO增大进行分析和论证 首先我们使用前面小结介绍的vmstat查看问题发生时IO等待数据: vmstat 2 1 2 由于我们在对dubbo服务框架进行定制化的时候,設计了自动降级原则如果dubbo服务负载变高,会自动切换到点对点的RPC框架这也符合微服务的失效转移原则,但是设计中没有进行全面的考慮一旦一部分服务切换到了点对点的RPC,而一部分的服务没有切换就导致两个现场池都被撑满,于是超过了1024的限制就出了问题。 到这裏我们基本可以验证,问题的根源是日志切割导致IO负载增加然后阻塞线程池,最后发生OOM:unable to create new native thread 剩下的任务就是最小化重现的问题,通过實践来验证问题的原因我们与性能压测部门沟通,提出压测需求: Tomcat线程池最大设置为1500.操作系统允许的最大用户进程数1024.在给服务加压的过程中需要人工制造繁忙的IO操作,IO等待不得低于50%经过压测压测部门的一下午努力,环境搞定结果证明完全可以重现此问题。 最后与所有相关部门讨论和复盘,应用解决方案解决方案包括: 全部应用改成按照小时切割,或者直接使用log4j的日志滚动功能Tomcat线程池的线程数設置与操作系统的线程数设置不合理,适当的减少Tomcat线程池线程数量的大小升级log4j日志,使用logback或者log4j2这次OOM问题的可以归结为“多个因、多个果、多台机器、多个服务池、不同时间”,针对这个问题与运维部、监控部和性能压测部门的同事奋斗了几天几夜,终于通过在线上抓取信息、分析问题、在性能压测部门同事的帮助下最小化重现问题并找到问题的根源原因,最后针对问题产生的根源提供了有效的方案。 与监控同事现场编写的脚本 本节提供一个笔者在实践过程中解决OOM问题的一个简单脚本这个脚本是为了解决OOM(unable to create native thread)的问题而在问题机器上臨时编写,并临时使用的脚本并没有写的很专业,笔者也没有进行优化保持原汁原味的风格,这样能让读者有种身临其境的感觉只昰为了抓取需要的信息并解决问题,但是在线上问题十分火急的情况下这个脚本会有大用处。 !/bin/bash ps -Leo pid,lwp,user,pcpu,pmem,cmd >>

我要回帖

更多关于 我完全不知道什么情况 的文章

 

随机推荐