java 应用cpu飙升(超过100%)故障排查
前言
害。。。
昨天刚写完一份关于jvm问题排查相关的博客,今天线上项目就遇到了一个突发问题。
现象是用户反映系统非常卡,无法操作。
然后登录服务器查看发现cpu 一直100%以上。
具体排查步骤:
1,首先top命令查看服务器cpu等情况:
发现线上pid 29737的 java应用cpu达到100%
2,top -H -p pid命令查看具体的线程情况
top -H -p 29373
输入上述命令,然后按H显示cpu最高排名的线程。可以看到pid 30013的线程cpu 100%且一直未释放。
3.将线程的pid转为16进制
printf "%xn" 30013
30013做16进制转换为753d
4.使用jvm工具jstack打印该进程的堆栈信息
使用该命令打印堆栈信息的后50行
jstack 29737 |grep -A 50 753d
然后就可以具体看到具体的出问题的是哪部分代码了,然后检查更改即可。(我们的是代码中出现死循环)
注意问题:
可能会出现以下报错:
xxxx: Unable to open socket file: target process not responding or HotSpot VM not loaded
The -F option can be used when the target process is not responding
有两个可能:
jstack后面的进程pid不对,或者16进制的数不对。
需要注意jstack后面是jps的java进程id。
2.执行该命令的用户必须和java应用所属的用户一致。
常见的cpu飙升原因
程序中存在死循环或者长时间占用 CPU 的操作。比如,不合理的递归操作、循环操作等等。
程序中存在大量的计算操作,例如复杂的算法、大量的数值计算等等。
程序中存在大量的 IO 操作,例如读写文件、网络通信等等。
程序中存在大量的线程创建和销毁操作,以及线程间的竞争和同步操作。
程序中存在内存泄漏或者内存溢出,导致 JVM 不断进行垃圾回收。
程序中存在大量的数据库操作,导致数据库连接池的耗尽和数据库负载过高。
针对这些问题,需要具体情况具体分析,采取相应的优化措施,例如修改代码逻辑、优化算法、降低 IO 操作频率、减少线程创建和销毁、增加 JVM 内存等等。