<返回更多

CPU 100% 异常排查实践与总结

2019-12-20    
加入收藏
作者:大数据之路 来源:https://my.oschina.net/leejun2005/blog/1602482

1、问题背景

 

昨天下午突然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,而且最近一段时间一直持续在70%以上,看起来像是硬件资源到瓶颈需要扩容了,但仔细思考就会发现咱们的业务系统并不是一个高并发或者CPU密集型的应用,这个利用率有点太夸张,硬件瓶颈应该不会这么快就到了,一定是哪里的业务代码逻辑有问题。

2、排查思路

 

2.1 定位高负载进程 pid

首先登录到服务器使用top命令确认服务器的具体情况,根据具体情况再进行分析判断。

 

CPU 100% 异常排查实践与总结

 

 

通过观察load average,以及负载评判标准(8核),可以确认服务器存在负载较高的情况;

 

CPU 100% 异常排查实践与总结

 

 

观察各个进程资源使用情况,可以看出进程id为682的进程,有着较高的CPU占比

2.2 定位具体的异常业务

这里咱们可以使用 pwdx 命令根据 pid 找到业务进程路径,进而定位到负责人和项目:

 

CPU 100% 异常排查实践与总结

 

 

可得出结论:该进程对应的就是数据平台的web服务。

2.3 定位异常线程及具体代码行

传统的方案一般是4步:

  1. top oder by with P:1040 // 首先按进程负载排序找到 maxLoad(pid)
  2. top -Hp 进程PID:1073 // 找到相关负载 线程PID
  3. printf “0x%xn”线程PID: 0x431 // 将线程PID转换为 16进制,为后面查找 jstack 日志做准备
  4. jstack 进程PID | vim +/十六进制线程PID - // 例如:jstack 1040|vim +/0x431 -

 

但是对于线上问题定位来说,分秒必争,上面的 4 步还是太繁琐耗时了,之前介绍过淘宝的oldratlee 同学就将上面的流程封装为了一个工具:show-busy-JAVA-threads.sh,可以很方便的定位线上的这类问题:

 

CPU 100% 异常排查实践与总结

 

 

可得出结论:是系统中一个时间工具类方法的执行cpu占比较高,定位到具体方法后,查看代码逻辑是否存在性能问题。

※ 如果线上问题比较紧急,可以省略 2.1、2.2 直接执行 2.3,这里从多角度剖析只是为了给大家呈现一个完整的分析思路。

3、根因分析

 

经过前面的分析与排查,最终定位到一个时间工具类的问题,造成了服务器负载以及cpu使用率的过高。

 

那么可以得到结论,如果现在时间是当天上午10点,一次查询的计算次数就是 10*60*60*n次=36,000*n次计算,而且随着时间增长,越接近午夜单次查询次数会线性增加。由于实时查询、实时报警等模块大量的查询请求都需要多次调用该方法,导致了大量CPU资源的占用与浪费。

4、解决方案

 

定位到问题之后,首先考虑是要减少计算次数,优化异常方法。排查后发现,在逻辑层使用时,并没有使用该方法返回的set集合中的内容,而是简单的用set的size数值。确认逻辑后,通过新方法简化计算(当前秒数-当天凌晨的秒数),替换调用的方法,解决计算过多的问题。上线后观察服务器负载和cpu使用率,对比异常时间段下降了30倍,恢复至正常状态,至此该问题得已解决。

 

CPU 100% 异常排查实践与总结

 

 

5、总结

 

 

Reference:

 

[1] 线上服务 CPU 100%?一键定位 so easy!

https://my.oschina.net/leejun2005/blog/1524687

[2] linux 系统监控、诊断工具之 top 详解

https://my.oschina.net/leejun2005/blog/157910

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>