-
Notifications
You must be signed in to change notification settings - Fork 4.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
一个core dump #362
Comments
|
这里的问题比较奇怪,我本地服务器是必然重现的 |
能必然重现最好可以确定直接原因. |
嗯,这个后续我会继续跟进,这两天外服在忙着查另一个头疼问题 |
350.6 Tue Oct 27 14:14:47 CST 2015 这是脚本记录的一段skenet进程cpu使用情况,14:15突然降了下了,一直到6%,恢复后玩家大量上线cpu飚满,然后慢慢恢复到正常 |
https://github.com/cloudwu/skynet/blob/master/skynet-src/skynet_start.c#L123-L151 工作线程调度只在这一个函数, 你可以修改调试一下,看为什么 worker 会休眠。 如果没有特别的 bug, 那么就是真的 worker 无事可做了。原因可能是: 网络处理其实是单线程的,这个时候除网络线程(阻塞)外,真的只有很少的服务有消息需要处理。 网络线程目前阻塞的已知原因是 dns 查询: https://github.com/cloudwu/skynet/wiki/Socket#%E5%9F%9F%E5%90%8D%E6%9F%A5%E8%AF%A2 |
今天检查了我们的http处理,确实是直接将域名塞进去后向外请求,在跟运营商验证登录的接口频繁使用。 |
期两天遇到一样的问题,我印象中有个问题记录,然后翻回来看了,不过我是要做ip端口检测,快速查看看看对应地址端口有没有开放,所以独立写了一个socket的处理接口,崩溃的堆栈几乎也是差不多,区别在于没发现有卡的问题,目前也没头绪不过先还原了代码用skynet原生的socket来跑,后面在考虑用别的脚本来做这块检测吧。 |
我们项目经常有一些endless的报警出现,基本是瞬间报出二三十条,然后就没了。我在raw_dispatch_message里加入了一些代码来检测哪些消息执行时间过长,在消息特别多的情况下,这里发生了core dump
The text was updated successfully, but these errors were encountered: