1
oott123 2017-05-30 12:46:47 +08:00 via Android 5
_(:з」∠)_遇到问题先怀疑代码,再怀疑第三方库,再怀疑运行时,最后再来考虑硬件问题…
|
2
xfspace 2017-05-30 12:49:05 +08:00 via Android
发帖不能删除
hhhhhhhh |
3
klausgao OP 楼上的能解释下为什么阿里云和开发环境为什么计算结果一样吗?
|
4
dongoo 2017-05-30 13:46:46 +08:00 via Android
代码拿出来,让大家看看
|
5
klausgao OP 一个 lodash 的去重,
_.uniqBy,数组是一个 2000 多数量的字符串数组 |
6
Shura 2017-05-30 13:56:14 +08:00 via Android
你怎么不说是 Intel 的 CPU 有问题呢?
|
7
xiaket 2017-05-30 13:57:45 +08:00
@klausgao 这位... 一楼说得没问题啊, 硬件对 webapp 的影响大小在绝大多数情况下都是可以忽略的. 你一上来就假设是硬件的问题是很错误的. 你不去直接查为什么那个 node 模块崩溃而是怀疑操作系统, 很抱歉, 是很没经验的表现.
1 楼没有义务给你解释为什么两个计算结果是正确的, 而且大多数时候, 在没看过你的任何代码的前提下, 没人能够理解你的代码为什么按照某种方式工作了. 顺便说一下, 看标题, "随机计算的错误", 这种话放在计算机领域, 基本是 bug. PS, 去读读提问的智慧会对你有帮助. |
8
imn1 2017-05-30 14:32:18 +08:00 1
说个旧事,首先说明对本题毫无参考价值,大家当奇闻轶事看好了,因为我接触电脑近三十年也是唯一一次听闻
一个网友,会点 C/C++,有时候会写点小程序给我们用,有次他给了个文件 hash 的程序,他那边每次 hash 几千个文件总有几个和我们不同,而且不固定,它就怀疑他的程序写错了,但我们这边用没问题,和其他 hash 工具结果对比也一样,就他一个人的结果有问题 然后一个月后他说这次惨了,我们以为真的程序出问题,不过觉得也没什么,就一个小工具而已 他说其他 hash 工具也出现类似不固定错误,重装依旧,换机器就没事,最后怀疑到硬件 然后换了根内存,测试了几百次,结果就对上了 最惨的事情是,他发表的一篇学术论文要撤回,实验数据做了一年,因为上了刊物,所以还要登道歉声明,还好期间没人质疑他的研究,加上自我“揭发”,算是躲过了学术造假这个恶名,他要重做论文的全部计算…… |
10
qiukong 2017-05-30 15:20:28 +08:00
@imn1 这种可能是内存条有损坏,因为计算 hash 都要读进内存,如果哪块缺失确实会让结果不同。
楼主这个更大怀疑是 linux 的内核版本不一样。就算环境一样,内核不同,有时结果也会出差错。 |
11
klausgao OP 大家好,我现在重装了系统,就没有那个错误了。
首先我说的这些现象是事实。其次可以复现,不是偶尔的一次。 我之前没有说明我的腾讯云的硬件环境是我的不对。1c 1g 的最低配置的,上次搞活动 228 一年的那种。所以我想是不是 centos7.0 的内存占用比 7.2 小,而到了大量占用内存的 CPU 密集计算的环境下,腾讯云的 vps 是不是会主动释放内存或者类似的操作? |
12
nutting 2017-05-30 17:32:00 +08:00 via Android
这种虚拟机环境就是不靠谱,我大概 13 年第一次接触,公司服务器给的是虚机,我们的 Java 服务端就莫名 crash,各种日志都捕获不到,最后排查是主机系统把我们 kill 了
|