|
发表于 2019-8-15 18:08:22
|
显示全部楼层
我上面那个回复里faner的点评很显然是不了解科研的情况。
首先,并不是算得多就能抓住好的成果。科研不是靠堆砌计算的,或者说靠堆砌计算做出来的科研基本上很快就会变成废纸。为什么呢?因为如果科学家需要计算一个很大的东西,那么首先想到的其实不是怎么搞计算资源,而是先想办法找到合适的方式把计算的难度降下来,无论是寻找合适的算法,还是近似算法,或者理论推算。在所有他们知道的优化办法都用尽之后,才是计算资源的问题。这是因为计算资源要钱,而科学家最缺的其实就是钱,否则CEPC也不会有那么大争议。如果盲目堆砌计算的话,别人如果第二年找到了一个特别好的算法,能把难度降下来十倍的话,那就相当于之前的计算白做了。当然也有例外,就是如果问题本身就很难无法优化的话(NPC问题或者涉及大量数据),那么就只能堆计算资源了。
然后,即使是海量计算,也还要看问题的特性。志愿计算适用的问题范围很窄,数据量不能大,单个任务计算量不能太大,而且问题分割不能过于影响效率。因为有这些限制,所以许多科学问题都不能用志愿计算,只能在数据中心里计算,尤其是那些需要处理海量数据(TB级别)的。这就是为什么我们经常看到生物和数学方面的项目,因为这些计算的内容很多是针对一个实例或者一个蛋白质,相对来说容易划分,而且计算量也不大。另一种适合志愿计算的就是大规模信号处理,就是SETI@home和Einstein@home之类的,他们有大量的巡天数据,需要找到里边的信号,这样的话只要把数据按照时间切一切,就能同时保证数据量和计算量不超过限制。还有一种适合志愿计算的就是随机模拟,这种计算的话可以每台机器上跑一套,计算之间没有耦合,结果交上来取一个最优或者平均就好。之前的LHC@home和AQUA@home就是这样。
当然,因为我之前做过的那个研究,现在可以做的数学问题多了一点,但是目前似乎还没有人跟进。
也就是说,尤其不适合志愿计算的有两种:要么问题没办法分割得足够细而且互不相干,要么需要的数据量实在太大。问题在于,对撞机和粒子物理学大部分的计算其实都是后者。这就是为什么LHC这么大的一个项目,实际上用到志愿计算的就是LHC@home,也就是模拟一下对撞机,看看怎么摆那些器件会比较好。之后所有对撞数据都是内部网格消化的,因为数据分发的成本太大。
CEPC@home如果搞的话,大概也跟LHC@home一样,让大家做做模拟就算了。最核心的数据处理肯定也不适合志愿计算,他们必定会有配套的超级计算机,毕竟这是我国强项。 |
评分
-
查看全部评分
|