概率统计的核心定律,中央极限定律说道,样本的均值等同于总体的均值。这是我们很多很多应用的基础理论,生活也好,工作也好,游戏也好。
而现在流行的大数据有三个特征,第一个便是大数据研究的是全数据,而不是样本,第二个是不要求精确,而是混杂,第三个是放弃因果研究,只研究想关性。我们重点看第一和第三。
好了,现在我们手里有一个几百年来伴随我们的经典概率论,还有一个近来才有的新生事物,大数据。那么这些东西怎么影响我们的D2呢?
先看概率论,这几乎是D2的理论基础,mf,洗东西,rr,kc都来自于概率理论的推衍,因为总体的均值在那里,作为样本的我们,只要数据量足够,总会达到均值的,而数据量越大,和总体均值差距越小,所以我一直在说,‘效率=概率’,因为效率越高,单位时间内数据量越大,越接近总体概率。随着D2玩家年龄的增长,游戏时间受限,故而效率是保证你自身样本和总体最小偏差的及其重要的因素。保证了效率,就保证了概率。
在大数据出来之前,整个D2就是靠上面这些规则来支配的。但是大数据或许会有些不同的观点,不知道大家是否记得这句话,‘自古牛栏出大号’,还有曾经有人研究过的敲石头出25#的各种条件,等等等等。这些在现代的眼光看来就是大数据的原形态。只不过可能没有数据的支持和分析手段,只是凭经验。但是在大数据的今天,我们却是有能力做这些分析。还记得大数据的第一和第三条么?91D2几个赛季的数据,我不知道以何种形式被记录,这些记录是否被保存,是否能被处理,这就是一个全数据。而通过这些数据,我们大可不必去研究内在的机理,只需把眼光放在想关性上,比如:什么样的地图出25#的概率最大?海飞丝拖的抗性和25#有关吗?哪个服务器配合哪个地图配合什么char在什么时候敲最能出25#?亦或者大号出的地点和牛栏的远近真的有关系?当某两样东西的相关联系复杂到一定程度,那么研究直接的相关性是最效率的,而不是研究清楚每一步的作用机理。这里也有其他建伺服的玩家,我不知道是不是有人能把数据拿出来做一些分析,我知道高手在民间。
最后,纯粹是等开荒闲的蛋疼,不过时代在进步,发现新工具或许对老游戏还能有所贡献,也是不错的感觉 |