在数学上,这个本质被称之为过拟合.
其实这是所谓的"强者",经常会陷入的一种情况. 大部分运动员,本质上越强的,就越是过拟合的. 过拟合的前提是环境.
环境可以是竞技规则,也可以是任何行为最后带来的惩罚结果. 对于环境的不断适应的过程,就是传统意义上,不断"变强"的过程. 最终达到最强者, 也就成了最为过拟合的人.
说白了,就是你太强了,你进化的太好了,好到完全的帖合了当下环境的规律和条件, 咦,有人会问,这样不好么? 多少人梦寐以求的事呀,这就是所谓“强大”的最本质体现呀。

上图,为同一组样本点,左边神经网络训练一2次,和10次, 以及右边完全拟合的场景.
可以看出,训练2次时, 拟合出的规律,和样本的正确答案之间,存在一定的误差, 不是完美正确率. 但是它拟合了一种大至的规律,只是细节不到位. 而右侧是训练无数遍的"强者"神经网络,完全匹配正确答案,100分,误差为0.
这也是为何强者,都很在乎细节, 因为细节是至胜的关键所在,任何竞争都一样.
那"强者"什么时候就会出问题呢? 其实就是环境的变化.环境的变化,会导致最佳战略均衡的改变.正确答案变了.
在数学上面,我们经常用于训练人工智能. 就需要采样一些样本点,这些样本,即是输入什么,就应该输出什么, 应该输出的就是正确答案,是从现实中采样得来的. 神经网络经常多轮的训练,会慢慢拟合这些样本的规律线. 为什么学术界极力避免过拟合的情况出现呢? 为什么训练的太好,反而实际使用时更差呢? 这是因为,我们采样的点,通常并不是很全面的, 可能只有一部分,体现一部分的场景,全场景各种情况都有样本的很难. 而且,这些采样点,通常有着一定的误差,也就是在局部,上下起伏. 所以在一个局部还有误差的样本中,不断的内卷和拟合,反而可能不利于现实中的更多的场景中的适配. 除非采样时,这些样本是全面的,且精确的. 在规则不变的前提下, 当然是越拟合越好.
学界对于过拟合通常的处理方法,也值得人的思维去应用,这就是dropout技术,dropout说白了,就是在训练时,有意的随机关闭一定量的神经元,让其不输出,这样,无论是训练多少轮,都不会出现过拟合的现象,好比人脑暂时关闭了某些个常用的思考方式或信息,假装自己不知道.
在现实中,通常这也是一个矛盾, 一方面,你要在某一领域或竞技体育项目上争冠,就一定要过拟合, 有人比你拟合,别人就一定会比你强.另一方面,过强的拟合性,会在规则更改后,势得其反,反而更不容易适配新规律.比如乒乓球的刘国梁,有几个技术,在旧规则下面,几乎是无敌的,比如全遮挡发球,对手只能蒙. 乒协就是针对的他,来修改的规则. 修改后,即退役,没法打了. 再比如,柯达胶卷和诺基亚,曾是各自业内无敌的存在,然而环境一旦改变,这种企业也很难调整方向,去适配新业务.
所以说,过拟合未尝不可. 能做为某一时段某一规则下面的王者, 就已经可以说是在历史上留下浓墨重彩的一笔了,大部分人则没有这样的殊荣. 而且,就算规则和环境的改变,这些人也一样凭借的老底和资本,可以混的不错. 比如刘国梁可以做教练,做不成教练的那些人,代代言打打广告,一辈子也衣食无忧.