alphago通过不断对局来修正神经网络的巨量参数,然后继续进行自我对局。大量循环之后,神经网络巨量参数的初始值会不会影响到当前的修正值?
换个说法,不同的初始值,在大量的循环之后会不会趋近于同一组参数值?
这个问题的意义在于:
如果初始值没有影响,alphago会在参数个数允许的条件下,越来越成功的拟合出“赢棋函数”去给出那些值得计算的点,“神之一手”会越来越多的囊括到给出的点中,从而不断接近围棋之神的领域!
如果初始值具有决定性影响,那么alphago的成长上限就取决于一开始用于神经网络训练的棋谱,最终极限是一个集围棋历史大成的棋圣。
这两者对围棋的意义是完全不同的。