这是我的一个回贴:
传统棋类AI的基础是蒙特卡洛树型搜索 (Monte Carlo Tree Search). 阿法狗自然也有这个。但这个是很低级的计算方法,不是高级算法。阿法狗算法里面的高级部分是价值网络和政策网络,这两个东西合在一起,就是要模仿人类棋手的“棋感"。价值网络和政策网络负责掌控宏观形势,基于对宏观形势的研判,指挥蒙特卡洛做有限的树型搜索。注意有限两个字。如果没有价值网络和政策网络的宏观指导,光靠蒙特卡洛树型搜索去下棋,以围棋10的170次方的近乎无限种的应对方式,阿法狗一步棋会下到地老天荒。
阿法狗与90年代末爱必摸搞出来的那个会下国象的深蓝相比,Monte Carlo Tree Search 是它们的共性,所以这个不是吮马新鲜玩意儿。阿法狗比之深蓝真正优越之处是两个,一是大数据时代对海量数据的超高处理能力(这方面,软件比硬件贡献要大得多),二是研发人员基于神经网络技术为阿法狗搞出来的价值网络+政策网络。