AlphaGo的主要工作原理是“深度学习”。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。这就像生物神经大脑的工作机理一样,通过合适的矩阵数量,多层组织链接一起形成神经网络“大脑”进行精准复杂的处理,就像人们识别物体标注图片一样。
具体来说,AlphaGo的开发团队在程序中输入职业棋手的3000万种下法让其学习,并使其达到能够以57%的概率预测与其对阵人类的水平。在此基础上,人工智能将自己的对战重温数百万次,在不断积累胜负经验的过程中,掌握取胜方式。在观察围棋子的整体布局的基础上选择最佳下法,这一方式十分接近于带着直觉和第六感作出判断的人类大脑功能。