
谷歌人工智能AlphaGo首局战胜世界围棋冠军李世石,双方还将有4场比赛。比赛采用5局3胜制,最终比赛获胜方将获得奖金100万美元。如果AlphaGo获胜,奖金将捐赠给联合国儿童基金会,STEM教育,以及围棋慈善机构。
北京时间3月9日下午消息,今天下午谷歌人工智能AlphaGo与韩国棋手李世石的第一场比赛结束,AlphaGo获得今日比赛的胜利。双方在较量3个半小时后,李世石宣布认输。今日比赛结束后,双方还将分别在3月10日(周四)、12日(周六)、13日(周日)、15日(周二)的北京时间中午12点进行剩余4场比赛。 本次比赛用时每方2小时,1分钟读秒三次。比赛采用中国规则,黑贴3又3/4子(黑贴7目半)。采用中国规则是因Alpha GO以中国规则为基础开发。 比赛采用5局3胜制,最终比赛获胜方将获得奖金100万美元。如果AlphaGo获胜,奖金将捐赠给联合国儿童基金会(UNICEF),STEM教育,以及围棋慈善机构(Go Charity)。 AlphaGo开发者DeepMind公司在今年1月的学术杂志《Nature》刊登封面文章,展示了围棋人工智能领域突破性进展的详细情况。这次对弈中,坐在李世石对面正是《Nature》封面文章作者之一黄士杰(Aja Huang),他本人来代替AlphaGo在棋盘上落子。AlphaGo一方的旗帜是英国国旗,因为这次参赛的谷歌围棋程序AlphaGo来自英国人工智能公司DeepMind。 谷歌AlphaGo在第一次与世界顶尖围棋手的较量中取得胜利,这是人工智能发展史上重要的里程碑,代表人工智能已经能在诸如围棋等高度复杂的项目中发挥出超过人类的作用。


传统的人工智能方法是将所有可能的走法构建成一棵搜索树 ,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。 其中一个神经网络“决策网络”(policy network)负责选择下一步走法,另一个神经网络“值网络”(“value network)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络 之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcement learning)。通过广泛使用Google云平台,完成了大量研究工作。 AlphaGo在与人的对弈中用了“两个大脑”来解决问题:“决策网络”和“值网络”。通俗来说就是,一个大脑用来决策当前应该如何落子,另一个大脑来预测比赛最终的胜利方。 值得一提的是,李世石也是第一次与机器对战,所以他无法像和人类对战那样,先研究对方的棋谱和下棋风格。李世石所能做的就是和自己对弈。谷歌AlphaGo也是通过这种方式锻炼自己,真正做到了“人工智能”。
【本文为合作媒体授权投资界转载,文章版权归原作者及原出处所有。文章系作者个人观点,不代表投资界立场,转载请联系原作者及原出处获得授权。有任何疑问都请联系(editor@zero2ipo.com.cn)】