广告
柯洁表示服了,AlphaGo的神进步主要表现在哪里?
导语:在昨天的围棋人机大战2.0版第一局中,柯洁以1/4子惜败,但是在赛后的新闻发布会上,柯洁表示差距微小,但AlphaGo全盘没有留下机会,让柯洁直呼输得服气。一年前李世石对战AlphaGo时,柯洁还称AlphaGo难赢自己,那么,在这一年里,AlphaGo都有哪些神进步让柯洁自叹不如?
在昨天的围棋人机大战2.0版第一局中,柯洁以1/4子惜败,但是在赛后的新闻发布会上,柯洁表示差距微小,但AlphaGo全盘没有留下机会,让柯洁直呼输得服气。一年前李世石对战AlphaGo时,柯洁还称AlphaGo难赢自己,那么,在这一年里,AlphaGo都有哪些神进步让柯洁自叹不如?

棋速



第一局棋下到一半的时候,不少棋友群里的人沸腾了,发现AlphaGo落子速度非常快,每步棋落子速度在30S-40S之间波动,对此,围棋业余5段赵老师表示:“(这局棋)像安乐死,不知不觉就输了,(相比去年)机器落子飞快但错误基本没有”。

综合整局,AlphaGo落子表现冷静、果断,而柯洁的落子状况较多变。最终在比赛进行了四个多小时之后,AlphaGo赢四分之一子。

棋风



AlphaGo1.0的时候(去年3月跟李世石对战的时候),它的棋风概括起来就是擅长记住棋谱+增强学习+计算能力,身上还能看到人类棋风的影子,等AlphaGo乔装成Master60连胜的时候,许多围棋大师包括聂卫平在内开始评价其棋风“很难揣测Master的风格……它永远都没有表情,永远不受情绪影响,永远一个节奏,就是要赢你。”而今天,第一局棋还没结束的时候,搜狗王小川已在知乎上发文剖析AlphaGo2.0 棋风“完全脱离人类经验”——“而AlphaGo2.0脱离了机器对人模仿,走棋风格也将完全脱离人的定式。在与柯洁的比赛中,会不断出现我们意想不到的走棋,而且这些走棋在教科书中会被认为是低级错误或者完全不可理喻,但凡一个正常的棋手都不会这么玩,但凡一个新手这么玩都会被点拨这样不对。而AlphaGo2.0会不断制造这样的局面,关键他还是对的。”

不过最后还是柯洁说了算,他在会后的采访中用了一个很好的例子说明了AlphaGo的棋风莫测:(在回顾比赛时也对第54手的断)时,他表示了肯定:“很震惊,这在人类的下法中是不能有的。在断之后,它把自己的脚步实地化,变得更厚,一石二鸟。”。

算法



AlphaGo1.0的时候使用的算法精髓,根据FB田渊栋看完Nature论文的解读,由估值网络评估棋局,策略网络选择落子,快速走子(Fast rollout)适当加速,再用蒙特卡罗树搜索把以上这三个部分连起来,形成一个完整的系统。

这一次虽然知乎论坛等活跃地盘已经开始纷纷推测这次的AlphaGo2.0用了什么牛叉的算法,有了硬件的预测失误,真相还是等Deep Mind后面来亲自公布,目测算法预测这个要根据它的单机版10个GPU+TPU助力预测比较靠谱。

硬件需求降低



根据DeepMind员工发表在2016年1月Nature期刊的论文,分布式版本(AlphaGo Distributed)使用了1202个CPU和176个GPU。

不过这次比赛AlphaGo用的何种硬件配置,DeepMind在会后的新闻发布会中表示,这次比赛的AlphaGo是新版本,它改善了新的算法,主要进步是计算量少了十倍,自我对弈更强。Hassabis称,在比赛中程序是在一个单一的机器上运作的,这与去年不一样,当时是分布式的。这次有更强大的算法,运作起来更简单也更好,获得的速度更快。另外Hassabis表示,计算力可以“在Google云中获得,用的是TPU,十个处理单位,少了十倍的计算量”。简单点说,这次的AlphaGo是单机版。

迭代速度



哈萨比剑桥大学的一次演讲中提到,以前从零训练一个AlphaGo要三个月,现在只需要一个星期(“We also optimized the performance. It used to take 3 month to train a new version of AlphaGo from scratch. Now we can do it in one week.”)。

如果称对战李世石期间的版本为V18迭代版本,乔装成Master60连胜并宣布升级完成的时刻为V25版本,现在的AlphaGo又是V多少版本,训练的时候会不会一周都不要了?这是我们明天要亲自问DeepMind团队的。

从单人对战到团队对战



心细的朋友肯定注意到了,柯洁和AlphaGo对弈之外,5月26号上午还有一场配对赛,配对赛双方---古力+AlphaGoV连笑+AlphaGo,即对弈双方分别由一位棋手与AlphaGo组成,棋手与AlphaGo合作进行比赛。5月26号上午下午则是陈耀华,周睿羊,芈昱延,时越,唐韦星和AlphaGo的5对1团队赛。

Google之所以敢这样设置赛制,唯一的解释就是,AlphaGo现在既懂人类下围棋的那部分,又懂AI下围棋的那部分,并可以做到融会贯通,所以它才敢挑战配对赛这种跟另一个同伴高度配合的赛制,又敢挑战测试自己“战斗力”极限的团体赛。AI最可怕的部分不是它单个力量有多强,而是它开始懂得和周遭“互动”,这样的融汇是不是比去年3月的人机大战可怕多了呢?

总结



可以说,在围棋这个项目上,AlphaGo已经走在了人类的前面。由于围棋拥有数量极其庞大的可能性,以今天的计算机的能力还无法穷举,因此,AlphaGo并没有完全攻克围棋这项运动,它只是通过深度学习找到了一个比人类认识更优的解,但不是最优解。当然,人类也在不断进步,我们不要低估了人类后天的快速(小样本)学习能力,这点AlphaGo基于现在的学习方法还做不到。
Edit
注:机器人网原创文章,欢迎转载与分享,转载请注明出处。
广告
推荐使用浏览器内置分享