半小时后柯洁对战 Alpha GO. 如果柯洁输了, 就不仅仅是辱华事件的再次上演, 而是人类整体遭到了羞辱

  • 主题发起人 主题发起人 urus
  • 开始时间 开始时间
据说这版的Alpha Go机器的计算能力只有先前十分之一,是个单机。。说明算法已经大幅度优化。。。说赢你几目就几目,匪夷所思:buttrock::buttrock::buttrock:
真是匪夷所思
我们是外行看热闹
昨晚看对局前,我看了20多分钟对柯杰的采访,这孩子理智清醒有胸怀。。。非常尊重他佩服他
 
据说这版的Alpha Go机器的计算能力只有先前十分之一,是个单机。。说明算法已经大幅度优化。。。说赢你几目就几目,匪夷所思:buttrock::buttrock::buttrock:
说算法也可以。。。我理解是ALpha Go自我完善更强大了,未必是人类程序员调整算法,可以理解是ALpha Go本身通过一年多无数盘自己对局调整神经元链接权重,模型更加完善了
 
据说这版的Alpha Go机器的计算能力只有先前十分之一,是个单机。。说明算法已经大幅度优化。。。说赢你几目就几目,匪夷所思:buttrock::buttrock::buttrock:
说算法也可以。。。我理解是ALpha Go自我完善更强大了,未必是人类程序员调整算法,可以理解是ALpha Go本身通过一年多无数盘自己对局调整神经元链接权重,模型更加完善了
这意思就是不是说, Alpha Go已经不是随着棋局的发展用强于人类的智力去推演, 逐步获得胜利; 而是在开始的时候, 已经把所有可能性都掌握了, 然后引导对手入瓮?
 
有趣的是AlphaGo对我们的生活, 究竟能产生多大的影响.
 
这意思就是不是说, Alpha Go已经不是随着棋局的发展用强于人类的智力去推演, 逐步获得胜利; 而是在开始的时候, 已经把所有可能性都掌握了, 然后引导对手入瓮?
我个人理解力没有资格谈这个
我是看了柯杰赛前访谈,看了聂卫平与Alpha Go对局后谈棋,结合我自己去年认真看了李世石与Alpha Go的5盘对局,再结合自己对AI对神经网络对自学习的一点肤浅知识,有上面发言的
ALpha Go 不会引导对手入瓮,举个例子好理解。。。巴西国足来渥太华与CFC足球队比赛,用得着故意引导CFC队入瓮吗?

柯九段是职业棋手,有职业尊严,他说的很好,他会尽力不受过去围棋套路束缚,全力对局争取留下比较精彩的棋谱
 
有趣的是AlphaGo对我们的生活, 究竟能产生多大的影响.
这是Google AI团队的追求
ALpha Go一年来自我完善,棋的进步超级大,柯杰是这么评价的,一年前的Alpha Go, 柯认为还有弱点,自己上去也许还有机会。。。现在呢?柯杰自己说根本没有有机会的想法!
 
5月23日下午消息,AlphaGo和柯洁今日进行了首局对战,最终柯洁以1/4子的微弱差距败北。

  在赛后新闻发布会上,柯洁首先回答了新浪体育的提问。

  新浪科技:赛后点棋看到你笑了一下,为什么会笑?
  柯洁:那是苦笑,因为我很早就知道自己要输1/4子,AlphaGo每步棋都是匀速,在最后单官阶段也是如此,所以我就有时间点目,看清自己输1/4子,所以只好苦笑。

  新浪科技:你去年作为点评嘉宾,现在如果让你自己点评自己,你对自己的评价是什么?

  柯洁:如果要我自己点评,AlphaGo确实下得太精彩,很多地方都值得我们去学习、探讨,思想和棋的理念,改变我们对棋的最初的看法,没有什么棋是不可以下的,可以大胆去创新,开拓自己的思维,去自由的下一盘棋。

  今天我也是大胆去开拓自己的思维,在我印象中,AlphaGo非常贪恋实地,开局点三三等等。所以今天我也一直贯彻先捞后洗的战术,先把实地钞票捞到手,但在角部还是被他掏到实地,打破了我的战术,一下子就进入他的步调了。

  感觉AlphaGo和去年判若两人,当时觉得他的棋很接近人,现在感觉越来越像围棋上帝。我希望尽全力去拼每一盘棋。很感谢有AlphaGo这样的对手,感谢DeepMind团队给我机会去下这三盘棋,也希望通过这次比赛让大家了解围棋这个好项目,给大家带来快乐。
 
5月23日,围棋峰会柯洁对阵AlphaGo三番棋首局人机大战在浙江桐乡战罢。最终,柯洁执黑1/4子负围棋人工智能AlphaGo。赛后新闻发布会上,Deepmind团队负责人哈萨比斯与AlphaGo团队负责人席尔瓦在接受采访时坦言:“此次出战的AlphaGo是单机版,是李世石对弈的版本资源的十分之一。”

  华学明:请问是否发现AlphaGo弱点?

  哈萨比斯:即使是AlphaGo自我对局,我们也没有发现弱点所在。来参加峰会就是希望柯洁去发现AlphaGo的弱点。与李世石对弈时,我们发现了AlphaGo的缺陷,回去改善体系,让AlphaGo自我学习以不断自我完善。

  问:有说法AlphaGo并非只是去争胜,而是去控制胜负差距?

  哈萨比斯:AlphaGo总是希望将获胜概率最大化,需要做决策来实现完胜。

  席尔瓦:AlphaGo扩大获胜概率,我们也可以想象其他目标,如果AlphaGo只是想获胜的话,他就会降低取胜的风险。

  华学明:我理解是未来AlphaGo可以探索人类极限?

  席尔瓦:希望通过与像柯洁、李世石这样伟大的棋手比赛,来获得更多收获。

  问:请问这次是纯净版AlphaGo吗?
  哈萨比斯:AlphaGo仍需要和人类对弈,是先学人类棋谱,随后开始通过自我对局来进步提高,所以AlphaGo是依靠人类棋谱数据和此前版本来进一步提升。仅通过自身对决可能发现不了缺陷,和顶尖棋手对决才能提高。我们希望通过完善AlphaGo,在其他领域为人类服务。

  问:AlphaGo这次是什么版本,这是最后一次现身吗?

  席尔瓦:AlphaGo算法超越数据计算,比去年李世石对弈的版本强了十倍。

  哈萨比斯:我们在科学杂志《自然》发表了论文,这周之后我们会公布更多细节和计划,众所周知目前也有很多强大人工智能软件,我们也会在今后公开AlphaGo更多技术细节,使其他实验室或团队能够建造自己的AlphaGo。

  问:AlphaGo用了多少GPU?

  席尔瓦:AlphaGo这次是单独机器,利用谷歌云。和去年不一样,去年是分布式实施,有很多机器。这次这台机器是更好、更快、结果更好的,依靠TPU,是李世石对弈的版本资源的十分之一。

  华学明:对于我这样不懂计算机的,可以理解这是单机版的AlphaGo吗?

  哈萨比斯:是的。
 
Delete its DB and Distributed DB and all back up data, then it has to re-learn from 0-years old:buttrock::buttrock::buttrock:
 
Delete its DB and Distributed DB and all back up data, then it has to re-learn from 0-years old:buttrock::buttrock::buttrock:
no, not that simple:(

Alpha Go大体两个部分,就人工神经网络那个部分来说,最初是通过学习人类棋手棋谱调节神经元之间链接的(0 或 1),有了模型和链接参数后,Alpha Go通过不休止的自我对局自我学习不断调节神经元之间的参数 (这是为什么一年之后Alpha Go更加强大到不可思议的原因),这些参数有了以后,根本不需要您提的过去用于学习(training 更准确)的DB了。。。。
 
Alpha Go通过不休止的自我对局自我学习不断调节神经元之间的参数
这个自我学习很可怕。 有点自己进化的意思了。
 
  今天我也是大胆去开拓自己的思维,在我印象中,AlphaGo非常贪恋实地,开局点三三等等。所以今天我也一直贯彻先捞后洗的战术,先把实地钞票捞到手,但在角部还是被他掏到实地,打破了我的战术,一下子就进入他的步调了。
 
开拓的结果, 柯洁序盘就点了个三三, 匪夷所思, 心里怕了的表现.
 
这个自我学习很可怕。 有点自己进化的意思了。
是的,这是AI可怕之处
Google愿意花钱请柯杰(输棋也是每局200万出场费)当小白鼠,就是要选择当今最优秀的人类棋手来做Test Bench,看看ALpha Go是否有弱点没有暴露出来。
一年前,李世石赢的那盘棋就是Alpha Go的一个Bug,被李的那步棋(相当于一个Test Sample)测试出来了。

机器不知疲倦,可以无休止自我对局自我学习,人类哪有这样的体能?
 
后退
顶部
首页 论坛
消息
我的