直播李世石VS谷歌AlphaGo人机大战

  • 主题发起人 主题发起人 xyd88
  • 开始时间 开始时间
再补充一下,围棋布局以后,特别是中盘绞杀,哪一处落子不是牵涉到几处?
我没看到微软的评价,很怀疑搞机器学习的会讲出那样的话。。。忒不懂围棋了
 
微软这个评价?忒不靠谱了
首先,狗狗算法主要不是搜索了,搜索只是一个部分
其次,如老向所说,解释不了后面
不要说您了,但凡懂点点围棋的,都不会理解97那一步,脱离战场跑到别的地方送一子帮助黑棋加强
然后,又跑回来继续,特别是已经是死期了还在一路那里走101,除了帮助黑棋加强,对自己毫无益处,一路棋子,还是死棋,有任何利用价值吗?

可见,不是搜索问题
就是Bug,问题是怎么会出这样低级的Bug,如何刺激才会出来
郑宇(博士、教授、博士生导师)微软亚洲研究院 主管研究员、城市计算领域负责人, Editor-in-Chief of ACM Transactions on Intelligent Systems and Technology,2013年被MIT Techology Review评委全球杰出青年创新者(MIT TR35),ACM数据挖掘中国分会秘书长。
 
郑宇(博士、教授、博士生导师)微软亚洲研究院 主管研究员、城市计算领域负责人, Editor-in-Chief of ACM Transactions on Intelligent Systems and Technology,2013年被MIT Techology Review评委全球杰出青年创新者(MIT TR35),ACM数据挖掘中国分会秘书长。
看起来是专家,没看到评论呀

如果谁能搞到Google自己点评就过瘾了,非常期待
 
转贴:第四局AlphaGo乱下的原因分析

尽管小李第四局赢了,但我还是要说他这盘棋我完全看不下去,估计下过棋的同学们都有同感吧。
挖确实是妙手,但其实如果电脑应对正确还是要输——这点周睿羊、王檄在讲棋的时候就说了——开劫让白棋联络就是了,然后右边黑棋跑出来。
第四局电脑的败因是自己,在挖后连续的莫名其妙的走棋。
第四局最大的意义是证明了,电脑的计算也是有极限会漏算,再次证明了围棋和国际象棋的不同。电脑象棋是真正的算清了,电脑围棋不是。
我最赞赏的柯洁的说法,可以输棋但别跪舔电脑——特别是对于职业棋手。其实第一局第二局的左下,电脑都明显出问题手导致亏损。

关于第四局电脑为何会走,田渊栋博士(facebook 围棋程序DarkForest的作者,和狗属于同类的新一代电脑围棋程序)的观点如下:


注:田博士以前分析过,AlphaGo有两个走子策略,一个是自学习的新一代程序DCNN?,一个是加强的上一代程序(快速走子?)。新策略是学习的产品类似于靠棋感下棋,而老策略类似于靠计算下棋,而根据局面不同新策略和老策略是有权重调整的。单独使用两个策略都可以到达弈城3D的水平。我的理解是AlphaGo是靠两个走子策略提供思路,靠蒙特卡罗搜索进行计算,而那个3000万盘训练的估值网络Value Network是为了简化搜索时间提高搜索质量用的。

著作权归作者所有。
商业转载请联系作者获得授权,非商业转载请注明出处。
作者:田渊栋
链接:http://zhuanlan.zhihu.com/yuandong/20644427
来源:知乎

第四局李世石的78手L11挖被大家誉为“神之一手”,在DarkForest的策略网络输出里排第31位,而J11靠排第10位。因此我觉得可能是AlphaGo没有算到这一步。如果对方下了一手机器没算到的棋,则蒙特卡罗(MCTS)搜索树会清空,然后重新开始搜索,不应该会太快做出结论。李喆六段告诉我K10这一手是秒下,那有可能是时间管理子系统在搜索树清空时有程序上的漏洞,因此过早地将搜索结果返回了。MCTS在一开始搜索的时候,因为模拟次数不够多,每步的胜率方差非常大,所以返回一个不够好的着法如K10是很正常的(在DarkForest里面这着排在前四)。这个比较容易修正。 另 一种可能是,AlphaGo的估值网络出了问题。因为估值网络的权重是0.5,而不管快速走子从一个局面开始重复了多少次,它的权值也是0.5。对于一个 局面,估值网络只得到一个数,而从这个局面往下走子,走多后会得到很多个数,统计上应该更为重要,但是AlphaGo不是这样想的,两边各自算得胜率后直 接对半平均了。所以如果估值网络对某个局面得到的结果不对,则会极大地影响对该局面的胜率估计。注意这里得到很多个数的原因是按照文章,叶 结点在积累了一定盘数后(40)才展开,而不是第一次访问就展开,以提高DCNN的效率。DarkForest没有用到估值网络,在L11的挖之后正确地 返回了L12和L10这两个应手,据李喆六段说,都是正确的应手,这间接支持了这个推断。AlphaGo在87手之后才意识到自己已经大大落后,可能也是 由于同样的问题,比如说把右边的黑大龙看成活的。那为什么估值网络会出问题呢?可能是用于训练估值网络的自学习(Self-Play)的样本分布有盲点。 为了提高样本生成速度,AlphaGo的自学习样本是通过用两个纯粹的DCNN互搏来生成的(完全没有搜索),而DCNN下出来的棋因为是纯模式识别,一 个大问题是死活不正确,经常是在死棋里面下子。如果黑白两方都犯了死活不分的毛病,然后一方比如说白侥幸胜了,那估值网络就会认为方才白的死棋局面是好 的。这样估值网络就会染上同样毛病,在中盘复杂的对杀局面中判断失误。若是这种情况就不好处理,AlphaGo下一局可能还会有同样的问题。这里可以看 到,电脑本身也不是靠穷举来下棋的,围棋毕竟太复杂,每一步都要剪枝,离当前局面近的仔细剪(用DCNN),离当前局面远的快速剪(快速走子),直到终局 得到胜负为止。剪枝的好坏直接关系到棋力的高低,DCNN只是一个有大局观的非常好的剪枝手段,它的盲点也会通过败着反映出来。关于DCNN+MCTS打 劫。首先因为MCTS是全局估计分数的,劫争本身和其它局面在程序看来没有本质区别,都只是一步棋而已。劫的特殊性在DarkForest上表现为碰到有 劫可提的情况时,DCNN经常会以非常高的概率(0.8以上)返回提劫这一手。可能的原因是,劫点是作为单独的特征输入的,所以DCNN学习到了它和输出 (提劫)的强关联性。这样在MCTS搜索时会强烈偏向这一手。这在很多情况下是正确的,但有时劫很小可以不予理会,或者碰到两个或者多个劫需要放弃一个, 那“遇劫必提”的偏向性就会给搜索带来麻烦。有时连环劫电脑反复提就是这个原因。AlphaGo可能会有这个问题,或者是反向的问题(比如说提劫概率很 小),这样在下棋时大家就会感觉到它在避免开劫,或者在含劫的变化中计算失误。关于地平线效应(Horizon Effect)。国象的AI里面会有这个效应,比如说只搜索10步,计算到别人的后被自己的后吃了结束,然后用简单的加和法估计下盘面发现自己多个后特别 爽,觉得这个分支特别好。其实再往下走一步自己的后也被别人吃了,或者掉入陷阱,这样就误算盘面价值。但是围棋因为 每次模拟都是走到底的,可能前30步是用DCNN,之后就是用快速走子,虽然走子质量上有差距,但是大方向上不会错,所以地平线效应在某种程度上是减弱 了。而且这次AlphaGo的失误在20步以内,应该还在DCNN的范围里面,所以地平线效应的可能性比较低。
 
UPDATE:第四盘,电脑盲点出来了。我在下面说过,逻辑性是 DNN 的盲点,可以误导 MCTS 的展开,某些怪招是走入了错误的变化,而不全是什么神之一手天外飞仙。同时 AlphaGo 也会出现盲区。正是如此。之前我在这里还说 Google 很鸡贼,不公开 AlphaGo 失败的棋谱,也不开放任何对弈,避免显示自己的弱点,下面不时有人出来喷“凭什么要求Google公布”云云,言辞非常不客气,我就编辑掉并关闭评论了, 各位现在理解了吗。许多做机器学习的朋友不了解电脑围棋,如果真研究过近年来的电脑围棋文献,会发现和跑个 ImageNet 的程度不一样,需要的逻辑知识更丰富。电脑围棋未来会完美战胜人类棋手(且必须加入更多Domain-dependent的方法),但恐怕不是今天。 NOT TODAY。我们看看 Google DeepMind 的 Hassabis 怎么说吧:
@demishassabis 26m26 minutes ago
Lee Sedol is playing brilliantly! #AlphaGo thought it was doing well, but got
confused on move 87. We are in trouble now...
@demishassabis 7m7 minutes ago
Mistake was on move 79, but #AlphaGo only came to that realisation on around
move 87
这就正是我在此所说的“电脑吃惊”。其实即使对于AI研究,最完美的情况也并不是碾压李世石,而是我们看到人机之间的此消彼长,互相学习。围棋是一个极其有趣的问题,希望看到它能为AI研究贡献更多世界的奥秘,而不是如此轻易地被彻底解决。


AlphaGo的核心是 MCTS + DNN + RL。之前没有说 RL,但它其实是很有意思的部分,因为在从前的对弈程序研究中,RL 的效果一般并不好。RL 的弱点是 overfit,也就是虽然小道消息公布目前这个版本的 AlphaGo 面对去年的战胜樊麾的版本的胜率是 100%,估计 ELO 分已经超出 4000,号称天下无敌,但这里面实际是会有很大的水分的可能。在其他棋类的例子上,有这样的例子: RL 后的程序秒杀 RL 前的程序,但面对其它不同棋风程序的胜率反而略微降低。下面我们看 MCTS 和 DNN 的缺陷。
================================================

身为人类,恰好对于电脑围棋、General Game Playing、机器学习有过一点研究,希望在此为形势不利的一方支招。冀望研究AI的朋友们此时都开放一点,告诉公众和棋手,目前AI所存在的缺陷,而 不是有意无意地只想搞个大新闻。很理解Google等公司作为利益相关者,大谈AI的长处,不会自揭短板。Google这次取得的成就也非常伟大。但即便 从公司利益出发,现在为人类棋手支招,事实上也有利于进一步促进AI水平的提高。如果人类不在最佳状态,那么对于机器的测试又如何能测试出机器的极限?下 文如有错漏,请各位不吝补充。

1) 复杂的劫争、复杂的对杀(Semeai)、"看似有利实际不成立的棋"、"看似不利实际合理的棋"(做过对弈程序的朋友会清楚,这些反应出来就是"漏 看","过分乐观")等等,一言喻之,所谓 trap,一直是蒙特卡洛树搜索(MCTS)甚至对弈树搜索的软肋,如 International Conference on Computers and Games 2013 论文集中,多篇都讨论过这类缺陷的表现。

AlphaGo 通过运用深度神经网络评估和选点、tree与playout的知识共享、历史知识共享、暴力增加搜索速度和节点数,等等,弥补了大部分"漏看"的情况,但"漏看"仍会存在。对于围棋,尤其如此。

这首先来自于,由于对弈树太大,所以MCTS在每一层都会尽快选中少数点集中搜索。如果一开始的选点全部或大部分错了,根据合格的MCTS的设计,仍然可 以在后续搜索中找回正确的选点,但需要的时间会很多,有可能就会漏看;其次,在playout中,也同样会有覆盖不够的盲点,影响局面评估。

一个具体的例子。AlphaGo 在局势均衡时,出现的怪招,如果是在短兵相接的情况下出现的,一部分会是算路极深的妙手,但也会有一些属于这样的误算(就是没看到后续双方的正解,而是陷入了错误的变化),表现出来就是损棋。后文会继续谈电脑的怪招问题。

2) 同样,深度神经网络(DNN)也存在盲点,且这种盲点属于此方法的根本问题,现阶段无可能解决。下面是一个普通人不了解的事情:DNN与目前的绝大多数机器学习算法,所学习到的,其实都是统计知识,而不是精确的逻辑知识。

举个图像识别的例子。给DNN一群人在一起的照片,DNN现在可以数出里面有多少个人,且有时比人类还要强。比如只露了某个身体部位,也可能识别出来。但是,也永远会有人类看上去一目了然,但DNN识别错误的情况,因为DNN完全没有办法学到什么是人的精确定义!

这方面经典的文章是 Deep neural networks are easily fooled: High confidence predictions for unrecognizable images ,下图左边精心构造的噪音图像会被DNN以非常高的置信度判定为存在某某物品(有趣的是,可以在右边看到,我们也可以构造出“有点像这个物品”的假图像, 说明DNN学到了许多东西,只是不精确)。

如果我们拿到 AlphaGo 的网络权重数据,同样可以构造许多类似的欺骗局面。但是,我们拿不到。不过,目前看来,这种问题已经在对局中显现了。

一个典型的例子是布局部分,所谓的"走错定式"。

与普通人的想象不一样,DNN虽然学习过无数局棋谱,但是绝不会简单地死记硬背棋谱。这是DNN的胜利,它有能力大致学习到棋谱中所反应的更有趣的精神, 如布局的方向选择,某个局部和另一个局部之间的联系,等等;而另一方面,DNN所学习到的围棋知识,也存在着同样的"不精确性"与"逻辑性缺陷",正如雾 里看花。

那么,布局走错次序、走错位置、不同布局的杂糅等等,在了解的人看来,就很可能是DNN的签名(MCTS也有类似的缺陷,因为在它看来布局的许多不同位置的胜率都差不多,结果实际行棋就会有不精细之处)。人类所应该做的,就是不要想太多,按照棋理与布局理论给予还击(是的,人类的布局理论一定还有缺陷,但以 AlphaGo 目前的水准,恐怕还达不到这一层)。 ——我的观点有了专业人士的赞同

如果不了解这件事,把电脑想得太神秘莫测,只求稳,如小李在第二局的一些应对,则会正中电脑的下怀,把自己绕进去了。关于此,柯棋渣的直播和孟主播的复盘 围棋TV_极速点评之人机大战特别版都说得很好。

电脑的某些怪招,也同样是这么来的,不一定都是什么天外飞仙。此前举的复杂劫争、对杀等等,也存在 精密的逻辑成分(如每个劫材的精确大小、先后手,全棋盘各个局部之间的复杂关系,等等),会是电脑的弱项。另一方面,官子部分虽然也要精确算,但以 AlphaGo 目前的运算能力恐已足以暴力搜索解决(团队应该会在此时接入精确的搜索树而非蒙特卡洛树),不能指望它出错了(看似出错的地方,都是棋局大幅领先时 MCTS的签名而已,不改变胜负)。

3) 关键的部分来了。怎么应对 AlphaGo?

单从对局来说:

第一,自己不能出错,每步棋要达到 80 分的质量。 因为电脑抓漏抓棋形缺陷等等的能力有时会很强(就看MCTS是否刚好考虑到了那个变化),不能给它机会。

第二,如果看到 AlphaGo 的怪招(特别是棋局开局与中前期的怪招),先想想是否是自己看漏了,如果似乎不是,那么不要把它想得太高明,应该用正常的方法反击,而不要心虚求稳。这样才可慢慢积聚起优势。否则就是安乐死,仿佛不知道输在哪里。

第三,同样,AlphaGo的行棋有时会有不精细之处。发现时,都应积极抓住处理。

第四,一些需要了解的地方:

1. 从 AlphaGo 的 DNN 设计来看,它会略微更喜欢走离 自己上一手 / 对方上一手 很近的点。

2. 目前的MCTS算法,电脑容易略微高估自己,低估人的战斗能力和活棋能力。如果人表现得好,电脑是会吃惊的(评论有朋友问什么叫电脑吃惊,这个做过对弈程序的朋友都知道,就是起初认为局势一片大好的评估函数,突然就开始急转直下了,哈哈)。

3. 许多人都已经知道,目前的电脑围棋程序在领先的时候都会求稳,下缓手(因为实际测试,这样的胜率确实更高)。

以上是对局的方面。而更重要的事情是在对局之外。

上面是媒体报道使用的一张图片。这张图片看了令人觉得挺难过。李世石和从前的卡斯帕罗夫一样,现在面对的心理压力,前所未有的巨大。希望能有机器学习专家找到李世石,介绍 AlphaGo 的算法和可能存在的缺陷,让他能够调整状态,奋力再战!

此次对局,是 AlphaGo 在暗,人类棋手在明。AlphaGo 看过所有人类棋手的棋谱,而人类棋手却始终蒙在鼓里。有些不厚道的是,Google 故意放烟雾弹,只公布了去年的较弱的版本的对局谱,并且绝不谈最新版本的棋力情况,有心理战的嫌疑。

这并不改变 Google 取得了伟大成就的事实,不过也留下了口实。心理因素,对于人类而言太重要了。打个比方,如果换成爱虐电脑,与机器斗争经验丰富的罗洗河,局面会是如何,会比较有趣。

如果 Google 不是仅仅为了追求宣传效应,那么建议在此次或此一系列对局事件后,开放与 AlphaGo 对弈的接口,让所有人类顶尖棋手前来实验。即使收费,也会有许多人愿意。

人类的学习能力,在许多方面仍然远强于机器学习。通过反复测试,完全可能试出 AlphaGo 的缺陷,学会 AlphaGo 学习棋谱与自我对局所生成的经验(DNN 里面的经验也是有办法直接显示给人类的,不是纯粹的黑箱)。这与象棋的情况不同。围棋很特殊,可以说是最适合人类的一种棋类,比象棋等要适合得多。樊麾在 与 AlphaGo 多次对弈后长棋了,其他人类棋手也会有类似的发现。电脑能进步,人也一样。一个强大的对手,可以推动围棋的新发展。

(要找到AlphaGo 的缺陷所在,最直接的,是看 AlphaGo 自我对弈的棋谱。自我对弈,就总有一方会输,那么就看看是如何输的。说起这个,许多人可能不知道,对局程序里有大量的内部信息,比如程序估计的选点,每个 点的胜率,以及每个点的变化图解。如果再略微分析一下,还可以显示程序认为哪里是局势的关键点,哪里已经尘埃落定,哪里是未来可能争斗最激烈的区域,以及 DNN的形式判断理由,等等等等。如果 Google 愿意把这些数据显示出来,那就更有意思了。)

行文至此,东方渐白。我相信在围棋这个毕竟是人类创造的棋盘游戏上,机器在不久的将来会彻底战胜人类,断绝一切幻想,正如现在的象棋,但我只想说,NOT TODAY!如果您同意本文的意见,请记得给本文 up vote 一下吧,对,就是点一下左上角那个向上的剪头。

何况,这只是 AI 漫漫长路的一个小小驿站。别的不说,前沿的理论数学的证明,很难想象现在的 AI 怎么理解,更不谈怎么推导。代数拓扑和代数几何有希望。数论最难。更简单的例子,AI 什么时候能写出我们在这里的回帖?目前的电脑架构,恐怕希望不大。生物计算机,量子计算机,分子计算机,可能才是正解。不说了,先睡了...

彭博 于 2016年3月11日晨


补充:

对于电脑围棋关注过很多年,大部分这方面的文献都读过,也写过程序。此处写下的 MCTS 和 DNN 的漏洞,既是许多文献的意见,也是自己的经验所得。如果哪位有不同意见,很欢迎指正。

但是,这里的所有评论,居然没有一个人正面谈论这个问题(如这些漏洞是否存在,该如何解决),一群人去争论些边边角角的杂事,如 Google 是否应该公开权重公开棋谱之类,有没有可能解读出权重里面的信息等等,各路人瞎吵,令人无语。这是新一代的中医vs西医之争吗?信噪比太低了,全清空罢。

最后,点名批评之前评论中的许多人,学了一点机器学习课本知识,就开始 show,太可怕了。世界很复杂,我们都还得虚心学习一个。实际的问题千变万化,不是课本可以涵盖。是的,我对于喜欢人身攻击的人就是这么不留情。讨论问 题很好,有些人一上来就人身攻击,这是什么路数?

我还搜索了一下,好像很多人都在知乎吐槽喷子,还有人总结说喷子最喜欢抓住他们懂的那点东西死缠烂打。比如 MCTS 这么简单,但对于机器博弈又极其重要的东西,他们很多就不懂,很多课本也不教,所以他们就啥都不会说。关于本文说的主要论题,他们也啥都不会说(真令人失 望),就会反复纠缠一些细节。很多时候,我特别特别不想回他们的评论,因为感觉在免费教他们。但是看他们在下面吧,又觉得很容易误导观众(他们会互相点 赞!很牛的),怎么办呢?现在我学会了,就是拉黑+关闭评论......

作者:Peng Bo
链接:https://www.zhihu.com/question/39906815/answer/90194733
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 
是李世石的坚持和顽强找到了狗的弱点。也是AI的弱点。

一般来说,大家只想到电脑的强大的计算能力。其实AI在模拟人脑的时候需要建立基于经验的数理逻辑推理,也就是逻辑推理是基于存于数据库的经验之上的。狗的经验就是棋谱。根据狗的开发者David的介绍,狗选择落子的依据是最佳赢率,而人类的依据可预见的最高得分。狗在开局时因为数据(定式)量庞大,因而选择多,而第四局选择和第二局一样的开局,估计是这个定式给了较高的赢率。之后的布局至中盘狗都有优势,也是有庞大的数据(棋谱)支持。李世石在第三局败局已定时的坚持就是在试招比如逼狗打劫。而在第四局,李世石明显改变了自己的风格,保守守角观望一直坚持到那改变局面的神来之笔。这时的狗连连出臭招是因为按照这个棋局,可供参考的经验(棋谱)几乎没多少,无法行进逻辑推理。估计AlphaGo程序中对这个边界值处理的不好。

AI的弱点在另一个方面就是图形模式识别,因为无法象人一样去识别后来出现的棋形,而又失去继续前行的逻辑推理依据,结果出的臭招就很好理解。在这种情况下人类是靠棋形,经验,潜在的感觉往下走。

李世石的机会也是不可复制的,坚持到那个点,还要找到缺口,机率很低。

是李世石顽强坚持找到了狗的弱点。李世石强大的心理素质是赢的关键。他又为自己的传奇经历增写了强有力的一笔。
 
是李世石的坚持和顽强找到了狗的弱点。也是AI的弱点。

一般来说,大家只想到电脑的强大的计算能力。其实AI在模拟人脑的时候需要建立基于经验的数理逻辑推理,也就是逻辑推理是基于存于数据库的经验之上的。狗的经验就是棋谱。根据狗的开发者David的介绍,狗选择落子的依据是最佳赢率,而人类的依据可预见的最高得分。狗在开局时因为数据(定式)量庞大,因而选择多,而第四局选择和第二局一样的开局,估计是这个定式给了较高的赢率。之后的布局至中盘狗都有优势,也是有庞大的数据(棋谱)支持。李世石在第三局败局已定时的坚持就是在试招比如逼狗打劫。而在第四局,李世石明显改变了自己的风格,保守守角观望一直坚持到那改变局面的神来之笔。这时的狗连连出臭招是因为按照这个棋局,可供参考的经验(棋谱)几乎没多少,无法行进逻辑推理。估计AlphaGo程序中对这个边界值处理的不好。

AI的弱点在另一个方面就是图形模式识别,因为无法象人一样去识别后来出现的棋形,而又失去继续前行的逻辑推理依据,结果出的臭招就很好理解。在这种情况下人类是靠棋形,经验,潜在的感觉往下走。

李世石的机会也是不可复制的,坚持到那个点,还要找到缺口,机率很低。

是李世石顽强坚持找到了狗的弱点。李世石强大的心理素质是赢的关键。他又为自己的传奇经历增写了强有力的一笔。
赞成
电脑狗狗肯定有算法上的缺陷,李9段的机会极难复制,坚持到那个点,还要找到缺口,机率很低。是李世石顽强坚持找到了狗的弱点。李世石强大的心理素质是赢的关键。

我们看第5盘,李9段是否可以再次找到那个缺口点。
 
太好了,78move 被问到了,Google的回答是外交形式,没有回答实质。那个主持人9段太棒了,马上问了我在这里几次问的,既然78难以被狗狗认可,如果是人类棋手会Thinking,Why AlphaGo did move 79 very quickly. 遗憾的是Google也没有给出满意答案,还是打了个太极拳
看来,真正的问题只有他们自己去解决了
 
太棒了,Google回答了狗狗是如何工作的,首先NN网络提供Suggestion,然后传统算法给出Valuation

这个英国口音的家伙 David,就是卖狗狗给Google的那个英国人吧,真是有创造力的smart guy,看着就聪明的样子,挡都挡不住,赞美他!正能量!
 
那两个我们在这里讨论的核心问题
1》 78 是怎么回事,David 讲那是狗狗Unlike move 是人类棋手1/1万 会走的Move,very hard to say why and how AlphaGo exactly make the moves,这恐怕也是实话。
2》 为什么狗狗没有思考如何应对78,那么快就走了79,David回答是他们会look at it in the future
 
最后编辑:
赞成
电脑狗狗肯定有算法上的缺陷,李9段的机会极难复制,坚持到那个点,还要找到缺口,机率很低。是李世石顽强坚持找到了狗的弱点。李世石强大的心理素质是赢的关键。

我们看第5盘,李9段是否可以再次找到那个缺口点。
李世石没有上次保守,没给电脑布大局的机会,直接短兵相接,坚持的更长,还是没找到突破口。
 
还是阿狗
 
最后编辑:
枫老师,您的观点,先不考虑是否认同您
至少,这里有两点,恐怕您需要重新思考
第一,您首先结论中国现在都是在跟西方学,这一点就与现实有差距,西方主流价值是民主自由选举,中国是一党专制没有选举,民主是西方的基石,这个都没学,学什么?。。。好吧,不谈民主政治,谈您提的弱肉强食,咱们生活在加拿大对加拿大相对比较了解,9981前面已经讲了,加拿大就是最好的支持弱者的典型国家。加拿大执政党自由党政府支持弱势群体是十分突出的,包括接受叙利亚难民政策都是支持弱者的一个例子,不在这里展开了。
第二,您讲现在国内一线城市大部分人根本不想出国,首先大部分人出国不可能也是不现实的,没有哪国能接受中国那么多人口,其次想不想是主观,无法判断,只能从客观现实上看,现实是,北京,上海,广州,申请加拿大移民照样要排队若干年。最后,现在来加拿大留学及去美国留学的中国留学生从大学到中学年年人数增加,相当部分的学生来自北京,上海,广州。
留学生毕业后有回国的,也有相当部分人选择留在加拿大,加拿大给这些留学生三年工作签证,然后排队移民,这个月学生移民排队达标的份数是450分,大多数留学生毕业达不到450分。。。这说明北京上海广州不仅有送孩子出国的,而且出国留学毕业想留在加拿大的人数大于加拿大可以接收的人数。

以上,只是基于事实谈一点看法,供您思考,其它部分内容,容我化时间慢慢思考吧

老习,您好。
我们在谈西方社会的价值观,没有谈政治。

哲学人文科学上,普世价值(英语:Universal value)泛指那些不分领域,超越宗教国家民族……只要本于“理性·良知·正义”皆为所有或几乎所有的人认同之价值、理念。现代公民社会普遍信仰“人权·自由·平等·民主·宪政·博爱”的价值观;反对传统社会“君主·奴役·阶级压迫·集权·专政·仇恨”的学说。(维基)

我对加拿大还是有很好印象的。加拿大的确很照顾弱势群体。但是,加拿大照顾弱势群体是有自己的小算盘的:他需要移民。来这里的弱势群体,都是被加拿大挑了又挑,选了又选的。中国在20年前,也是属于穷困落后的国家,中国人也是弱势群体。能够来这里的中国移民,都是素质文化相当高的人;其他国家的移民也是一样的。如果加拿大只招这样的人来,他的主要动机就不是让弱势群体也过上快乐的生活了。能过上好日子的移民,要多么努力才能达到这么一步。 还有很多人,他们未必过得很如意,他们快不快乐,他们心里清楚。我一直觉得,加拿大,中国吃不饱饭的农民工来,是会感到快乐的,可是他们来不了。受过好教育的知识分子,不会感到快乐。他们的生活,离理想还有距离。加拿大就是最好的支持弱者的典型国家,这句话,我不能完全同意。

再一点,西方社会,加拿大只是一个不大的国家,不能作为西方国家的代表。真正的西方国家的代表,应该是美国和英国。他们对难民和弱者是个什么态度,大家都看到了。他们接受了叙利亚难民吗?他们照顾了弱者吗?美国人的职场竞争比加拿大激烈,稍微不留意,就会出局。那就是弱肉强食。弱者在美国,我不知道他们怎样,在加拿大就是苟且活着,没有尊严。

还有,美国人本国竞争如此激烈,他们对其他民族和国家,更加弱肉强食了。顺我者昌,逆我者亡。对其他的民族,更是没有仁慈之心。而且,西方人还很虚伪,表面上让你挑不出问题来。

出国的事情,中国人现在很理智。鲜有全家过来一起吃苦重新奋斗的了。都是送孩子过来。毕业后来去自由。我是很看好中国的发展的。几年前我也不相信中国能好,现在我改变了我的看法。回国的时候,我看到中国的巨大变化。那种变化,我们这边也看不到。中国人的生活很有活力,不像这边,跟加拿大的冬天一样,死气沉沉。我甚至觉得二代的孩子们,都应该回去发展。

跟您只是讨论一些问题,我不喜欢拿刀抡枪火光四溅。9981是一个谦虚大度品行高洁的君子之人。我表达了与他不同的意见,看把您急的。吃水不忘挖井人,你们也都是那边培养出来的人,为什么总说人家的不是。看了很久,有机会出来讲几句。见谅。
 
alphaGo 实力无疑,人类基本不是它对手了。。。李9段赢的第4局虽然技术上不值一提,但是,暴露了AlphaGo的缺陷,这不仅仅是围棋的事情,也是将来机器人都可能有的问题或短板,是机器人的命门,只是这个命门不好找。

我非常欣赏李世石的风度和胸怀,他那手78挖造成了狗狗的突然失魂落魄,现在被吹上了天,其实,技术上那手棋并非神手,那手棋之前李9段已经完败 (我的棋力在下棋2小时都已经看出李败了,这不是事后诸葛亮,在本楼159楼有截屏),那手棋下出来技术上也不足以翻盘,一个职业7段以上选手足以应对78,保持完胜。

第5盘棋,开局局部,狗狗先后在右下右上,人类角度看是局部战斗失误吃亏了 (非常吃惊,机器局部战斗计算失误,这是颠覆性的),然后李9段在左上成功做活(虽然很委屈),但是。。。。非常惊奇。。。即使李局部3个战斗都赢了,甚至吃了右下几个白子,整体就是狗狗占据优势,而且是厚实的大局占优

此后进入中盘,波澜不惊,技术上李世石没有必要下下去了,应该中盘认输,只是李9段坚持不懈,不投子不认输,在等待阿发狗Bug出现,只是这一次奇迹没有出现,什么是Bug,Bug就是没有规律的神经病:p 谁也不知道什么时候犯病嘛。 不是周末,再说我看李必输无疑,中盘看了半小时就睡觉了。

看了三盘Live,三盘共同点都是布局结束,人类就输了。
第三盘,李9段早就该投子认输(看Live时在这里有发言,我的臭水平都宣布李输了该投子了),现在明白了,不是李没尊严,那是李故意不认输,在坚持等待狗狗犯病抽风,只是没等到。
第四盘,布局一小时,158楼我截屏认为狗狗优势,2小时后中盘我认为狗狗完胜,那时候盘面到处都是清晰的,没有什么漏洞,李9段应该是中盘负。不是李没尊严不职业,是李顽强创造机会等狗狗犯病。等到了78手挖,挖出了AlphaGo的Bug
第5盘,还是布局结束,中盘狗狗就胜了,李9段没什么机会,狗狗也没犯病,就这么波澜不惊的结束了
 
后退
顶部