王小川:没机器干得好就会被机器取代
|
新浪科技讯 3月25日上午消息,王小川近日出席博鳌亚洲论坛,并参与了主题为“人工智能—探索生命疆界”的对话,在与正安中医创始人梁冬的对话中,王小川从近期火热的谷歌围棋程序AlphaGo谈起,深度解析了以AlphaGo为代表的人工智能的目前应用、未来发展,以及人工智能和人类之间的关系等。 王小川表示,在去年年初的时候考虑过AlphaGo一样的事情,但是搜狗内部没有合适的资源和精力可以做起来,直到AlphaGo相关的论文出现,自己才万分后悔懊恼,于是在AlphaGo和李世石的比赛中,花了较多时间去参与技术的解读和现场直播解说,但也可能只是“弥补了10%,还是有很大的遗憾。” 王小川还从深蓝电脑谈起,为现场观众解释了这些年里人工智能技术的变迁与进步,并表示深蓝和AlphaGo背后的其实并不是技术在量上的积累,而是已经完全有了质上的提高。 这种技术在质上的提高表现为“深度学习”的不断突破,于是王小川还运用武侠中“左右手互搏”来给大家解释了AlphaGo是如何自我学习和进化的。 此外,王小川还预测了AlphaGo的研发团队的下一步发展,可能会把AlphaGo下围棋的能力,转移到其他领域,在其他领域实现进化和学习。 不过,王小川并不认为在未来人类和人工智能的关系是“对立”的,他还是认为机器更多的是对人类的一种辅助,而且强调这种辅助早已存在,“机器可能不是一个机器人的形态,大家现在手机里或者各种智能家居都是机器的表现之一。”人工智能的大趋势是和人实现融合。 当然,对于机器取代人的话题,王小川的判断是:“如果同样一件事情,机器干得比人好,那人就会被机器取代,这是规律和趋势。” 对于搜狗搜索的发展,王小川认为下一步是从提供信息变成“你生活里的小助手”——给你答案和提供服务。并且进一步解释称会涉及更多的智能硬件应用。此外,王小川也表示AR带来的虚拟世界探索也将是科技发展的一个大趋势。(李根) 以下为王小川在博鳌论坛上的发言实录(标题为后添加): 搜狗内部想过AlphaGo一样的事 没做起来很懊悔 去年初的时候,我们已经开始意识到了深度学习这样一个技术有机会应用于下围棋,所以我就希望在内部、外部找到适合的人一块做这个事,但是很可惜,但是限于资源、精力没有凑起来。但是我对围棋非常感兴趣,所以今年一月底谷歌的论文一登出来,我立刻说谷歌会完胜李世石,原因是看了论文之后,我发现里面的内容跟我们之前对于人工智能,对于深度学习理解的模式是非常一致的,所以一方面是自己本身有这样一个信仰,然后一看谷歌已经走在前面了,我也相信它的技术实力,也就是80%是对技术的理解,20%是对谷歌和人工智能情怀的认同,所以我们认为它们有能力做好这个事情。 所以我蛮懊悔的,这是我觉得最近几年最懊悔的一次,所以再后来我做了很多弥补工作,所以在后期我深度参与进了这件事,包括对技术的解读,参加现场直播等等,可能弥补了10%,但还是有很大的遗憾。 从电脑深蓝到AlphaGo 技术经历了哪些变化 这是一个挺技术化的问题。在场有多少人听说过深蓝?大家都知道,深蓝是1997年,在第二场比赛中把卡斯帕罗夫打败了,深蓝是IBM当年推出的RS6000型号的像超级计算机一样的机器,但是深蓝与今天谷歌的AlphaGo的计算力还差了三万倍,时代变化,接近二十年的时间里面,计算力是突飞猛进的变化。但事实上,AlphaGo并不简单的只是赢在计算力的提升,否则就不会有围棋选手一边倒的认为人类一定能赢,即便是科技圈的人,对于深度学习有理解的人,大多数的评价也都认为机器以后会赢,但这次赢不了,所以在这里面到底发生了什么样的事情呢? 我们知道自深蓝之后技术有了三次跨越,深蓝的技术其实就是靠人写的一些规则来指导机器做搜索,你下一步棋,我下一步棋,然后下了十几二十步之后,它就开始判定棋局上谁占优,机器搜索的方法其实是依靠人在里面做的很多的设定,“每一步该怎么走”这样输入到机器里面去,所以其实除了开局有棋局以外,大体上是暴力的搜索,我算过一次,大概搜索十三到十四层,每次展开三到四个页为节点。 今天我们用一个台式机,甚至一个笔记本就已经可以赢顶尖的国际象棋选手,计算力的提升已经使得象棋问题彻底被解决了,甚至能够让顶尖的国际选手一个兵甚至到两个兵,然后再做开局也能赢,所以人类在国际象棋里面已经碾压了,只剩下一个底线,也就是围棋没法突破。有一句话很简单地解释了剩下围棋的原因:因为国际象棋和围棋在搜索空间的大小上有巨大的差距,国际象棋搜索空间其实不够大,现在的笔记本就够用了,而围棋的变化数比宇宙间的原子总数还要多,所以如果只是用穷举这种暴力方法是不可能的,用原来的搜索方法就不行了。 我们往下就开始向人去学习,把人的思考方法交给计算机,进行了三步变化,第一件事情就是我们把人已经懂得的规则交给机器,这是原来的方法,所以以前的工程师不管是做下棋还是做医疗的,或者写电饭锅控制程序的,都是把我们懂得的规则写成一个代码交给机器,或者把数据给它,然后人在里面做指引“什么数据要怎么处理”,来教会计算机对当前的真实物体建模型,把它变成一种特征,然后在里面去做一些分类算法之类的工作。就是给它一些数据,但是人需要像教小孩一样,在里面把数据的特征描述出来,告诉机器方法,所以第一件事情是人告诉机器求解的方法,这是传统的机器学习。 但是很多时候我们自己都不知道方法是什么,比如我们说梁冬兄,你看见他的时候知道他是梁冬,但是你要如何告诉别人你是怎么知道他就是梁冬的?这就难了,你的眉毛粗还是脸方?所有的描述其实不支撑通过建立模型把他识别出来,所以在有些问题里面发现我们人已经很难把方法告诉机器,甚至自己都没有一个方法的理解,这件事困惑了我们非常久。即便到2006年之前,我们都很难应对这种说不清道不明的事——怎么办呢? 2006年有篇论文叫做《深度学习》出现,它其实提倡的是使得我们的计算机去仿照人的大脑皮层的工作,就是人当你视觉看到了一个图像之后,其实是在大脑皮层从第一层里面变成刺激你的神经元,然后神经元把这个信号传给下一层,然后它就很广泛的连接,下一层如果一部分被点亮了它就往下传递,传递几层之后就能做这样的识别。神经元是有参数的,什么样的刺激你有什么样的反应,这是人识别的基本工作的原理。这个时候机器开始仿照人之后,就变成了我不用告诉机器这个方法,我的神经元模型里面只告诉输入是梁冬的头像,最后告诉他这个头像叫梁冬,就只告诉答案了,因此这个之后变成了我们深度学习变成了一个方法,是不告诉机器方法,只告诉机器你的输入条件和答案是什么,让机器进行学习。代价是需要更多的数据,所以这样的一个变化其实带来了我们一下子人会变得更加轻松了,我们的工程师对于医疗对一些图像、语音,原来这些领域里面没有足够多knowhow的地方,现在我们都敢于进去,只要告诉机器答案是什么,机器就可以自己去思考怎样求解。我们教小孩也进入到新的一步,不用告诉小孩过程是怎样的,直接告诉他答案是怎样的。没有特征提取和过程。 AlphaGo是如何学下棋的? 谷歌就是我不告诉你这个方法了,我也不知道方法是什么,像人下围棋也是棋感,跟人脸识别一样的。所以谷歌就把KGS的服务器上人类棋手六段以上对弈的30万盘棋放在机器面前,就是当前在什么局势下,人是怎么落子的,30万盘棋大概有接近三千万棋局和答案,就让它去学习,学习之后机器不仅把这30万盘棋学会了,它自己这个过程里面会产生对类似问题的分析能力,所以棋局变了之后,它也能够根据以前的经验,它能够去做判断。不是记住这30万盘棋,而是30万盘棋有个泛化能力,一下子就变成了人下棋的方法,数据表明,给它一个棋局,它往下怎么走子的仿人的能力达到了57%,就是每一百个子下下去,其中57个子跟人的第一个下法是一样的,这件事情已经有巨大的突破了。这件事情做完之后,剩下43%跟人不一样的不代表它不好,所以它具备了很高的棋力,根据评判,它已经达到了五六段的水平,学习了棋感的过程,以前教它靠搜索或者规则开始建立棋感。但这并不是谷歌能力能赢人的地方,毕竟30万棋下去只是六段,它跟人的思考能力还是有距离。 然后谷歌就进入了第三个阶段,觉得还不够,谷歌就把AlphaGo变成了神经分裂成两台机器了,就是按照刚才人下棋的方法它自己可以做少量随机的变换去下。就像金庸小说里的老顽童左右互博,有可能这局赢了,那局输了,就是自己跟自己打,打输的这台机器我告诉它你输了,打赢的我告诉你赢了,然后让机器倒着去推,你这步棋怎么没走好? 第三步的做法我不是给你答案也不是给你方法,只是在最终我告诉你在目标上是更接近还是更远了,你接近了我这个系统给你奖励,你赢了,然后让你倒着推,你要输了我就告诉你,自己回去算怎么输掉的——这就变成第三步的走法,这个走法也像是我们跟人互相之间的学习是有关系的。比如小孩子被杯子烫了,不是我告诉你不要碰,而是他自己感到痛苦,知道以后不能碰——这种学习我们叫做巩固学习或者增强学习,这个学习是既不给方法也不给你答案,而是只是让机器自己找到答案之后,我去评价你这个答案是让你更好了还是更差了。 这个时候机器就追逐赢的目标,而不是追求每一步棋怎么走。我认为这是跟人学习一样的,给你方法、给你答案还是最终只是评价你,但这个事情我们觉得机器在赢这件事情,在AlphaGo上是非常局限的,它的赢有两个条件:第一个只是下棋赢,赢棋是我的唯一目标;第二个,它经历的这个状态,在什么情况下下棋,只是在19×19的棋盘上,只是在一个封闭的环境中,这跟环境跟外界是没有关系的,所以它学习的数据是非常的少。所以我们今天如果下棋,把棋盘从19×19变成20×20,机器就傻了,它的环境发生变化了,如果是人下棋,变换棋盘其实对水平影响不大。 (编辑:PHP编程网 - 襄阳站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |


