违规提示

请您遵循相关法律法规,避免再次出现类似问题

如有任何疑问,请联系support@tmtpost.com

关闭
第二课: AlphaGo所运用的技术
陈沛 / 从“人机大战”看人工智能的崛起
第二课: AlphaGo所运用的技术

第二课: AlphaGo所运用的技术

小欣:这节课,陈沛老师会为我们讲解AlphaGo所运用了哪些技术。

陈沛:有很多人来问我AlphaGo到底是怎么下棋的,是不是锁定在计算?首先它确实要锁定在计算,跟李世石的比赛AlphaGo动用了2000台的服务器同时进行运算,应该说它首先使用的云计算技术集中了相当一部分通过网络连接起来的计算资源。

比较而言的话,如果只用一台服务器做运算需要一秒钟的话,2000台的话就可以大大降低它每次判断的时间甚至使整个比赛得以进行。所以利用云计算谷歌应该可以动用大量的服务器,不光2000台需要两万台也是可以,所以现在应该是用两千台服务器同时进行运算参与这样的顶级比赛。

第二、它使用了大数据。应该说AlphaGo的上一个版本是1.0版本,它大量录入了人类顶尖棋手的围棋棋谱,可以说它继承和学习了人类围棋史上可以学习的围棋知识。通过深度学习的方式变成它能够理解的知识,然后应用到它自己的实战当中,所以很显然这也是一个大数据的成果。当然很多人可能不一定都会下围棋,很多人也不是都是懂得人工智能的。所以AlphaGo实际上是有一套非常好的人工智能技术来适应围棋的比赛,简单说有两个:一个是价值评判的网络,一个是搜索的网络。然后找到每次决策它认为最好的一个点,这个点是以胜利最高的点作为决策的依据。

我们可以这样简单理解AlphaGo怎么去跟人下棋的。当人类下了一步棋的时候,它会在所有可能的选点中作出一个基础的判断,判断哪些棋是可能思考的,但是什么样的棋应该思考的呢?它可能需要搜索的方法去验证。比如说如果这个点是人类棋手经常使用的或者是这次可能采用它自己学习系统来产生的一个重要的推荐点,根据这个推荐点会引发一系列的演变,而这些演变通过门特卡罗的搜索数不断的去验证,双方相当于是左右互博的方式都按照对方最好的应对去演变下面的一些变化。当这些变化演变到一定的步数之后,比如说20步、25步这样的步数的时候它要对结果进行评判,然后把结果反馈。

据说AlphaGo1.0版本的时候,它的学习过程是把人类的大量棋谱作为主要的依据。就是人类在这样的情况下选择什么样的点进行思考和判断去进行搜索和推演。这次AlphaGo2.0它实际上不再使用人类已有的棋谱,而是通过两台AlphaGo互相博奕互相学习的方式来产生知识推荐点。

我觉得这个过程是很容易理解的,因为早期AlphaGo完全不具有人类的知识,所以它需要大量棋谱的题。那么等它经过1.0的比赛后它本身已经成为人类的顶尖高手了,所以两台AlphaGo自己的相互博奕就可以作为推荐的依据了,所以很可能这次采用的是它用自己方式来生产的围棋知识。

小欣:下节课,陈沛老师会为我们讲解人工智能与人类的未来。

【版权归钛媒体所有,未经许可不得转载】

分享课程:
大家都在学
72问 有声书系列 / 中国经济2021
精品小课 揭秘黄金投资:2022年以来上涨表现最好的资产之一
精品小课 阿里人力资源体系课

Oh! no

您是否确认要删除该条评论吗?

全部课程 ( 6 )
倒序播放

00:00
/
00:00
X1.0

注册邮箱未验证

我们已向下方邮箱发送了验证邮件,请查收并按提示验证您的邮箱。

如果您没有收到邮件,请留意垃圾邮件箱。

更换邮箱

您当前使用的邮箱可能无法接收验证邮件,建议您更换邮箱

账号合并

经检测,你是“钛媒体”和“商业价值”的注册用户。现在,我们对两个产品因进行整合,需要您选择一个账号用来登录。无论您选择哪个账号,两个账号的原有信息都会合并在一起。对于给您造成的不便,我们深感歉意。