学会了围棋后 谷歌DeepMind的AI又开始玩游戏了

腾讯科技讯 6月18日,据科技博客VentureBeat报道,提到谷歌的DeepMind人工智能,大家首先想到的一定是击败韩国棋手李世石的AlphaGo,不过后来它又学了走迷宫等新招数,现在AlphaGo又开始了自己新的征程。

今天,谷歌DeepMind实验室宣布它们开始了新的实验,其中包括在游戏中训练一只蚂蚁将球射进球门。是不是觉得这比下围棋简单多了?其实不然,亚马逊苹果Facebook微软都正在该领域进行着相关研究。

学会了围棋后 谷歌DeepMind的AI又开始玩游戏了

“我们还打造了一个分布式的大型深度强化学习(reinforcement learning)系统并将其命名为Gorila,该系统利用Google Cloud平台大幅提高了训练效率,眼下该系统已经开始为谷歌的个性化推荐系统服务。”谷歌DeepMind实验室的席尔瓦在博客中写道。

强化学习涉及我们熟悉的试错学习项目,DeepMind实验室将其与深度学习相结合,以便获得更强的推理能力。

在博客中,席尔瓦还提到了许多DeepMind实验室的研究项目。

“为了解决连续控制问题,如机器人操作和运动,我们还专门开发了许多深度强化学习方法,这些方法可以很好的解决蚂蚁踢球等问题。”席尔瓦说道。未来几个月内,DeepMind实验室还将发布开源的迷宫软件。

7 收藏


直接登录

推荐关注