据彭博社报道,谷歌研发了一套全新的人工智能系统,可以学习并自主控制视频游戏,其在无人指挥的情况下玩游戏的水平甚至超过人类。
谷歌人工智能系统:玩游戏水平超人类(图片来自CNN)
据悉,此次研究项目是伦敦人工智能创业公司DeepMind AI的研究成果,包含了来自Atari 2600游戏机上的49款游戏。DeepMind AI在去年被谷歌收购。谷歌称,这一成果为构建自主理解并完成操作的人工智能系统迈出了重要的第一步。
DeepMind AI向智能系统多次展示了49款古老的视频游戏,该系统需要通过观察自学这些游戏的玩法。谷歌系统学习了49款游戏,并且在29款游戏中的得分超过了游戏行家,在43款游戏中的得分超过了基于算法的计算机。在《弹珠台》等游戏中,人工智能系统可以轻易击败人类,得分甚至比专业人类玩家高20倍。
当然,谷歌人工智能系统更重要的目的还是应用到实际生活中。为此,谷歌相关团队将构建一套全新系统,让其从环境中学习、参照以前的处理方式、调整行为。
DeepMind创始人兼谷歌工程副总裁戴密斯·哈萨比斯表示,虽然全新系统可以掌握和理解游戏的结构,但是无法建立概念性的知识或抽象知识,“要想开发出真正智能的普及型设备,或许还需要好几十年的时间。”
哈萨比斯透露,游戏机器开发的下一步就是开发与训练系统在上世纪90年代推出的游戏中的复杂3D世界中行进,谷歌希望通过逐步加大复杂度,最终将其应用到现实生活中。