DeepMind初探

DeepMind 最初是在13年NIPS的workshop上崭露头角,然后被Google收购。近日再次成为热门话题源于2天前在Natrue上的这篇文章http://www.nature.com/nature/journal/v518/n7540/full/nature14236.html [全文:链接: http://pan.baidu.com/s/1kT22GZl 密码: 731f]:
Google DeepMind团队在《自然》杂志发表论文,公布玩游戏比人厉害的AI是如何做出来的 | 电脑会玩游戏不稀奇,可是如果不告诉它该怎么玩,而只是让它看着玩然后得分高就奖励,这实现起来就难了。DeepMind的AI靠自学玩会了49种游戏,甚至在23种游戏中击败了人类职业玩家。

基于reinforcement learning让算法学习打游戏,源码:http://t.cn/Rw084MA ,http://t.cn/RwORUqX 对相关文章和工作进行了整理,DeepMind的专访http://t.cn/RwOR5EG 云:http://t.cn/RwORY9h

电脑会玩游戏已经不算稀奇,比方说,一般人玩棋类游戏已经玩不过计算机了,而且很多游戏你只要知道规则,我们就可以开发出一种作弊器,由电脑完胜一切。但如果事先不告诉计算机应该怎么玩,而只是给它提供这三样东西:控制器、显示器、游戏得分,让它看着显示器的显示控制控制器,然后要求它尽可能得高分,那基本上大部分的 AI 就一筹莫展了。

有两篇报道比较好:

1. DeepMind刚被Google收购时的报道:http://www.36kr.com/p/217570.html

利用深度学习和强化学习技术从零开始学习游戏玩法。

2. DeepMind在Natrue上发表文章的报告:http://www.36kr.com/p/220012.html

总的说来,DeepMind 的 AI 的设计核心是如何让计算机自行发现数据中存在的模式。其解决方案是深度神经网络与强化学习等方法的的结合。AI 并并不知道游戏规则,而是用深度神经网络来了解游戏的状态,找出哪一种行为能导致得分最高。尽管利用模拟神经网络来教电脑玩游戏(如军棋游戏)的方法已经使用了几十年,但是从未有人能像 DeepMind 团队那样以如此有用的方式结合到一起,智能系统普朗克学院的Bernhard Schölkopf主任称,其方案展现出了令人印象深刻的可适应性。

其实总体来说,DeepMind的原理比较简单,但是做好并不容易。
DeepMind背后的人工智能:深度学习原理初探:http://www.infoq.com/cn/news/2014/10/deepmind

从13年NIPS的那篇文章起,在人工智能领域掀起了一股端到端(End-to-end)的智能热,不过说到底还是一种强化学习方法。类似于之前由C语言面向过程编程进化到C++面向对象编程的过渡一样。端到端智能希望模型具有可学习的智能性,能够自己根据特定环境下的奖惩自动调节模型参数已到达完全自适应,而不需要人工的参与。由于深度学习的兴起,及硬件性能的大度提升,使得此目标能够实现。Deep Mind便是一个很好的案例,不过即便如此,要走的路还有很远,毕竟随便写一个外挂小程序就可以完胜Deep Mind 的游戏机器人。
参考:1. http://www.36kr.com/p/220012.html

发表评论

电子邮件地址不会被公开。 必填项已用 * 标注

*

您可以使用这些 HTML 标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>