几天前曾听室友提起 OpenAI Five 在 Dota2 上打败了前 Ti 冠军队伍,由于不是 Dota2 玩家,当时并没有特意去了解这件事。昨天偶然在油管上看到这场比赛的视频,虽然看不太懂(对于前 LOL 玩家来说,Dota2 真的太复杂),但是还是看完了整个比赛过程。对于 OpenAI 的技术水平,我这种菜鸟没资格评价,肯定是比我厉害的,毕竟多年前的我曾花了一下午时间尝试过 Dota2,结果晕晕乎乎整场游戏都不知道在干什么。而我更感兴趣的是其技术架构和这件事对于人类来说意味着什么。

Each of OpenAI Five’s networks contain a single-layer, 1024-unit LSTM that sees the current game state (extracted from Valve’s Bot API) and emits actions through several possible action heads. Each head has semantic meaning, for example, the number of ticks to delay this action, which action to select, the X or Y coordinate of this action in a grid around the unit, etc. Action heads are computed independently. –OpenAI

根据 OpenAI 官方博客给出的 OpenAI Five 技术细节,可以看出虽然机器人从游戏中能获取信息和人类玩家差不多,但是还是需要开发者定制一些辅助特征,而非直接使用视频信号作为输入。

之前的经历也让我对基于统计学的AI有了粗浅的认识,也许正是因为太过粗浅,才会一直认为目前火热的人工智能无非是拟合了大量数据的统计学模型,也许在单一领域表现很好,但是远远谈不上智能。虽然神经网络模型的初衷是模拟神经网络,但是学习和预测方式依旧和机器学习并没有本质差别。这些所谓的AI学到的无非是一堆规则、一堆分布,而不是真正去理解了问题的本质。虽然可以解决很多问题,但是其背后的实现却是如此不“优雅”。

对于游戏 AI 来说,真正恐怖的事情还是其可以衍生出战争机器。使用类似的训练方法,制造类似的战争机器并不会有太大的困难,并且 OpenAI Five 的成功肯定给有类似想法的人提供了一个希望——类似机器是有可能实现的。训练战争机器甚至不用在现实世界中进行,可以利用计算机模拟现实世界,短短几周神经网络也许就能在虚拟世界中打完英法百年战争。战争机器对人类所带来的威胁将远比核武器严重,技术门槛比核武器低,不会有那么苛刻的原料要求,核心代码可以被修改、窃取。如果被恐怖分子或者反人类分子获取到核心代码,很快就能组装起一个类似的杀人机器,也许这个时候最大的门槛反而是高性能的计算部件了吧。到了那个时候,也许应该祈祷的只能是战争机器尽快普及,借由它们来保护我们人类。

十分好奇如果 OpenAI 有一天真的和人类一样突然有了真正思想,懂得思考(真正意义上的思考),他会如何理解这个游戏,如何去看待游戏中遇到的一切。他是否会认为游戏就是他所处的世界,他的一切以及存在的意义,如同人类看待我们现在的宇宙。仔细观察人类学习一款新游戏的过程,其实也就是不断的失败与尝试,强化学习模仿的也就是这个过程。目前大部分游戏归根结底都会包含对现实世界模拟,比如:如果有重力,那么就会下落,如果遇到障碍物,就会无法穿过继续前行。人类对于现实物理世界的先验经验是否就是人类熟悉一个游戏所需的数据远少于神经网络模型的原因?可是除了这些,人类学习一个游戏或者学习这件事本身,与现在的机器模型学习又是如此相像。当然,相像是因为模型训练本来就是模拟生物学习过程来设计的。可是,你是否也曾想过,人类的本质是否也就是如此,你觉得所谓的理解与思考,你引以为傲的感性与爱,是否也仅仅是一个更复杂的模型的学习成果?我们所以为的人类与机器在感性上的差距,是否有可能并没有本质上的差别?是否我们族群几十万年来,代代相传,从先祖身上继承来的仅仅是一个复杂而丑陋的模型,而成长仅仅只是模型训练的过程?