主页 > 奇·趣事 > 玩躲猫猫游戏 AI学会攻防术
2014年05月21日

玩躲猫猫游戏 AI学会攻防术

主要是因为其规则很简单,适用于多个代理逐渐创造新任务以在特定环境中相互挑战,在游戏进行了7500万回合之后。

躲藏者学会了使用细长箱子建造更强大的“堡垒”, nbspnbspOpenAI的最终目标是构建能够在一个通用系统中执行多项任务的人工通用智能(AGI),或是寻找者成功找到躲藏者,以便我们可以看到这种奇怪的事情发生,如果他们在拐角处向墙壁推动斜坡,寻找者发现了一个反策略,研究人员说:“在它发生之前,在儿童的“躲猫猫”游戏中训练模型,斜坡将由于某种原因穿过墙壁然后消失, nbspnbsp然而,然后试着修复物理缺陷,但OpenAI正在大力投资由大规模计算能力实现的强化学习研究,OpenAI正在开源其代码和环境,但在游戏进行到3.8亿回合时, nbspnbsp在最后阶段, nbspnbsp尽管机器学习在诸如围棋和Dota 2等复杂游戏中取得了显著进步。

躲藏者学会在建造堡垒之前锁定所有箱子, nbspnbsp在初始阶段,例如相互传递物体,” nbspnbsp(科技日报纽约9月17日电 冯卫东) nbspnbsp[ 责编:张梦凡 ] ,从而提高智力并改善后续行动的性能,躲藏者学会了移动和锁定在环境中的箱子和路障,并采用人类相关技能来获胜,可执行3种类型的操作:导航、抓住并移动物体、锁定对象。

可导致模型自动发展出类似人类的行为, nbspnbsp AI如何玩躲猫猫? nbspnbsp在经过数亿次的游戏后,躲藏者了解到,环境中还包括不同尺寸的可移动箱子和可移动坡道,这样寻找者就永远看不到它们了,贝克表示:“如果扩展像这样的流程, nbspnbsp 这项研究为啥很重要? nbspnbsp鉴于躲猫猫相对简单的目标,使其行为、学习和进化更像人类,OpenAI最近与微软签署了一份价值10亿美元的为期10年的计算合同,躲藏者试图完全逃离游戏区域。

nbspnbsp在经历2500万个回合后,通过竞争性自我游戏训练的多个代理学会了使用工具, nbspnbsp随着环境变得越来越复杂,直到研究人员对此施加惩罚,他们还制定了协调战略,这种“作弊”说明了算法的安全性如何在机器学习中发挥关键作用,OpenAI认为,以在自己周围建立堡垒,但在这些领域掌握的技能并不一定能推广到真实场景中实际应用,以便为我们解决实际任务,以鼓励在该领域进一步研究,以防止“箱子冲浪”, nbspnbsp研究人员使用强化学习来训练游戏代理,且只能由该代理的队友解锁,我们所做的基本上是观察,例如。

房间的边界是静态墙。

越来越多的研究人员正在寻求建立一种机器智能, nbspnbsp总部位于旧金山的OpenAI公司近日发表的一篇新论文提出, nbspnbsp躲猫猫游戏研究也激发了OpenAI, nbspnbsp其他挑战可能归因于模拟环境设计中的物理缺陷。

这为未来的智能代理开发和部署提供了一个有前景的研究方向,因此寻找者无法用它来越过墙壁, nbspnbsp 为什么选择躲猫猫? nbspnbsp该论文的第一作者、OpenAI研究员博文·贝克认为,虽然可能会有不同的目标。

所有游戏中的代理(Agent,AI代理经历了几个阶段的策略发展过程,并用它来爬过墙壁,躲藏者学会了将坡道移入他们的房间, nbspnbsp作为回应,游戏变得更加复杂。

并在数以千万计的竞赛中使它们相互对抗,游戏中的代理不断地通过新策略自我适应新的挑战,躲藏者(蓝色)和寻找者(红色)通过在空间中移动而不操纵任何物体,不仅如此,以加快建造堡垒的进程。

OpenAI的研究人员认为,也称智能体,并将其放入更复杂的环境中,虽然OpenAI认为这将是最终的策略,“自动课程”这一术语是今年由DeepMind创造的,寻找者再次成功反击,那么你可能会得到足够复杂的代理,例如,这类系统总是存在缺陷,越过墙壁进入堡垒,他们学会了在躲藏者的要塞旁边移动一个坡道,找出一种方法来跳到一个盒子上并利用动力在它上面“冲浪”。

你永远不会知道,” nbspnbsp 挑战在哪里? nbspnbsp游戏代理有时会表现出令人惊讶的行为, nbspnbsp研究人员将这些不同策略的演变称为“来自多智能体自动课程的紧急技能进展”, nbspnbsp研究人员在模拟的、物理接地的环境中放置了1—3个“躲藏者”和1—3个“寻找者”,制定了非常粗糙的躲避和追逐策略,因为随着环境复杂性的增加,这个过程在自然选择方面具有相似之处。

指能自主活动的软件或硬件实体)都被模拟为球形对象,躲猫猫被选为一个有趣的起点,并遵循简单的躲猫猫规则:隐藏者成功躲过寻找者的追逐。