0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心
发布

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种替代性的基于模拟的搜索方法,即策略梯度搜索

电子工程师 来源:lq 2019-04-29 09:37 次阅读

蒙特卡罗树搜索(MCTS)算法执行基于vwin 的搜索以改进在线策略。在搜索过程中,模拟策略适用于探索最有希望的游戏策略。MCTS已被用于处理许多最新的程序问题,但MCTS的一个缺点是需要评估状态值并存储其结果,这在分支树非常多的游戏场景中并不适用。

作者提出了一种替代性的基于模拟的搜索方法,即策略梯度搜索(PGS),该方法通过策略梯度更新在线调整神经网络模拟策略,避免了对搜索树的需求。在Hex中,PGS实现了与MCTS相当的性能,并且使用专家迭代算法(Expert Iteration)和 PGS训练的模型击败了MoHex 2.0,这是目前最强的开源Hex代理。

蒙特卡罗树搜索(MCTS)在Go和Hex等游戏中实现最大测试时间性能的价值早已为人所知。最近的研究表明,在许多经典的棋盘类游戏中,通过专家迭代算法将规划方法纳入强化学习智能体的训练,可以使用纯RL方法实现最好的性能。

但是,MCTS构建一个显式搜索树,每个节点会存储其访问数和估计值。所以在MCTS中需要多次访问搜索树中的节点。这种方法适用许多经典的棋盘游戏,但在许多现实世界的问题中,分支树都会非常大,这使得MCTS难以使用。大量的分支树可能由非常大的动作空间或偶然节点引起。在动作空间很大时,可以使用先前策略来降低弱动作的影响,从而减少有效分支树。随机转换更难以处理,因为先前的策略不能用于减少偶然节点处的分支因子。

相比之下,蒙特卡罗搜索(MCS)算法没有这样的要求。MCTS使用每个节点中的值估计来调整模拟策略,而MCS算法在整个搜索过程中都有固定的模拟策略。但是,由于MCS在搜索过程中不能提高模拟质量,因此它的效果会明显弱于MCTS。

基础理论:

1)Markov Decision Processes(MDP):马尔可夫决策过程在每个时间间隔t中,代理观察状态并选择要采取的动作。对于终止状态,需要最大化阶段性奖励R。

2)Hex:Hex 是一个基于双人的基于连接的游戏,在n×n六边形网格上进行。游戏双方分别用黑色和白色棋子表示,双方轮流在空的位置上放置自己的棋子。如果白棋从左到右连续成线则白棋赢,若黑色棋子从上到下连成线则黑棋赢,下图是白棋赢的示意图。

3)Monte Carlo Tree Search(MCTS):蒙特卡罗树搜索是一种随时可用的最佳树搜索算法。它使用重复的游戏模拟来估计状态值,并使用更优的游戏策略进一步扩展搜索树。当所有分支都模拟完成后,采取reward值最高的action。

4)Monte Carlo Search(MCS):蒙特卡罗搜索是一种比MCTS更简单的搜索算法。给定状态和策略,通过迭代的模拟选择评估值最高的策略。

5)Expert Iteration:搜索算法基于单个状态s0的规划模型动作,但不学习推广到不同位置的信息。相比之下,深度神经网络能够在状态空间中推广知识。专家迭代算法将基于搜索的规划方法和深度学习进行了结合,其中规划算法作为专家,用于发现对当前策略的改进内容。神经网络算法作为学员,其模仿专家的策略并计算值函数。

Policy Gradient Search

策略梯度搜索通过应用无模型的强化学习算法来适应蒙特卡罗搜索中的模拟过程。作者假设提供先验策略π和先验值函数V,并在完整MDP上训练。

该算法必须对它通过非表格函数逼近器学习的所有内容进行表示,否则它将遇到与MCTS相同的问题。MCTS已经是一种自我对弈强化学习方法,但不能直接使其适应函数逼近,因为UCT公式依赖于基于访问量的探索规则。

作者使用策略梯度强化学习方法来训练模拟策略。模拟策略由具有与全局策略网络相同的体系结构的神经网络表示。在每个游戏开始时,策略网络的参数被设置为全局策略网络的参数。

由于评估模拟策略代价很大,所以该算法不会模拟到终止状态,而是使用截断的蒙特卡罗算法模拟。选择何时截断模拟并不简单,最佳选择策略可能取决于MDP本身。如果模拟太短,可能无法包含新的信息,或者没有给出足够长的时间范围搜索。太长的模拟则会导致恨到的时间开销。

对于Hex,作者使用与MCTS算法相同的策略:运行每个模拟过程,直到模拟的动作序列是唯一的。一旦我们在t步之后达到模拟的终止状态sL,使用全局值网络V估计该状态的值,并使用该估计更新模拟策略参数θ,其中α是学习率,其值在-1和1之间,对于其他问题,可能需要非零基线。可以将这些更新视为微调当前子游戏的全局策略。

因为在每次模拟中都要访问根节点,与 MCS 一样,可以使用基于单状态的强化学习方法来选择每个模拟的第一个动作。采用PUCT公式,选择令下式的值的动作:

Parameter Freezing during OnlineAdaptation

在测试期间,在线搜索算法通常受在时间约束的情况下使用,因此,与标准RL问题相比,其使用数量级更少的模拟。还需要注意的是,要确保该算法在每个模拟步骤中不需要太多计算。当在专家迭代中用于离线训练时,搜索方法的效率仍然至关重要。

Note on Batch Normalisation

神经网络使用批量标准化。在所有情况下,全局神经网络已经在来自许多独立采样的Hex游戏的状态数据集上进行了训练。

实验

Policy Gradient Search as an Online Planner

作者在Hex游戏中评估PGS。Hex具有中等数量的分支因子和确定性转换,这意味着MCTS在该领域中非常有效,这使作者能够直接比较PGS与MCTS的强度。作者在原始神经网络和四个搜索算法MCS,MCTS,PGS和PGS-UF之间进行了循环对弈,其中参数可变。为了克服Hex中第一个玩家具有的优势,每对智能体互相打了2*n*n场比赛。

每个智能体在每次移动使用800次搜索迭代,不会在移动之间思考。实验结果见下表。

如果策略搜索的能力已经饱和,那么PGS的扩展可能不如MCTS,但是并没有发现在游戏中会出现这种情况。但是,在每次移动中进行1600次迭代仍然是一个相当短的搜索,这样的情况可能会发生在较长时间的搜索过程中。

Policy Gradient Search Expert Iteration

作者使用PGS作为专家迭代算法中的专家进行实验,并与MCS和MCTS进行比较。

结果表明,PGS的性能优于MCS,但不如MCTS。在训练过程中,在反复应用更好或更差的专家时,智能体的差异更加复杂多变。

结论

作者提出了PGS算法,这是一种在线规划的搜索算法,不需要显式搜索树。PGS是一种有效的规划算法。实验结果证明,在9x9和13x13 的Hex游戏中,它的性能略微弱于MCTS,但与MCTS相比具有竞争力,同时其决策时间显著性能优于MCS。

在专家迭代算法的框架中使用PGS时,PGS在训练期间也很有效,该算法在不使用搜索树的情况下,训练了第一个有竞争力的Hex代理tabula rasa。相比之下,该算法比类似的强化学习算法和使用MCTS专家的专家迭代算法性能要好。

实验结果显示PGS-EXIT在专家迭代算法框架中性能明显优于MCS,并且还提供了第一个经验数据,表明MCTS-EXIT算法优于传统的策略迭代方法。

这项工作中提出的结果主要关注Hex的确定性和离散动作空间域。这使得模型的效果可以与MCTS直接比较,但PGS最激动人心的潜在应用是MCTS不易使用的问题,例如随机状态转换或连续动作空间的问题。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4716

    浏览量

    99747
  • 算法
    +关注

    关注

    23

    文章

    4526

    浏览量

    91747
  • 深度学习
    +关注

    关注

    73

    文章

    5414

    浏览量

    120399

原文标题:策略梯度搜索:不使用搜索树的在线规划和专家迭代 | 技术头条

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    渐进式神经网络结构搜索技术

    我们提出 一种学习卷积神经网络(CNN)结构的新 方法,该 方法比现有的基于强化学习和进化算法的技术更有效。使用了基于序列模型的优化(SMBO) 策略,在这种
    的头像 发表于08-03 09:32 5324次阅读

    一种改进的快速搜索算法

    提出了 一种基于预测的自适应六边形 搜索 方法,并将此算法与其他常用的快速运动估计算法进行实验比较。实验结果表明:该算法有效地降低了 搜索点数, 搜索
    发表于07-02 15:53 19次下载

    一种新型全搜索运动估计IP核设计

    为了降低全 搜索运动估计算法带来的巨大计算量,提高运动估计计算速度,提出了 一种新型的用于全 搜索运动估计硬件结构。该硬件结构能实时地通过全 搜索运动估计来
    发表于07-29 16:07 16次下载

    一种改进的邻近粒子搜索算法

    一种改进的邻近粒子 搜索算法
    发表于01-07 20:32 0次下载

    一种改进的自由搜索算法_任诚

    一种改进的自由 搜索算法_任诚
    发表于03-14 17:47 3次下载

    一种结合梯度下降法的二层搜索粒子群算法

    ,采用 梯度下降法进行二次 搜索,并以最优极值点为中心、某 具体半径设定禁忌区域,防止粒子重复 搜索该区域;最后,依据种群多样 准则生成新粒子,
    发表于11-27 17:28 5次下载
    <b class='flag-5'>一种</b>结合<b class='flag-5'>梯度</b>下降法的二层<b class='flag-5'>搜索</b>粒子群算法

    一种解决连续问题的真实在线自然梯度行动者-评论家算法

    策略 梯度作为 一种能有效解决连续空间决策问题的 方法被广泛研究.然而,由于在 策略估计过程中存在较大的方差,因此基于
    发表于12-19 16:14 1次下载
    <b class='flag-5'>一种</b>解决连续问题的真实在线自然<b class='flag-5'>梯度</b>行动者-评论家算法

    基于增强描述的代码搜索方法

    如何有效地帮助程序员从目前的各种代码库中 搜索与特定编程任务相关的代码,已成为软件工程重要的研究领域之 .提出 一种基于增强描述的代码 搜索 方法D
    发表于12-28 17:17 0次下载
    基于增强描述的代码<b class='flag-5'>搜索</b><b class='flag-5'>方法</b>

    基于语义聚类的资源搜索策略

    非结构化对等网络(P2P)是共享系统的主要实现方式,但是由于 搜索的盲目 ,其检索效率又普遍低下。本文将聚类域和语义分组引入到非结构化对等网络 搜索技术中,结合非结构化对等网络中的洪泛 搜索
    发表于01-04 16:09 0次下载

    基于Skyline的搜索结果排序方法

    针对现有垂直 搜索引擎的排序结果存在多样 差和冗余度高的问题,提出了 一种基于Skyline的 搜索结果排序 方法。该
    发表于01-14 10:54 0次下载

    一种路径过滤搜索算法

    现有的信任模型在信任路径 搜索方面存在两个方面的不足: 搜索过程中影响信任值的因素考虑得尚不够全面,或者同 而论;同时,对邻居节点选取时,忽略了双方交互次数的重要 。针对以上两点问题,基于
    发表于01-14 16:15 0次下载
    <b class='flag-5'>一种</b>路径过滤<b class='flag-5'>性</b><b class='flag-5'>搜索</b>算法

    一种利用强化学习来设计mobile CNN模型的自动神经结构搜索方法

    具体来说,我们提出 一种用于设计移动端的CNN模型的自动神经结构 搜索 方法,称之为Platform-Aware神经结构 搜索。图1是Platform-Aware神经结构
    的头像 发表于08-07 14:10 3734次阅读

    一种改进的深度神经网络结构搜索方法

    情况下的网络结构性能进行分析,基于多样 解的优势,给出 一种多样 最优网络结构 搜索 方法。实验结果表明,该
    发表于03-16 14:05 3次下载
    <b class='flag-5'>一种</b>改进的深度神经网络结构<b class='flag-5'>搜索</b><b class='flag-5'>方法</b>

    以进化算法为搜索策略实现神经架构搜索方法

    自动化深度学习是目前深度学习领域的研究热点,神经架构 搜索算法是实现自动化深度学习的主要 方法,该类算法可以通过对 搜索空间、 搜索
    发表于03-22 14:37 15次下载
    以进化算法为<b class='flag-5'>搜索</b><b class='flag-5'>策略</b>实现神经架构<b class='flag-5'>搜索</b>的<b class='flag-5'>方法</b>

    一种基于用户偏好的权重搜索及告警选择方法

    用户在现有交互方式下选择最为严重的告警时完全依据其个人偏好,而未考虑处理不同告警所需成本的差异性问题。为此,提出 一种基于用户偏好的权重 搜索及告警选择 方法。挖掘用户对不同严重程度告警的偏好值,针对
    发表于04-29 16:26 4次下载
    <b class='flag-5'>一种</b>基于用户偏好的权重<b class='flag-5'>搜索</b>及告警选择<b class='flag-5'>方法</b>