返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 统计策略搜索强化学习方法及应用 赵婷婷 著 专业科技 文轩网
  • 新华书店正版
    • 作者: 赵婷婷著
    • 出版社: 电子工业出版社
    • 出版时间:2021-09-01 00:00:00
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    文轩网图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

         https://product.suning.com/0070067633/11555288247.html

     

    商品参数
    • 作者: 赵婷婷著
    • 出版社:电子工业出版社
    • 出版时间:2021-09-01 00:00:00
    • 版次:1
    • 印次:1
    • 印刷时间:2021-09-01
    • 开本:16开
    • 装帧:平装
    • ISBN:9787121419591
    • 国别/地区:中国
    • 版权提供:电子工业出版社

    统计策略搜索强化学习方法及应用

    作  者:赵婷婷 著
    定  价:79
    出 版 社:电子工业出版社
    出版日期:2021年08月01日
    页  数:172
    装  帧:平装
    ISBN:9787121419591
    主编推荐

    内容简介

    智能体AlphaGo战胜人类围棋专家刷新了人类对人工智能的认识,也使得其核心技术强化学习受到学术界的广泛关注。本书正是在如此背景下,围绕作者多年从事强化学习理论及应用的研究内容及国内外关于强化学习的最近动态等方面展开介绍,是为数不多的强化学习领域的专业著作。该著作侧重于基于直接策略搜索的强化学习方法,结合了统计学习的诸多方法对相关技术及方法进行分析、改进及应用。本书以一个全新的现代角度描述策略搜索强化学习算法。从不同的强化学习场景出发,讲述了强化学习在实际应用中所面临的诸多难题。针对不同场景,给定具体的策略搜索算法,分析算法中估计量和学习参数的统计特性,并对算法进行应用实例展示及定量比较。特别地,本书结合强化学习前沿技术将策略搜索算法应用到机器人控制及数字艺术渲染领域,给人以耳目一新的感觉。最后根据作者长期研究经验,对强化学习的发展趋势进行了简要介绍和总结。本书取材经典、全面,概念清楚,推null

    作者简介

    赵婷婷,天津科技大学人工智能学院副教授,主要研究方向为人工智能、机器学习。中国计算机协会(CCF) 会员、YOCSEF 会员、中国人工智能学会会员、人工智能学会模式识别专委会委员,2017年获得天津市"131”创新型人才培养工程第二层次人选称号

    精彩内容

    目录
    第1章 强化学习概述 1
    1.1 机器学习中的强化学习 1
    1.2 智能控制中的强化学习 4
    1.3 强化学习分支 8
    1.4 本书贡献 11
    1.5 本书结构 12
    参考文献 14
    第2章 相关研究及背景知识 19
    2.1 马尔可夫决策过程 19
    2.2 基于值函数的策略学习算法 21
    2.2.1 值函数 21
    2.2.2 策略迭代和值迭代 23
    2.2.3 Q-learning 25
    2.2.4 基于最小二乘法的策略迭代算法 27
    2.2.5 基于值函数的深度强化学习方法 29
    2.3 策略搜索算法 30
    2.3.1 策略搜索算法建模 31
    2.3.2 传统策略梯度算法(REINFORCE算法) 32
    2.3.3 自然策略梯度方法(Natural Policy Gradient) 33
    2.3.4 期望优选化的策略搜索方法 35
    2.3.5 基于策略的深度强化学习方法 37
    2.4 本章小结 38
    参考文献 39
    第3章 策略梯度估计的分析与改进 42
    3.1 研究背景 42
    3.2 基于参数探索的策略梯度算法(PGPE算法) 44
    3.3 梯度估计方差分析 46
    3.4 基于很优基线的算法改进及分析 48
    3.4.1 很优基线的基本思想 48
    3.4.2 PGPE算法的很优基线 49
    3.5 实验 51
    3.5.1 示例 51
    3.5.2 倒立摆平衡问题 57
    3.6 总结与讨论 58
    参考文献 60
    第4章 基于重要性采样的参数探索策略梯度算法 63
    4.1 研究背景 63
    4.2 异策略场景下的PGPE算法 64
    4.2.1 重要性加权PGPE算法 65
    4.2.2 IW-PGPE算法通过基线减法减少方差 66
    4.3 实验结果 68
    4.3.1 示例 69
    4.3.2 山地车任务 78
    4.3.3 机器人仿真控制任务 81
    4.4 总结和讨论 88
    参考文献 89
    第5章 方差正则化策略梯度算法 91
    5.1 研究背景 91
    5.2 正则化策略梯度算法 92
    5.2.1 目标函数 92
    5.2.2 梯度计算方法 94
    5.3 实验结果 95
    5.3.1 数值示例 95
    5.3.2 山地车任务 101
    5.4 总结和讨论 102
    参考文献 103
    第6章 基于参数探索的策略梯度算法的采样技术 105
    6.1 研究背景 105
    6.2 基于参数探索的策略梯度算法中的采样技术 107
    6.2.1 基线采样 108
    6.2.2 很优基线采样 109
    6.2.3 对称采样 109
    6.2.4 超对称采样 111
    6.2.5 多模态超对称采样 116
    6.2.6 SupSymPGPE 的奖励归一化 117
    6.3 数值示例实验 119
    6.3.1 平方函数 120
    6.3.2 Rastrigin函数 120
    6.4 本章总结 124
    参考文献 125
    第7章 基于样本有效重用的人形机器人的运动技能学习 127
    7.1 研究背景:真实环境下的运动技能学习 127
    7.2 运动技能学习框架 128
    7.2.1 机器人的运动路径和回报 128
    7.2.2 策略模型 129
    7.2.3 基于PGPE算法的策略学习方法 129
    7.3 有效重用历史经验 130
    7.3.1 基于重要性加权的参数探索策略梯度算法(IW-PGPE算法) 130
    7.3.2 基于IW-PGPE算法的运动技能学习过程 131
    7.3.3 递归型IW-PGPE算法 132
    7.4 虚拟环境中的车杆摆动任务 133
    7.5 篮球射击任务 137
    7.6 讨论与结论 140
    参考文献 142
    第8章 基于逆强化学习的艺术风格学习及水墨画渲染 145
    8.1 研究背景 145
    8.1.1 计算机图形学背景 146
    8.1.2 人工智能背景 147
    8.1.3 面向艺术风格化的渲染系统 148
    8.2 基于强化学习的笔刷智能体建模 148
    8.2.1 动作的设计 149
    8.2.2 状态的设计 150
    8.3 离线艺术风格学习阶段 151
    8.3.1 数据采集 152
    8.3.2 基于逆强化学习的奖励函数学习 153
    8.3.3 基于R-PGPE算法的渲染策略学习 154
    8.4 A4系统用户界面 155
    8.5 实验与结果 157
    8.5.1 渲染策略学习结果 157
    8.5.2 基于IRL进行笔画绘制的渲染结果 160
    8.6 本章小结 162
    参考文献 163

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购