返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • [正版]Easy RL 强化学习教程 王琦 杨毅远 蘑菇书江季计算机控制仿真与人工智能类书籍 凤凰书店
  • 本店所有图书均支持7天无理由退换并运费险,请放心购买。
    • 作者: 王琦、杨毅远、江季著
    • 出版社: 人民邮电出版社
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    粉象优品图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    标题前缀为分类信息!!!!!!!购买前请看好标题前缀!!!!!总标题中【正版】前为标题前缀!!!

    商品参数
    • 作者: 王琦、杨毅远、江季著
    • 出版社:人民邮电出版社
    • ISBN:9786400152506
    • 版权提供:人民邮电出版社

                                                                                                  店铺公告

    本店存在书、古旧书、收藏书、二手书等特殊商品,因受采购成本限制,可能高于定价销售,明码标价,介意者勿拍!

    1.书籍因稀缺可能导致售价高于定价,图书实际定价参见下方详情内基本信息,请买家看清楚且明确后再拍,避免价格争议!

    2.店铺无纸质均开具电子,请联系客服开具电子版

    强化学习作为机器学习及人工智能**域的一种重要方法,在游戏、自动驾驶、机器人路线规划等**域得到了广泛的应用。

    本书结合了李宏毅老师的“深度强化学习”、周博磊老师的“强化学习纲要”、李科浇老师的“****带你从**实践强化学习”公开课的精华内容,在理论严谨的基础上深入浅出地介绍马尔可夫决策过程、蒙特卡洛方法、时序差分方法、Sarsa、Q 学习等传统强化学习算法,以及策略梯度、近端策略优化、深度Q 网络、深度确定性策略梯度等常见深度强化学习算法的基本概念和方法,并以大量生动有趣的例子帮助读者理解强化学习问题的建模过程以及核心算法的细节。

    此外,本书还提供较为**的习题解答以及Python 代码实现,可以让读者进行端到端、从理论到轻松实践的全生态学习,充分掌握强化学习算法的原理并能进行实战。

    本书适合对强化学习感兴趣的读者阅读,也可以作为相关课程的配套教材。

    ** 1 章绪论 1
    1.1 强化学习概述 1
    1.1.1 强化学习与监督学习 1
    1.1.2 强化学习的例子 5
    1.1.3 强化学习的历史 7
    1.1.4 强化学习的应用 8
    1.2 序列决策概述 1**
    1.2.1 智能体和环境 1**
    1.2.2 奖励 1**
    1.2.3 序列决策 1**
    1.3 动作空间 12
    1.4 强化学习智能体的组成部分和类型 12
    1.4.1 策略 13
    1.4.2 价值函数 13
    1.4.3 模型 14
    1.4.4 强化学习智能体的类型 16
    1.5 学习与规划 19
    1.6 探索和利用 2**
    1.7 强化学习实验 22
    1.7.1 Gym 23
    1.7.2 MountainCar-v** 例子27
    1.8 关键词 3**
    1.9 习题 31
    1.1** 面试题 32
    参考文献 32
    ** 2 章马尔可夫决策过程 33
    2.1 马尔可夫过程 34
    2 | Easy RL:强化学习教程
    2.1.1 马尔可夫性质 34
    2.1.2 马尔可夫过程/马尔可夫链 34
    2.1.3 马尔可夫过程的例子 35
    2.2 马尔可夫奖励过程 36
    2.2.1 回报与价值函数 36
    2.2.2 贝尔曼方程 38
    2.2.3 计算马尔可夫奖励过程价值的迭代算法 42
    2.2.4 马尔可夫奖励过程的例子 43
    2.3 马尔可夫决策过程 44
    2.3.1 马尔可夫决策过程中的策略 44
    2.3.2 马尔可夫决策过程和马尔可夫过程/马尔可夫奖励过程的区别 45
    2.3.3 马尔可夫决策过程中的价值函数 45
    2.3.4 贝尔曼期望方程 46
    2.3.5 备份图47
    2.3.6 策略评估 49
    2.3.7 预测与控制 51
    2.3.8 动态规划 53
    2.3.9 使用动态规划进行策略评估 53
    2.3.1** 马尔可夫决策过程控制 56
    2.3.11 策略迭代 58
    2.3.12 价值迭代 61
    2.3.13 策略迭代与价值迭代的区别 63
    2.3.14 马尔可夫决策过程中的预测和控制总结 66
    2.4 关键词 67
    2.5 习题 68
    2.6 面试题 69
    参考文献 69
    **3 章表格型方法 7**
    3.1 马尔可夫决策过程 7**
    3.1.1 有模型71
    3.1.2 免模型72
    3.1.3 有模型与免模型的区别 73
    3.2 Q 表格 73
    3.3 免模型预测 77
    3.3.1 蒙特卡洛方法 77
    3.3.2 时序差分方法 8**
    3.3.3 动态规划方法、蒙特卡洛方法以及时序差分方法的自举和采样 86
    3.4 免模型控制 88
    3.4.1 Sarsa:同策略时序差分控制 91
    3.4.2 Q 学习:异策略时序差分控制 94
    3.4.3 同策略与异策略的区别 97
    3.5 使用Q 学习解决悬崖寻路问题 98
    3.5.1 CliffWalking-v** 环境简介 98
    3.5.2 强化学习基本接口 1****
    3.5.3 Q 学习算法 1**2
    3.5.4 结果分析 1**3
    3.6 关键词 1**4
    3.7 习题1**5
    3.8 面试题 1**5
    参考文献 1**5
    **4 章策略梯度 1**6
    4.1 策略梯度算法 1**6
    4.2 策略梯度实现技巧 115
    4.2.1 技巧1:添加基线 115
    4.2.2 技巧2:分配合适的分数 117
    4.3 REINFORCE:蒙特卡洛策略梯度 119
    4.4 关键词 125
    4.5 习题125
    4.6 面试题 125
    参考文献 126
    **5 章近端策略优化 127
    5.1 从同策略到异策略 127
    5.2 近端策略优化 133
    5.2.1 近端策略优化惩罚 134
    4 | Easy RL:强化学习教程
    5.2.2 近端策略优化裁剪 135
    5.3 关键词 138
    5.4 习题139
    5.5 面试题 139
    参考文献 139
    **6 章深度Q 网络 14**
    6.1 状态价值函数 14**
    6.2 动作价值函数 145
    6.3 目标网络 15**
    6.4 探索152
    6.5 经验回放 154
    6.6 深度Q 网络算法总结156
    6.7 关键词 157
    6.8 习题158
    6.9 面试题 159
    参考文献 159
    **7 章深度Q 网络进阶技巧 16**
    7.1 双深度Q 网络 16**
    7.2 竞争深度Q 网络 162
    7.3 优先级经验回放 165
    7.4 在蒙特卡洛方法和时序差分方法中取得平衡 166
    7.5 噪声网络 167
    7.6 分布式Q 函数 168
    7.7 彩虹17**
    7.8 使用深度Q 网络解决推车杆问题 172
    7.8.1 CartPole-v** 简介 172
    7.8.2 深度Q 网络基本接口 173
    7.8.3 回放缓冲区175
    7.8.4 Q 网络 175
    7.8.5 深度Q 网络算法 176
    7.8.6 结果分析 178
    7.9 关键词 179
    7.1** 习题 18**
    7.11 面试题 18**
    参考文献 18**
    **8 章针对连续动作的深度Q 网络 181
    8.1 方案1:对动作进行采样182
    8.2 方案2:梯度上升 182
    8.3 方案3:设计网络架构 182
    8.4 方案4:不使用深度Q 网络 183
    8.5 习题184
    **9 章演员-评论员算法 185
    9.1 策略梯度回顾 185
    9.2 深度Q 网络回顾 186
    9.3 演员-评论员算法 187
    9.4 优势演员-评论员算法 188
    9.5 异步优势演员-评论员算法 19**
    9.6 路径衍生策略梯度 191
    9.7 与生成对抗网络的联系 195
    9.8 关键词 196
    9.9 习题196
    9.1** 面试题 196
    ** 1** 章深度确定性策略梯度 197
    1**.1 离散动作与连续动作的区别 197
    1**.2 深度确定性策略梯度199
    1**.3 双延迟深度确定性策略梯度 2**3
    1**.4 使用深度确定性策略梯度解决倒立摆问题 2**5
    1**.4.1 Pendulum-v1 简介 2**5
    1**.4.2 深度确定性策略梯度基本接口 2**6
    1**.4.3 Ornstein-Uhlenbeck 噪声 2**7
    1**.4.4 深度确定性策略梯度算法 2**8
    1**.4.5 结果分析2**9
    1**.5 关键词 211
    1**.6 习题 211
    1**.7 面试题 211
    参考文献 211
    ** 11 章稀疏奖励212
    11.1 设计奖励 212
    11.2 好奇心 214
    11.3 课程学习 216
    11.4 分层强化学习 219
    11.5 关键词 221
    11.6 习题 222
    参考文献 222
    ** 12 章模仿学习223
    12.1 行为克隆 223
    12.2 逆强化学习 226
    12.3 **三人称视角模仿学习 231
    12.4 序列生成和聊天机器人 232
    12.5 关键词 233
    12.6 习题 233
    参考文献 234
    ** 13 章AlphaStar 论文解读 235
    13.1 AlphaStar 以及背景简介 235
    13.2 AlphaStar 的模型输入和输出是什么呢?——环境设计 235
    13.2.1 状态(网络的输入) 236
    13.2.2 动作(网络的输出) 236
    13.3 AlphaStar 的计算模型是什么呢?——网络结构 237
    13.3.1 输入部分237
    13.3.2 中间过程239
    13.3.3 输出部分239
    13.4 庞大的AlphaStar 如何训练呢?——学习算法 24**
    13.4.1 监督学习24**
    13.4.2 强化学习241
    13.4.3 模仿学习242
    13.4.4 多智能体学习/自学习 243
    13.5 AlphaStar 实验结果如何呢?——实验结果 243
    13.5.1 宏观结果243
    13.5.2 其他实验(消融实验) 244
    13.6 关于AlphaStar 的总结 245
    参考文献 245

    1
    • 商品详情
    • 内容简介

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购