由于此商品库存有限,请在下单后15分钟之内支付完成,手慢无哦!
100%刮中券,最高50元无敌券,券有效期7天
活动自2017年6月2日上线,敬请关注云钻刮券活动规则更新。
如活动受政府机关指令需要停止举办的,或活动遭受严重网络攻击需暂停举办的,或者系统故障导致的其它意外问题,苏宁无需为此承担赔偿或者进行补偿。
[正版] 深度强化学习 学术前沿与实战应用 刘驰 王占健 戴子彭 人工智能 神经网络 算法 计算机视觉 自然语言处理
¥ ×1
店铺公告
为保障消费者合理购买需求及公平交易机会,避免因非生活消费目的的购买货囤积商品,抬价转售等违法行为发生,店铺有权对异常订单不发货且不进行赔付。异常订单:包括但不限于相同用户ID批量下单,同一用户(指不同用户ID,存在相同/临近/虚构收货地址,或相同联系号码,收件人,同账户付款人等情形的)批量下单(一次性大于5本),以及其他非消费目的的交易订单。
温馨提示:请务必当着快递员面开箱验货,如发现破损,请立即拍照拒收,如验货有问题请及时联系在线客服处理,(如开箱验货时发现破损,所产生运费由我司承担,一经签收即为货物完好,如果您未开箱验货,一切损失就需要由买家承担,所以请买家一定要仔细验货),
关于退货运费:对于下单后且物流已发货货品在途的状态下,原则上均不接受退货申请,如顾客原因退货需要承担来回运费,如因产品质量问题(非破损问题)可在签收后,联系在线客服。
本店存在书、古旧书、收藏书、二手书等特殊商品,因受采购成本限制,可能高于定价销售,明码标价,介意者勿拍!
1.书籍因稀缺可能导致售价高于定价,图书实际定价参见下方详情内基本信息,请买家看清楚且明确后再拍,避免价格争议!
2.店铺无纸质均开具电子,请联系客服开具电子版
更全面的深度强化学习指南!详解深度强化学习领域近年来重要进展及其典型应用场景,涵盖新的理论算法、工程实现和领域应用。
商品基本信息 | |
| |
商品名称: | 深度强化学习:学术前沿与实战应用 |
作 者: | 刘驰 王占健 马晓鑫 等 |
市 场 价: | 99.00元 |
ISBN 号: | 9787111646648 |
出版日期: | 2020-03 |
页 数: | 388 |
字 数: | 400千字 |
出 版 社: | 机械工业出版社 |
目录 |
前言 致谢 数学符号 第一篇 深度强化学习 第1章 深度强化学习基础 2 1.1 强化学习 2 1.1.1 强化学习的发展历史 2 1.1.2 强化学习简介 4 1.1.3 深度强化学习简介 6 1.2 马尔可夫属性和决策过程 9 1.2.1 马尔可夫属性 9 1.2.2 马尔可夫决策过程 11 1.3 强化学习核心概念 12 1.3.1 值函数 12 1.3.2 动态规划 14 1.3.3 时间(序)差分 15 1.3.4 策略梯度 16 1.3.5 actor-critic方法 17 1.4 Q-learning 18 1.4.1 Q-learning简介 18 1.4.2 算法 19 1.4.3 相关变量及影响 20 1.4.4 实现方法 21 第2章 深度强化学习算法 22 2.1 基于值的深度强化学习算法 22 2.1.1 深度Q网络 22 2.1.2 深度双Q网络 27 2.1.3 竞争网络架构 31 2.1.4 平均值DQN 33 2.1.5 多DQN变种结合体:Rainbow 37 2.1.6 基于动作排除的DQN 42 2.2 基于策略的深度强化学习算法 46 2.2.1 循环确定性策略梯度 46 2.2.2 深度确定性策略梯度 55 2.2.3 信赖域策略优化 62 2.2.4 近端策略优化 68 2.3 基于模型的深度强化学习算法 73 2.3.1 基于模型加速的连续深度Q-learning 73 2.3.2 范例模型探索 80 2.3.3 基于模型集成的信赖域策略优化 88 2.3.4 时间差分模型 95 2.4 基于分层的深度强化学习算法 102 2.4.1 分层深度强化学习 102 2.4.2 基于封建网络的分层强化学习 109 2.4.3 基于随机神经网络的分层强化学习 116 第3章 分布式深度强化学习 123 3.1 分布式系统 123 3.1.1 分布式系统简介 123 3.1.2 分布式系统的发展历史 124 3.1.3 架构演进 125 3.1.4 主流分布式系统框架 128 3.2 分布式深度强化学习算法 129 3.2.1 分布式近端策略优化 129 3.2.2 分布式深度确定性策略梯度 138 3.3 分布式深度强化学习框架 145 3.3.1 重要性加权Actor-Learner架构 145 3.3.2 分布式优先经验复用池 153 第二篇 多智能体深度强化学习 第4章 多智能体深度强化学习基础 162 4.1 多智能体强化学习 162 4.1.1 多智能体强化学习发展历史 162 4.1.2 多智能体强化学习简介 164 4.1.3 优势和挑战 166 4.2 部分可见马尔可夫决策过程 166 4.2.1 POMDP模型 166 4.2.2 POMDP相关研究 169 4.2.3 POMDP应用领域 170 第5章 多智能体深度强化学习算法 171 5.1 基于值函数的多智能体深度强化学习 171 5.1.1 基于DQN的多智能体网络 171 5.1.2 增强智能体间学习 174 5.1.3 协同多智能体学习的价值分解网络 178 5.1.4 多智能体深度强化学习的稳定经验复用池 182 5.1.5 单调值函数分解 187 5.1.6 深度强化学习中的对立智能体建模 190 5.1.7 平均场多智能体强化学习 193 5.2 基于策略的多智能体深度强化学习 197 5.2.1 基于自身策略的其他智能体行为预测 197 5.2.2 双重平均方案 201 5.2.3 多智能体深度强化学习的统一博弈论方法 208 5.3 基于AC框架的多智能体深度强化学习 212 5.3.1 多智能体深度确定性策略梯度 212 5.3.2 多智能体集中规划的价值函数策略梯度 220 5.3.3 多智能体系统的策略表示学习 227 5.3.4 部分可观察环境下的多智能体策略优化 231 5.3.5 基于联网智能体的完全去中心化MARL 236 第三篇 多任务深度强化学习 第6章 多任务深度强化学习基础 244 6.1 简介 244 6.1.1 理论概述 244 6.1.2 面临的挑战 247 6.2 策略蒸馏法 248 第7章 多任务深度强化学习算法 253 7.1 无监督强化与辅助学习 253 7.1.1 算法介绍 253 7.1.2 算法分析 255 7.1.3 使用场景与优势分析 261 7.2 使用渐进式神经网络解决任务的复杂序列 262 7.2.1 算法介绍 262 7.2.2 算法分析 262 7.2.3 使用场景与优势分析 266 7.3 基于单智能体的多任务共享模型 267 7.3.1 算法介绍 267 7.3.2 算法分析 268 7.3.3 使用场景与优势分析 272 7.4 使用PopArt归一化多任务更新幅度 273 7.4.1 算法介绍 273 7.4.2 算法分析 274 7.4.3 使用场景与优势分析 276 第四篇 深度强化学习的应用 第8章 游戏 278 8.1 Gym Retro游戏平台 278 8.1.1 平台简介 278 8.1.2 安装Gym Retro平台 281 8.1.3 安装Retro UI 282 8.1.4 Gym Retro主要函数说明 283 8.2 相关应用 285 8.2.1 Pong游戏 285 8.2.2 CartPole 291 8.2.3 Flappy Bird 298 8.2.4 Gradius 302 第9章 机器人控制 312 9.1 机器人导航 312 9.1.1 无地图导航 312 9.1.2 社会感知机器人导航 316 9.2 路径规划 321 9.3 机器人视觉 324 第10章 计算机视觉 327 10.1 图像 327 10.1.1 图像字幕 327 10.1.2 图像恢复 332 10.2 视频 337 10.2.1 视频字幕 337 10.2.2 视频快进 345 10.2.3 视觉跟踪 348 第11章 自然语言处理 354 11.1 与知识库交互的多轮对话智能体 354 11.1.1 概率KB查找 355 11.1.2 端到端KB-InfoBot 356 11.1.3 总结 359 11.2 鲁棒远程监督关系提取 359 11.2.1 问题表述 360 11.2.2 使用基于策略的智能体重新分配训练数据集 363 11.2.3 总结 363 11.3 非成对情感–情感翻译 363 11.3.1 问题表述 363 11.3.2 训练算法 366 11.3.3 总结 367 缩写参照表 368 常用词中英文对照 371 参考文献 374
|
内容简介 |
着重介绍深度强化学习的学术界前沿进展与核心代码分析的书籍。对深度强化学习方面的重要学术进展按照单智能体深度强化学习、多智能体深度强化学习、多任务深度强化学习三个方向梳理,介绍其核心算法,以及算法的代码实现示例。 |
亲,大宗购物请点击企业用户渠道>小苏的服务会更贴心!
亲,很抱歉,您购买的宝贝销售异常火爆让小苏措手不及,请稍后再试~
非常抱歉,您前期未参加预订活动,
无法支付尾款哦!
抱歉,您暂无任性付资格