加载中...
扫一扫
下载苏宁易购APP
关注苏宁推客公众号
自购省钱·分享赚钱
下载苏宁金融APP
关注苏宁易购服务号
用户评价:----
物流时效:----
售后服务:----
欢迎光临我们店铺!书籍都是正版全新书籍,欢迎下单~!!
实名认证领苏宁支付券立即领取 >
¥
提前抢
SUPER会员专享
由于此商品库存有限,请在下单后15分钟之内支付完成,手慢无哦!
欢迎光临本店铺
点我可查看更多商品哦~
100%刮中券,最高50元无敌券,券有效期7天
亲,今日还有0次刮奖机会
我的云钻:0
您的云钻暂时不足,攒足云钻再来刮
恭喜获得1张券!
今天的机会已经全部用完了,请明天再来
恭喜刮出两张券,请选择一张领取
活动自2017年6月2日上线,敬请关注云钻刮券活动规则更新。
如活动受政府机关指令需要停止举办的,或活动遭受严重网络攻击需暂停举办的,或者系统故障导致的其它意外问题,苏宁无需为此承担赔偿或者进行补偿。
音像强化学习(原理与Python实现)/智能系统与技术丛书肖智清
¥ ×1
商品
服务
物流
前言章 初识强化学习 11.1 强化学习及其关键元素 11.2 强化学习的应用 31.3 智能体/环境接口 41.4 强化学习的分类 61.4.1 按任务分类 61.4.2 按算法分类 71.5 如何学习强化学习 81.5.1 学习路线 91.5.2 学习资源 91.6 案例:基于Gym库的智能体/环境交互 91.6.1 安装Gym库 101.6.2 使用Gym库 101.6.3 小车上山 121.7 本章小结 14第2章 Markov决策过程 162.1 Markov决策过程模型 162.1.1 离散时间Markov决策过程 162.1.2 环境与动力 182.1.3 智能体与策略 192.1.4 奖励、回报与价值函数 192.2 Bellman期望方程 21. 策略及其质 25..1 策略与价值函数 25..2 Bellman方程 25.. 用Bellman方程求解策略 292.4 案例:悬崖寻路 312.4.1 实验环境使用 312.4.2 求解Bellman期望方程 322.4.3 求解Bellman方程 332.5 本章小结 35第3章 有模型数值迭代 373.1 度量空间与压缩映 373.1.1 度量空间及其完备 373.1.2 压缩映与Bellman算子 383.1.3 Banach不动点定理 393.2 有模型策略迭代 403.2.1 策略评估 403.2.2 策略改进 423.. 策略迭代 443.3 有模型价值迭代 453.4 动态规划 463.4.1 从动态规划看迭代算法 463.4.2 异步动态规划 473.5 案例:冰面滑行 473.5.1 实验环境使用 483.5.2 有模型策略迭代求解 493.5.3 有模型价值迭代求解 513.6 本章小结 52第4章 回合更新价值迭代 544.1 同策回合更新 544.1.1 同策回合更新策略评估 544.1.2 带起始探索的同策回合更新 584.1.3 基于柔策略的同策回合更新 604.2 异策回合更新 624.2.1 重要采样 624.2.2 异策回合更新策略评估 644.. 异策回合更新策略求解 654.3 案例:21点游戏 664.3.1 实验环境使用 664.3.2 同策策略评估 674.3.3 同策策略求解 704.3.4 异策策略评估 724.3.5 异策策略求解 734.4 本章小结 74第5章 时序差分价值迭代 765.1 同策时序差分更新 765.1.1 时序差分更新策略评估 785.1.2 SARSA算法 815.1.3 期望SARSA算法 835.2 异策时序差分更新 855.2.1 基于重要采样的异策算法 855.2.2 学习 865.. 双重学习 875.3 资格迹 895.3.1 λ回报 895.3.2 TD(λ) 905.4 案例:出租车调度 925.4.1 实验环境使用 935.4.2 同策时序差分学习调度 945.4.3 异策时序差分学习调度 975.4.4 资格迹学习调度 995.5 本章小结 100第6章 函数近似方法 1016.1 函数近似原理 1016.1.1 随机梯度下降 1016.1.2 半梯度下降 1036.1.3 带资格迹的半梯度下降 1056.2 线近似 1076.2.1 查找表与线近似的关系 1076.2.2 线二乘策略评估 1076.. 线二乘策略求解 1096.3 函数近似的收敛 1096.4 深度学习 1106.4.1 经验回放 1116.4.2 带目标网络的深度学习 1126.4.3 双重深度网络 1146.4.4 对偶深度网络 1146.5 案例:小车上山 1156.5.1 实验环境使用 1166.5.2 用线近似求解策略 1176.5.3 用深度学习求解策略 1206.6 本章小结 1第7章 回合更新策略梯度方法 1257.1 策略梯度算法的原理 1257.1.1 函数近似与动作偏好 1257.1.2 策略梯度定理 1267.2 同策回合更新策略梯度算法 1287.2.1 简单的策略梯度算法 1287.2.2 带基线的简单策略梯度算法 1297.3 异策回合更新策略梯度算法 1317.4 策略梯度更新和极大似然估计的关系 1327.5 案例:车杆平衡 1327.5.1 同策策略梯度算法求解策略 1337.5.2 异策策略梯度算法求解策略 1357.6 本章小结 137第8章 执行者/评论者方法 1398.1 同策执行者/评论者算法 1398.1.1 动作价值执行者/评论者算法 1408.1.2 优势执行者/评论者算法 1418.1.3 带资格迹的执行者/评论者算法 1438.2 基于代理优势的同策算法 1438.2.1 代理优势 1448.2.2 邻近策略优化 1458.3 信任域算法 1468.3.1 KL散度 1468.3.2 信任域 1478.3.3 自然策略梯度算法 1488.3.4 信任域策略优化 1518.3.5 Kronecker因子信任域执行者/评论者算法 1528.4 重要采样异策执行者/评论者算法 1538.4.1 基本的异策算法 1548.4.2 带经验回放的异策算法 1548.5 柔执行者/评论者算法 1578.5.1 熵 1578.5.2 奖励工程和带熵的奖励 1588.5.3 柔执行者/评论者的网络设计 1598.6 案例:双节倒立摆 1618.6.1 同策执行者/评论者算法求解策略 1628.6.2 异策执行者/评论者算法求解策略 1688.7 本章小结 170第9章 连续动作空间的确定策略 1729.1 同策确定算法 1729.1.1 策略梯度定理的确定版本 1729.1.2 基本的同策确定执行者/评论者算法 1749.2 异策确定算法 1769.2.1 基本的异策确定执行者/评论者算法 1779.2.2 深度确定策略梯度算法 1779.. 双重延迟深度确定策略梯度算法 1789.3 案例:倒立摆的控制 1809.3.1 用深度确定策略梯度算法求解 1819.3.2 用双重延迟深度确定算法求解 1849.4 本章小结 1870章 综合案例:电动游戏 18810.1 Atari游戏环境 18810.1.1 Gym库的完整安装 18810.1.2 游戏环境使用 19010.2 基于深度学习的游戏AI 19110.2.1 算法设计 19210.2.2 智能体的实现 19310.. 智能体的训练和测试 19710.3 本章小结 1981章 综合案例:棋盘游戏 20011.1 双人确定棋盘游戏 20011.1.1 五子棋和井字棋 20011.1.2 黑白棋 20111.1.3 围棋 20211.2 AlphaZero算法 20311.2.1 回合更新树搜索 20311.2.2 深度残差网络 20611.. 自我对弈 20811.2.4 算法流程 21011.3 棋盘游戏环境boardgame2 21011.3.1 为Gym库扩展自定义环境 21111.3.2 boardgame2设计 21111.3.3 Gym环境接口的实现 21411.3.4 树搜索接口的实现 21611.4 AlphaZero算法实现 21811.4.1 智能体类的实现 21811.4.2 自我对弈的实现 211.4.3 训练智能体 22411.5 本章小结 2252章 综合案例:自动驾驶 22612.1 AirSim开发环境使用 22612.1.1 安装和运行AirSim 22612.1.2 用Python访问AirSim 22812.2 基于强化学习的自动驾驶 22912.2.1 为自动驾驶设计强化学习环境 012.2.2 智能体设计和实现 512.. 智能体的训练和测试 1. 本章小结
抢购价:¥ 38.00
易购价:¥ 38.00
注:参加抢购将不再享受其他优惠活动
亲,很抱歉,您购买的宝贝销售异常火爆,让小苏措手不及,请稍后再试~
验证码错误
看不清楚?换一张
确定关闭
亲,大宗购物请点击企业用户渠道>小苏的服务会更贴心!
亲,很抱歉,您购买的宝贝销售异常火爆让小苏措手不及,请稍后再试~
查看我的收藏夹
非常抱歉,您前期未参加预订活动,无法支付尾款哦!
关闭
抱歉,您暂无任性付资格
继续等待
0小时0分
立即开通
SUPER会员