由于此商品库存有限,请在下单后15分钟之内支付完成,手慢无哦!
100%刮中券,最高50元无敌券,券有效期7天
活动自2017年6月2日上线,敬请关注云钻刮券活动规则更新。
如活动受政府机关指令需要停止举办的,或活动遭受严重网络攻击需暂停举办的,或者系统故障导致的其它意外问题,苏宁无需为此承担赔偿或者进行补偿。
全新正版大规模强化学习9787030477477科学出版社
¥ ×1
前言
章强化学习概述
1.1简介
1.2形式框架
1.2.1马尔可夫决策过程
1.2.2策略
1..回报
1.3值函数
1.4解决强化学习问题
1.4.1动态规划:基于模型的解决技术
1.4.2强化学习:模型无关的解决技术
1.5本章小结
参考文献
第2章大规模或连续状态空间的强化学习
2.1简介
2.2近似表示
2.2.1带参数化值函数逼近
2.2.2非参数化值函数逼近
.值函数逼近求解方法
..1梯度下降方法
..2二乘回归
2.4本章小结
参考文献
第3章梯度下降值函数逼近模型的改进
3.1改进的梯度下降值函数逼近模型
3.1.1势函数塑造奖赏机制
3.1.2基于势函数塑造奖赏机制的值函数逼近模型
3.2NRBF—GD—Sarsa(λ)算法
3.2.1算法描述
3.2.2算法收敛分析
3.3实验
3.3.1实验描述
3.3.2实验设置
3.3.3实验分析
3.4本章小结
参考文献
第4章基于LSSVR的—值函数分片逼近模型
4.1LSSVR——值函数分片逼近模型
4.2在线稀疏化样本池构建方法
4.3LSSVR—算法
4.4实验
4.4.1实验1:MountainCar问题
4.4.2实验2:DCMotor问题
4.5本章小结
参考文献
第5章基于ANRBF网络的—V值函数协同逼近模型
5.1—V值函数协同机制
5.2—V值函数协同逼近模型
5.3—V值函数协同逼近算法
5.3.1V(λ)算法
5.3.2算法收敛分析
5.4实验
5.4.1实验描述
5.4.2实验设置
5.4.3实验分析
5.5本章小结
参考文献
第6章基于高斯过程的快速Sarsa算法
6.1新的值函数概率生成模型
6.2利用高斯过程对线带参值函数建模
6.3FL—GPSarsa算法
6.4实验
6.4.1带风的格子世界问题
6.4.2MountainCar问题
6.5本章小结
参考文献
第7章基于高斯过程的学习算法
7.1值迭代方法
7.2用于值迭代的值函数概率生成模型
7.3GP—L算法
7.4实验
7.4.1实验1:带悬崖的格子世界问题
7.4.2实验2:MountainCar问题
7.5本章小结
参考文献
第8章二乘策略迭代算法
8.1马尔可夫决策过程
8.2二乘策略迭代
8.2.1投影贝尔曼等式的矩阵形式
8.2.2二乘策略迭代
8..在线二乘策略迭代
8.3本章小结
参考文献
第9章批量二乘策略迭代算法
9.1批量强化学习算法
9.2批量二乘策略迭代算法
9.3算法分析
9.3.1收敛分析
9.3.2复杂度分析
9.4实验
9.4.1实验描述
9.4.2实验设置
9.4.3实验分析
9.5本章小结
参考文献
0章自动批量二乘策略迭代算法
10.1定点步长参数评估方法
10.2自动批量二乘策略迭代算法
10.3实验
10.3.1实验描述
10.3.2实验分析
10.4本章小结
参考文献
1章连续动作空间的批量二乘策略迭代算法
11.1二值动作搜索
11.2快速特征选择
11.3连续动作空间的快速特征选择批量二乘策略迭代算法
11.4实验
11.4.1实验描述
11.4.2实验设置
11.4.3实验分析
11.5本章小结
参考文献
2章一种基于双层模糊推理的Sarsa(λ)算法
12.1—值函数的计算和FIS的参数更新
12.2DFR—Sarsa(λ)算法
12.2.1DFR—Sarsa(λ)算法的学习过程
12.2.2算法收敛分析
1.实验
1..1MountainCar
1..2平衡杆
12.4本章小结
参考文献
3章一种基于区间型二型模糊推理的Sarsa(λ)算法
13.1近似—值函数的计算和参数的更新
13.2IT2FI—Sarsa(λ)算法的学习过程
13.3算法收敛分析
13.4实验
13.4.1实验设置
13.4.2实验分析
13.5本章小结
参考文献
……
4章一种带有自适应基函数的模糊值迭代算法
5章基于状态空间分解和智能调度的并行强化学习
6章基于资格迹的并行时间信度分配强化学习算法
7章基于并行采样和学习经验复用的E3算法
8章基于线函数逼近的离策略(λ)算法
9章基于二阶TDError的(λ)算法
第20章基于值函数迁移的快速—Learning算法
2章离策略带参贝叶斯强化学习算法
评论
本书讨论大规模强化学习的理论及方法,介绍强化学习在大状态空间任务中的应用。该研究已成为近年来计算机科学与技术领域*活跃的研究分支之一。全书共分六部分21章。*部分是强化学习基础。第二部分是用于强化学习的值函数逼近方法。第三部分是*小二乘策略迭代方法。第四部分是模糊近似强化学习方法。第五部分是并行强化学习方法。第六部分是离策略强化学习方法。
产品说明: 1. 本产品为按需印刷()图书,实行先付款,后印刷的流程。您在页面购买且完成支付后,订单转交出版社。出版社根据您的订单采用数字印刷的方式,单独为您印制该图书,属于定制产品。 2. 按需印刷的图书装帧均为平装书(含原为精装的图书)。由于印刷工艺、彩墨的批次不同,颜色会与老版本略有差异,但通常会比老版本的颜色更准确。原书内容含彩图的,统一变成黑白图,原书含光盘的,统一无法提供光盘。 3. 按需印刷的图书制作成本高于传统的单本成本,因此售价高于书定。 4. 按需印刷的图书,出版社生产周期一般为15个工作日(特殊情况除外)。请您耐心等待。 5. 按需印刷的图书,属于定制产品,不可取消订单,无质量问题不支持退货。
亲,大宗购物请点击企业用户渠道>小苏的服务会更贴心!
亲,很抱歉,您购买的宝贝销售异常火爆让小苏措手不及,请稍后再试~
非常抱歉,您前期未参加预订活动,
无法支付尾款哦!
抱歉,您暂无任性付资格