返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 全新正版大规模强化学习9787030477477科学出版社
    • 作者: 刘全,傅启明 等著 | 刘全,傅启明 等编 | 刘全,傅启明 等译 | 刘全,傅启明 等绘
    • 出版社: 科学出版社
    • 出版时间:2015-09-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    如梦图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 刘全,傅启明 等著| 刘全,傅启明 等编| 刘全,傅启明 等译| 刘全,傅启明 等绘
    • 出版社:科学出版社
    • 出版时间:2015-09-01
    • 版次:1
    • 印刷时间:2016-03-01
    • 字数:352千字
    • 页数:352
    • 开本:小16开
    • ISBN:9787030477477
    • 版权提供:科学出版社
    • 作者:刘全,傅启明 等
    • 著:刘全,傅启明 等
    • 装帧:平装
    • 印次:暂无
    • 定价:96.00
    • ISBN:9787030477477
    • 出版社:科学出版社
    • 开本:小16开
    • 印刷时间:2016-03-01
    • 语种:中文
    • 出版时间:2015-09-01
    • 页数:352
    • 外部编号:8690799
    • 版次:1
    • 成品尺寸:暂无

    前言

    章强化学习概述

    1.1简介

    1.2形式框架

    1.2.1马尔可夫决策过程

    1.2.2策略

    1..回报

    1.3值函数

    1.4解决强化学习问题

    1.4.1动态规划:基于模型的解决技术

    1.4.2强化学习:模型无关的解决技术

    1.5本章小结

    参考文献

    第2章大规模或连续状态空间的强化学习

    2.1简介

    2.2近似表示

    2.2.1带参数化值函数逼近

    2.2.2非参数化值函数逼近

    .值函数逼近求解方法

    ..1梯度下降方法

    ..2二乘回归

    2.4本章小结

    参考文献

    第3章梯度下降值函数逼近模型的改进

    3.1改进的梯度下降值函数逼近模型

    3.1.1势函数塑造奖赏机制

    3.1.2基于势函数塑造奖赏机制的值函数逼近模型

    3.2NRBF—GD—Sarsa(λ)算法

    3.2.1算法描述

    3.2.2算法收敛分析

    3.3实验

    3.3.1实验描述

    3.3.2实验设置

    3.3.3实验分析

    3.4本章小结

    参考文献

    第4章基于LSSVR的—值函数分片逼近模型

    4.1LSSVR——值函数分片逼近模型

    4.2在线稀疏化样本池构建方法

    4.3LSSVR—算法

    4.4实验

    4.4.1实验1:MountainCar问题

    4.4.2实验2:DCMotor问题

    4.5本章小结

    参考文献

    第5章基于ANRBF网络的—V值函数协同逼近模型

    5.1—V值函数协同机制

    5.2—V值函数协同逼近模型

    5.3—V值函数协同逼近算法

    5.3.1V(λ)算法

    5.3.2算法收敛分析

    5.4实验

    5.4.1实验描述

    5.4.2实验设置

    5.4.3实验分析

    5.5本章小结

    参考文献

    第6章基于高斯过程的快速Sarsa算法

    6.1新的值函数概率生成模型

    6.2利用高斯过程对线带参值函数建模

    6.3FL—GPSarsa算法

    6.4实验

    6.4.1带风的格子世界问题

    6.4.2MountainCar问题

    6.5本章小结

    参考文献

    第7章基于高斯过程的学习算法

    7.1值迭代方法

    7.2用于值迭代的值函数概率生成模型

    7.3GP—L算法

    7.4实验

    7.4.1实验1:带悬崖的格子世界问题

    7.4.2实验2:MountainCar问题

    7.5本章小结

    参考文献

    第8章二乘策略迭代算法

    8.1马尔可夫决策过程

    8.2二乘策略迭代

    8.2.1投影贝尔曼等式的矩阵形式

    8.2.2二乘策略迭代

    8..在线二乘策略迭代

    8.3本章小结

    参考文献

    第9章批量二乘策略迭代算法

    9.1批量强化学习算法

    9.2批量二乘策略迭代算法

    9.3算法分析

    9.3.1收敛分析

    9.3.2复杂度分析

    9.4实验

    9.4.1实验描述

    9.4.2实验设置

    9.4.3实验分析

    9.5本章小结

    参考文献

    0章自动批量二乘策略迭代算法

    10.1定点步长参数评估方法

    10.2自动批量二乘策略迭代算法

    10.3实验

    10.3.1实验描述

    10.3.2实验分析

    10.4本章小结

    参考文献

    1章连续动作空间的批量二乘策略迭代算法

    11.1二值动作搜索

    11.2快速特征选择

    11.3连续动作空间的快速特征选择批量二乘策略迭代算法

    11.4实验

    11.4.1实验描述

    11.4.2实验设置

    11.4.3实验分析

    11.5本章小结

    参考文献

    2章一种基于双层模糊推理的Sarsa(λ)算法

    12.1—值函数的计算和FIS的参数更新

    12.2DFR—Sarsa(λ)算法

    12.2.1DFR—Sarsa(λ)算法的学习过程

    12.2.2算法收敛分析

    1.实验

    1..1MountainCar

    1..2平衡杆

    12.4本章小结

    参考文献

    3章一种基于区间型二型模糊推理的Sarsa(λ)算法

    13.1近似—值函数的计算和参数的更新

    13.2IT2FI—Sarsa(λ)算法的学习过程

    13.3算法收敛分析

    13.4实验

    13.4.1实验设置

    13.4.2实验分析

    13.5本章小结

    参考文献

    ……

    4章一种带有自适应基函数的模糊值迭代算法

    5章基于状态空间分解和智能调度的并行强化学习

    6章基于资格迹的并行时间信度分配强化学习算法

    7章基于并行采样和学习经验复用的E3算法

    8章基于线函数逼近的离策略(λ)算法

    9章基于二阶TDError的(λ)算法

    第20章基于值函数迁移的快速—Learning算法

    2章离策略带参贝叶斯强化学习算法

    评论

    本书讨论大规模强化学习的理论及方法,介绍强化学习在大状态空间任务中的应用。该研究已成为近年来计算机科学与技术领域*活跃的研究分支之一。全书共分六部分21章。*部分是强化学习基础。第二部分是用于强化学习的值函数逼近方法。第三部分是*小二乘策略迭代方法。第四部分是模糊近似强化学习方法。第五部分是并行强化学习方法。第六部分是离策略强化学习方法。

    产品说明: 1. 本产品为按需印刷()图书,实行先付款,后印刷的流程。您在页面购买且完成支付后,订单转交出版社。出版社根据您的订单采用数字印刷的方式,单独为您印制该图书,属于定制产品。 2. 按需印刷的图书装帧均为平装书(含原为精装的图书)。由于印刷工艺、彩墨的批次不同,颜色会与老版本略有差异,但通常会比老版本的颜色更准确。原书内容含彩图的,统一变成黑白图,原书含光盘的,统一无法提供光盘。 3. 按需印刷的图书制作成本高于传统的单本成本,因此售价高于书定。 4. 按需印刷的图书,出版社生产周期一般为15个工作日(特殊情况除外)。请您耐心等待。 5. 按需印刷的图书,属于定制产品,不可取消订单,无质量问题不支持退货。  

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购