返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • [正版]Python深度强化学习——使用PyTorch, TensorFlow 和OpenAI Gym
  • 正版图书 品质保障
    • 作者: [印]尼米什·桑吉(Nimish著
    • 出版社: 清华大学出版社
    • 出版时间:1
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    友一个图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品参数
    • 作者: [印]尼米什·桑吉(Nimish著
    • 出版社:清华大学出版社
    • 出版时间:1
    • 开本:16开
    • ISBN:9785530970214
    • 版权提供:清华大学出版社

             店铺公告

      为保障消费者合理购买需求及公平交易机会,避免因非生活消费目的的购买货囤积商品,抬价转售等违法行为发生,店铺有权对异常订单不发货且不进行赔付。异常订单:包括但不限于相同用户ID批量下单,同一用户(指不同用户ID,存在相同/临近/虚构收货地址,或相同联系号码,收件人,同账户付款人等情形的)批量下单(一次性大于5本),以及其他非消费目的的交易订单。

    温馨提示:请务必当着快递员面开箱验货,如发现破损,请立即拍照拒收,如验货有问题请及时联系在线客服处理,(如开箱验货时发现破损,所产生运费由我司承担,一经签收即为货物完好,如果您未开箱验货,一切损失就需要由买家承担,所以请买家一定要仔细验货),

    关于退货运费:对于下单后且物流已发货货品在途的状态下,原则上均不接受退货申请,如顾客原因退货需要承担来回运费,如因产品质量问题(非破损问题)可在签收后,联系在线客服。

      本店存在书、古旧书、收藏书、二手书等特殊商品,因受采购成本限制,可能高于定价销售,明码标价,介意者勿拍!

    1.书籍因稀缺可能导致售价高于定价,图书实际定价参见下方详情内基本信息,请买家看清楚且明确后再拍,避免价格争议!

    2.店铺无纸质均开具电子,请联系客服开具电子版

     

    (1)知识覆盖全面,内容新颖独特,涵盖基于模型的算法、无模型方法、深度Q-学习、策略梯度和多智能体强化学习等算法以及国际前沿研究和热点方向。
    (2)侧重基本概念和基础知识,总结提炼强化学习和深度强化学习的理论研究。
    (3)重点突出在OpenAI Gym工具包下使用PyTorch和TensorFlow框架的深度强化学习算法。
    (4)详尽分析特定场景领域的数学建模和理论推导过程,理论讲解深入浅出,应用实例简洁易懂,源代码清晰易理解。  (5)适合作为大学生的教材以及工程师的参考书籍。在有限篇幅内系统精炼地阐明基本理论、方法,辅以典型的理论分析、实例和相关程序,化繁为简,便于学习和认知。

    基本信息
    商品名称: Python深度强化学习——使用PyTorch, TensorFlow 和OpenAI Gym 开本: 16开
    作者: [印]尼米什·桑吉(Nimish Sanghi)著,罗俊海 译 定价: 69.00
    ISBN号: 9787302607724 出版时间: 2022-10-01
    出版社: 清华大学出版社 印刷时间: 2022-10-01
    版次: 1 印次: 1

    第1章强化学习导论

    1.1强化学习概述

    1.2机器学习分类

    1.2.1监督学习

    1.2.2无监督学习

    1.2.3强化学习

    1.2.4核心元素

    1.3基于强化学习的深度学习

    1.4实例和案例研究

    1.4.1自动驾驶汽车

    1.4.2机器人

    1.4.3推荐系统

    1.4.4金融和贸易

    1.4.5医疗保健

    1.4.6游戏

    1.5库与环境设置

    1.6总结

    第2章马尔可夫决策

    2.1强化学习的定义

    2.2智能体和环境

    2.3奖励

    2.4马尔可夫过程

    2.4.1马尔可夫链

    2.4.2马尔可夫奖励
    过程

    2.4.3马尔可夫决策
    过程

    2.5策略和价值函数


    2.6贝尔曼方程

    2.6.1贝尔曼方程

    2.6.2解决方法类型的
    思维导图

    2.7总结

    第3章基于模型的算法

    3.1OpenAI Gym

    3.2动态规划

    3.3策略评估/预测

    3.4策略改进和迭代

    3.5价值迭代

    3.6广义策略迭代

    3.7异步回溯

    3.8总结

    第4章无模型方法

    4.1蒙特卡洛估计/预测

    4.2蒙特卡洛控制

    4.3离线策略MC控制

    4.4TD学习方法

    4.5TD控制

    4.6在线策略SARSA

    4.7Q学习: 离线策略
    TD控制

    4.8偏差和双重学习

    4.9期望SARSA控制


    4.10回放池和离线策略学习

    4.11连续状态空间的Q学习

    4.12n步回报

    4.13资格迹和TD(λ)

    4.14DP、MC和TD之间
    的关系

    4.15总结

    第5章函数逼近

    5.1概述

    5.2逼近理论

    5.2.1粗编码

    5.2.2瓦片编码

    5.2.3逼近中的挑战

    5.3增量预测: MC、TD和
    TD(λ)

    5.4增量控制

    5.4.1n步半梯度SARSA
    控制

    5.4.2半梯度SARSA(λ)
    控制

    5.5函数逼近的收敛性

    5.6梯度时序差分学习

    5.7批处理方法

    5.8线性小二乘法

    5.9深度学习库

    5.10总结

     

     

     

    第6章深度Q学习

    6.1DQN

    6.2优先回放

    6.3双Q学习

    6.4竞争DQN

    6.5噪声网DQN

    6.6C51

    6.7分位数回归DQN

    6.8事后经验回放

    6.9总结

    第7章策略梯度算法

    7.1引言

    7.1.1基于策略的方法的
    利弊

    7.1.2策略表征

    7.2策略梯度推导

    7.2.1目标函数

    7.2.2导数更新规则

    7.2.3更新规则的运算
    原理

    7.3强化算法

    7.3.1带奖励因子的
    方差减少

    7.3.2进一步减少基线
    差异

    7.4演员评论家方法

    7.4.1定义优势

    7.4.2优势演员评论家


    7.4.3A2C算法的
    实现

    7.4.4异步优势演员
    评论家

    7.5信赖域策略优化算法

    7.6近似策略优化算法

    7.7总结

    第8章结合策略梯度和Q学习

    8.1策略梯度与Q学习
    的权衡

    8.2结合策略梯度与Q学习的
    一般框架

    8.3深度确定性策略梯度

    8.3.1Q学习在DDPG中的
    应用(评论家)

    8.3.2DDPG中的策略
    学习(演员)

    8.3.3伪代码和实现

    8.3.4代码实现

    8.4双延迟DDPG

    8.4.1目标策略平滑

    8.4.2Q损失(评论家)


    8.4.3策略损失(演员)

    8.4.4延迟更新

    8.4.5伪代码和实现

    8.4.6代码实现

    8.5重参数化技巧

    8.5.1分数/强化方法

    8.5.2重参数化技巧与
    路径导数

    8.5.3实验

    8.6熵解释

    8.7软演员评论家

    8.7.1SAC与TD3

    8.7.2熵正则化下的
    Q损失

    8.7.3具有重参数技巧的
    策略损失

    8.7.4伪代码及其实现

    8.7.5代码实现

    8.8总结

    第9章综合规划与学习

    9.1基于模型的强化学习

    9.1.1使用学习的模型
    进行规划

    9.1.2集成学习与规划

    9.1.3Dyna Q和变化
    的环境

    9.1.4Dyna Q

    9.1.5期望与示例更新

    9.2探索vs利用

    9.2.1多臂强盗

    9.2.2后悔值: 探索质量的
    衡量标准

    9.3决策时间规划和蒙特
    卡洛树搜索

    9.4AlphaGo模拟实验

    9.5总结

    第10章进一步的探索与后续
    工作
    10.1基于模型的强化学习: 
    其他方法

    10.1.1世界模型

    10.1.2想象力增强智
    能体

    10.1.3基于模型的强化
    学习和无模型
    微调

    10.1.4基于模型的价值
    扩展

    10.2模仿学习和逆强化
    学习

    10.3无导数方法

    10.4迁移学习和多任务
    学习

    10.5元学习

    10.6流行的强化学习库

    10.7如何继续学习

    10.8总结

    术语

     

    ......

    本书重点突出深度强化学习理论的基本概念、前沿基础理论和Python应用实现。首先介绍马尔可夫决策、基于模型的算法、无模型方法、动态规划、蒙特卡洛和函数逼近等基础知识;然后详细阐述强化学习、深度强化学习、多智能体强化学习等算法,及其Python应用实现。本书既阐述奖励、价值函数、模型和策略等重要概念和基础知识,又介绍深度强化学习理论的前沿研究和热点方向。本书英文版出版之后,广受好评,已成为深度强化学习领域畅销教材,也可为人工智能和机器学习等领域的科研工作者、技术工程师提供参考。

    作者简介
    Nimish Sanghi(尼米什·桑吉)一位充满激情的技术领导者,专注于使用技术解决客户问题,在软件和咨询领域拥有超过25年的工作经验,拥有人工智能和深度学习的多项证书,获得印度理工学院电气工程学士学位、印度管理学院工商管理硕士学位。曾在普华永道、IBM和Oracle等公司担任领导职务,负责盈亏管理。2006年,在SOAIS公司开启软件咨询创业之旅,为《财富》100强的众多公司提供自动化和数字化转型服务,实现从本地应用到云计算的转型。人工智能和自动化驱动的初创公司领域的天使投资人,联合创立面向印度市场的SaaS人力资源和薪资Paybooks平台,联合创立提供人工智能驱动的工作流ZipperAgent自动化平台和视频营销ZipperHQ自动化平台(总部位于波士顿的初创公司),现任这两个平台的首席技术官和首席数据科学家。
    译者简介
    罗俊海,博士(后),电子科技大学副教授、硕士生导师。主要研究方向为智能计算、目标检测和数据融合,主持国家自然科学基金、四川省科技厅基金、总装预研基金和中央高校基本科研业务等15项,参与制订标准6项,发表文章60余篇,其中SCI检索50余篇,总引用1500余次。申请和授权发明专利30余项,获四川省科学技术进步奖二等奖和三等奖各1项。出版《多源数据融合和传感器管理》《使用HTML和CSS开发WEB网站》《物联网系统开发及应用实战》等专著和教材5部,以及译著《实用MATLAB深度学习:基于项目的方法》。

    1
    • 商品详情
    • 内容简介

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购