返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 醉染图书深度强化学习 入门与实践指南9787111668084
  • 正版全新
    • 作者: (俄罗斯)马克西姆·拉潘著 | (俄罗斯)马克西姆·拉潘编 | (俄罗斯)马克西姆·拉潘译 | (俄罗斯)马克西姆·拉潘绘
    • 出版社: 机械工业出版社
    • 出版时间:2021-02-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    醉染图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: (俄罗斯)马克西姆·拉潘著| (俄罗斯)马克西姆·拉潘编| (俄罗斯)马克西姆·拉潘译| (俄罗斯)马克西姆·拉潘绘
    • 出版社:机械工业出版社
    • 出版时间:2021-02-01
    • 版次:1
    • 印次:1
    • 字数:551000
    • 页数:384
    • 开本:16开
    • ISBN:9787111668084
    • 版权提供:机械工业出版社
    • 作者:(俄罗斯)马克西姆·拉潘
    • 著:(俄罗斯)马克西姆·拉潘
    • 装帧:平装
    • 印次:1
    • 定价:119.00
    • ISBN:9787111668084
    • 出版社:机械工业出版社
    • 开本:16开
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2021-02-01
    • 页数:384
    • 外部编号:1202302554
    • 版次:1
    • 成品尺寸:暂无

    原书前言

    章什么是强化学习

    1.1学习—监督、无监督和强化

    1.2RL形式和关系

    1.2.1奖励

    1.2.2智能体

    1..环境

    1.2.4动作

    1.2.5观察

    1.3马尔可夫决策过程简介

    1.3.1马尔可夫过程

    1.3.2马尔可夫奖励过程

    1.3.3马尔可夫决策过程

    1.4本章小结

    第2章OpenAIGym开源平台

    2.1智能体剖析

    2.2硬件和软件要求

    .OpenAIGymAPI

    ..1动作空间

    ..2观察空间

    ..环境

    ..4创建环境

    ..5CartPole会话

    2.4随机CartPole智能体

    2.5额外的Gym功能—Wrapper和Monitor

    2.5.1Wrapper

    2.5.2Monitor

    2.6本章小结

    第3章使用PyTorch进行深度学习

    3.1张量

    3.1.1创建张量

    3.1.2标量张量

    3.1.3张量作
    3.1.4GPU张量

    3.2梯度

    3.2.1张量和梯度

    3.3NN构建块

    3.4定制层级

    3.5的黏合剂—损失函数和优化器

    3.5.1损失函数

    3.5.2优化器

    3.6使用TensorBoard监控

    3.6.1TensorBoard简介

    3.6.2绘图工具

    3.7示例:在Atari图像上使用GAN

    3.8本章小结

    第4章交叉熵方法

    4.1RL方法的分类

    4.2实践交熵
    4.3CartPole上的交叉熵方法

    4.4FrozenLake上的交叉熵方法

    4.5交叉熵方的理背景

    4.6本章小结

    第5章表格学习与Bellman方程

    5.1值、状态、

    5.2的Bellman方程

    5.3动作的值

    5.4值迭代法

    5.5实践中的值迭代

    5.6FrozenLake中的-learning

    5.7本章小结

    第6章深度网络

    6.1现实中的值迭代

    6.2表格式-learning

    6.3深度-learning

    6.3.1与环境的交互

    6.3.2SGD优化

    6.3.3步骤之间的相关

    6.3.4马尔可夫

    6.3.5DN训练的形式

    6.4Pong上的DN

    6.4.1封装

    6.4.2DN模型

    6.4.3训练

    6.4.4运行与能

    6.4.5动作中的模型

    6.5本章小结

    第7章DN扩展

    7.1PyTorchAgentNet函数库

    7.1.1智能体

    7.1.2智能体的经验

    7.1.3经验缓冲区

    7.1.4Gymenv封装

    7.2基本DN

    7.3N步DN

    7.3.1实现

    7.4双DN

    7.4.1实现

    7.4.2结果

    7.5有噪网络

    7.5.1实现

    7.5.2结果

    7.6优先级重放缓冲区

    7.6.1实现

    7.6.2结果

    7.7竞争DN

    7.7.1实现

    7.7.2结果

    7.8分类

    7.8.1实现

    7.8.2结果

    7.9结合所有

    7.9.1实现

    7.9.2结果

    7.10本章小结

    参考文献

    第8章RL用于交易

    8.1贸易

    8.2数据

    8.3问题陈述和关键决策

    8.4交易环境

    8.5模型

    8.6训练代码

    8.7结果

    8.7.1前馈模型

    8.7.2卷积模型

    8.8要尝试的事

    8.9本章小结

    第9章策略梯度法:一种替代方案

    9.1值与策略

    9.1.1为什么是策略

    9.1.2策略表示

    9.1.3策略梯度

    9.2强化方法

    9.2.1CartPole的例子

    9.2.2结果

    9..基于策略的方法与基于值的方法

    9.3强化问题

    9.3.1完整episode是必需的

    9.3.2高梯度方差

    9.3.3探索

    9.3.4样本之间的相关

    9.4CartPole上的PG

    9.5Pong上的PG

    9.6本章小结

    0章Actor-Critic方法

    10.1方差减少

    10.2CartPole方差

    10.3Actor-Critic

    10.4Pong上的A2C

    10.5Pong上的A2C的结果

    10.6调整超参数

    10.6.1学习率

    10.6.2熵beta

    10.6.3环境数量

    10.6.4batch小
    10.7本章小结

    1章异步优势Actor-Critic方法

    11.1相关和样本效率

    11.2在A2C中添加另一个A

    11.3Python中的多处理

    11.4A3C—数据并行

    11.5A3C—梯度并行

    11.6本章小结

    2章用RL训练聊天机器人

    12.1聊天机器人概述

    12.2DeepNLP基础知识

    12.2.1RNN

    12.2.2嵌入

    12..编码器-解码器

    1.seq2seq训练

    1..1对数似然训练

    1..2双语评估替补(BLEU)得分

    1..seq2seq中的RL

    1..4自我评价序列训练

    12.4聊天机器人示例

    12.4.1示例结构

    12.4.2模块:cornell.py和data.py

    12.4.3BLEU得分和utils.py

    12.4.4模型

    12.4.5训练:交熵
    12.4.6执行训练

    12.4.7检查数据

    12.4.8测试训练的模型

    12.4.9训练:SCST

    12.4.10运行SCST训练

    12.4.11结果

    12.4.12电报机器人

    12.5本章小结

    3章Web浏览

    13.1网页浏览

    ……

    编辑:迅速理解深度强化学习,从原理到新近算法全面探索面向实践,掌握构建智能体、聊天机器人等实践项目本书对RL的核心知识进行了全面深入讲解,并为你提供了编写智能体代码的详细知识,以使其执行一系列艰巨的实际任务。帮你掌握如何在“网格世界”环境中实现-learning,教会你的智能体购买和交易,并掌握如何通过实现自然语言模型来推动聊天机器人的发展。你将学到什么:● 理解如何通过RL的DL上下文实现复杂的DL模型● 掌握RL的基础理论:马尔可夫决策过程● 学会评估RL的方法,包括交叉熵、DN、Actor-Critic、TRPO、PPO、DDPG、D4PG等● 研究探索如何处理各种环境中的离散和连续动作空间● 学会使用值迭代方法击败Atari街机游戏● 学会创建自己的OpenAI Gym环境以训练交易智能体● 教会你的智能体使用AlphaGo Zero玩Connect4● 探索有关主题的*新深度RL研究,包括AI驱动的聊天机器人

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购