- 商品参数
-
- 作者:
久保隆宏著
- 出版社:人民邮电出版社
- 出版时间:2021-07
- ISBN:9787672199593
- 版权提供:人民邮电出版社
店铺公告
为保障消费者合理购买需求及公平交易机会,避免因非生活消费目的的购买货囤积商品,抬价转售等违法行为发生,店铺有权对异常订单不发货且不进行赔付。异常订单:包括但不限于相同用户ID批量下单,同一用户(指不同用户ID,存在相同/临近/虚构收货地址,或相同联系号码,收件人,同账户付款人等情形的)批量下单(一次性大于5本),以及其他非消费目的的交易订单。
温馨提示:请务必当着快递员面开箱验货,如发现破损,请立即拍照拒收,如验货有问题请及时联系在线客服处理,(如开箱验货时发现破损,所产生运费由我司承担,一经签收即为货物完好,如果您未开箱验货,一切损失就需要由买家承担,所以请买家一定要仔细验货)。
关于退货运费:对于下单后且物流已发货货品在途的状态下,原则上均不接受退货申请,如顾客原因退货需要承担来回运费,如因产品质量问题(非破损问题)可在签收后,联系在线客服。
内容介绍
强化学习是机器学习的重要分支之一。《用Python动手学强化学习》结合实际可运行的Python代码,通过简明的文字、丰富的插图和示例,通俗易懂地介绍了从基础概念到前沿应用等方方面面的内容,包括根据环境和经验制订计划的学习方法、强化学习与神经网络的组合,以及强化学习的弱点和克服方法。读者通过下载书中代码并亲自动手运行,可以快速入门强化学习并进行实践。
目录
第 1章 了解强化学习 1
1.1 强化学习与各关键词之间的关系 1
1.2 强化学习的优点和弱点 8
1.3 强化学习的问题设定:马尔可夫决策过程 9
第 2章 强化学习的解法(1):根据环境制订计划 21
2.1 价值的定义和计算:贝尔曼方程 22
2.2 基于动态规划法的价值近似的学习:价值迭代 28
2.3 基于动态规划法的策略的学习:策略迭代 32
2.4 基于模型的方法和无模型的方法的区别 36
第3章 强化学习的解法(2):根据经验制订计划 39
3.1 平衡经验的积累与利用:Epsilon-Greedy 算法 41
3.2 是根据实际奖励还是预测来修正计划:蒙特卡洛方法和时序差分学习 46
3.3 用经验来更新价值近似还是策略:基于价值和基于策略 62
第4章 使用面向强化学习的神经网络 73
4.1 将神经网络应用于强化学习 74
4.2 通过含有参数的函数实现价值近似:价值函数近似 100
4.3 将深度学习应用于价值近似:DQN 109
4.4 通过含有参数的函数实现策略:策略梯度 121
4.5 将深度学习应用于策略:A2C 133
4.6 是价值近似还是策略呢 153
第5章 强化学习的弱点 157
5.1 获取样本的效率低 157
5.2 容易陷入局部*优行动和过拟合160
5.3 复现性差 163
5.4 以弱点为前提的对策 164
第6章 克服强化学习弱点的方法 169
6.1 应对采样效率低的方法:与基于模型的方法一起使用、表征学习 170
6.2 改善复现性的方法:进化策略 198
6.3 应对局部*优行动和过拟合的方法:模仿学习和逆强化学习 206
第7章 强化学习的应用领域 237
7.1 行动的*优化 239
7.2 学习的*优化 248
参考文献 252
作者介绍
[日]久保隆宏(作者) 任职于日本大型系统集成商TIS,具有丰富的机器学习研究和开发经验。论文共享网站站arXivTimes运营者,积**致力于技术普及,著有《TensorFlow应用指南》(合著)。 梁垿(译者) 硕士毕业于日本早稻田大学,研究方向为机器学习。目前在日本大型系统集成商TIS任自然语言处理工程师。热爱长跑与读书,喜欢科幻、蒸汽朋克、克苏鲁等题材的作品。 程引(译者) 工学博士学位,毕业于上海交通大学。目前在日本BizReach公司(Visional Group)AI部门任算法工程师。业务方向为推荐系统与自然语言处理,研究兴趣包括强化学习与自动控制。
1