返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • [正版]机器学习公式详解 第2二版 周志华“西瓜书”《机器学习》伴侣书南瓜书新版深度强化学习人工智能入门chatgpt零
  • 正版图书 品质保障
    • 作者: 谢文睿,秦州,贾彬彬著
    • 出版社: 人民邮电出版社
    • 出版时间:2023-06
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    友一个图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品参数
    • 作者: 谢文睿,秦州,贾彬彬著
    • 出版社:人民邮电出版社
    • 出版时间:2023-06
    • ISBN:9784783584888
    • 版权提供:人民邮电出版社

             店铺公告

      为保障消费者合理购买需求及公平交易机会,避免因非生活消费目的的购买货囤积商品,抬价转售等违法行为发生,店铺有权对异常订单不发货且不进行赔付。异常订单:包括但不限于相同用户ID批量下单,同一用户(指不同用户ID,存在相同/临近/虚构收货地址,或相同联系号码,收件人,同账户付款人等情形的)批量下单(一次性大于5本),以及其他非消费目的的交易订单。

    温馨提示:请务必当着快递员面开箱验货,如发现破损,请立即拍照拒收,如验货有问题请及时联系在线客服处理,(如开箱验货时发现破损,所产生运费由我司承担,一经签收即为货物完好,如果您未开箱验货,一切损失就需要由买家承担,所以请买家一定要仔细验货),

    关于退货运费:对于下单后且物流已发货货品在途的状态下,原则上均不接受退货申请,如顾客原因退货需要承担来回运费,如因产品质量问题(非破损问题)可在签收后,联系在线客服。

      本店存在书、古旧书、收藏书、二手书等特殊商品,因受采购成本限制,可能高于定价销售,明码标价,介意者勿拍!

    1.书籍因稀缺可能导致售价高于定价,图书实际定价参见下方详情内基本信息,请买家看清楚且明确后再拍,避免价格争议!

    2.店铺无纸质均开具电子,请联系客服开具电子版

     





    基本信息(以实物为准)
    商品名称:机器学习公式详解第2版开本:
    作者:谢文睿,秦州,贾彬彬页数:
    定价:89.8出版时间:2023-06-01
    ISBN号:9787115615725 商品类型:图书
    出版社:人民邮电版次:2
    作者简介:
    谢文睿北京工业大学硕士,Datawhale开源项目负责人,百度算法工程师,研究方向为机器学习与自然语言处理。
        秦州康奈尔大学计算机硕士,Datawhale成员,阿里巴巴算法专家,研究方向为图计算与自然语言处理, 在NeurIPS、AAAI、CIKM等会议上录用多篇学术论文并获得CIKM 2019 应用论文奖。
        贾彬彬工学博士,兰州理工大学讲师,研究方向为机器学习与数据挖掘,在TKDE、TNNLS、PRJ、ICML、AAAI等期刊和会议上共发表学术论文十余篇,并担任ICML、NeurIPS、ICLR、AAAI、IJCAI 等会议的程序委员会委员(PC Member)。
    内容提要:
    周志华老师的《机器学习》(俗称“西瓜书”)是机器学习领域的经典入门教材之一。本书是《机器学习公式详解》(俗称“南瓜书”)的第2 版。相较于 版,本书对“西瓜书”中除了公式以外的重、难点内容加以解析,以过来人视角给出学习建议,旨在对比较难理解的公式和重点内容扩充具体的例子说明,以及对跳步过大的公式补充具体的推导细节。
        全书共16 章,与“西瓜书”章节、公式对应,每个公式的推导和解释都以本科数学基础的视角进行讲解,希望能够帮助读者快速掌握各个机器学习算法背后的数学原理。
        本书思路清晰,视角独特,结构合理,可作为高等院校计算机及相关专业的本科生或研究生教材,也可供对机器学习感兴趣的研究人员和工程技术人员阅读参考

    ......

    目录:
    序(王斌 小米AI 实验室主任、NLP 首席科学家)
    前言
    主要符号表
    资源与支持
    第 1 章 绪论 1
    1.1 引言 1
    1.2 基本术语 1
    1.3 假设空间 5
    1.4 归纳偏好 5
    1.4.1 式(1.1) 和式(1.2) 的解释 6
    第 2 章 模型评估与选择 8
    2.1 经验误差与过拟合 8
    2.2 评估方法 9
    2.2.1 算法参数(超参数)与模型参数 10
    2.2.2 验证集 10
    2.3 性能度量 11
    2.3.1 式(2.2) ~ 式(2.7) 的解释 11
    2.3.2 式(2.8) 和式(2.9) 的解释 11
    2.3.3 图2.3 的解释 11
    2.3.4 式(2.10) 的推导 11
    2.3.5 式(2.11) 的解释 12
    2.3.6 式(2.12) ~ 式(2.17) 的解释 13
    2.3.7 式(2.18) 和式(2.19) 的解释 13
    2.3.8 式(2.20) 的推导 14
    2.3.9 式(2.21) 和式(2.22) 的推导 16
    2.3.10 式(2.23) 的解释 18
    2.3.11 式(2.24) 的解释 19
    2.3.12 式(2.25) 的解释 20
    2.4 比较检验 22
    2.4.1 式(2.26) 的解释 22
    2.4.2 式(2.27) 的推导 23
    2.5 偏差与方差 26
    2.5.1 式(2.37) ~ 式(2.42) 的推导 26
    参考文献 29
    第3 章 线性模型 30
    3.1 基本形式 30
    3.2 线性回归 30
    3.2.1 属性数值化 30
    3.2.2 式(3.4) 的解释 31
    3.2.3 式(3.5) 的推导 32
    3.2.4 式(3.6) 的推导 32
    3.2.5 式(3.7) 的推导 33
    3.2.6 式(3.9) 的推导 35
    3.2.7 式(3.10) 的推导 36
    3.2.8 式(3.11) 的推导 36
    3.3 对率回归 39
    3.3.1 式(3.27) 的推导 39
    3.3.2 梯度下降法 41
    3.3.3 牛顿法 42
    3.3.4 式(3.29) 的解释 44
    3.3.5 式(3.30) 的推导 44
    3.3.6 式(3.31) 的推导 45
    3.4 线性判别分析 46
    3.4.1 式(3.32) 的推导 46
    3.4.2 式(3.37) ~ 式(3.39) 的推导 47
    3.4.3 式(3.43) 的推导 48
    3.4.4 式(3.44) 的推导 48
    3.4.5 式(3.45) 的推导 49
    3.5 多分类学习 52
    3.5.1 图3.5 的解释 52
    3.6 类别不平衡问题 52
    参考文献 52
    第4 章 决策树 53
    4.1 基本流程 53
    4.2 划分选择 54
    4.2.1 式(4.1) 的解释 54
    4.2.2 式(4.2) 的解释 58
    4.2.3 式(4.4) 的解释 58
    4.2.4 式(4.5) 的推导 59
    4.2.5 式(4.6) 的解释 59
    4.3 剪枝处理 62
    4.4 连续值与缺失值 63
    4.4.1 式(4.7) 的解释 63
    4.4.2 式(4.8) 的解释 64
    4.4.3 式(4.12) 的解释 64
    4.5 多变量决策树 64
    4.5.1 图4.10 的解释 65
    4.5.2 图4.11 的解释 65
    参考文献 66
    第5 章 神经网络 67
    5.1 神经元模型 67
    5.2 感知机与多层网络 67
    5.2.1 式(5.1) 和式(5.2) 的推导 67
    5.2.2 图5.5 的解释 70
    5.3 误差逆传播算法 70
    5.3.1 式(5.10) 的推导 70
    5.3.2 式(5.12) 的推导 70
    5.3.3 式(5.13) 的推导 71
    5.3.4 式(5.14) 的推导 72
    5.3.5 式(5.15) 的推导 73
    5.4 全局 小与局部极小 73
    5.5 其他常见神经网络 73
    5.5.1 式(5.18) 的解释 73
    5.5.2 式(5.20) 的解释 73
    5.5.3 式(5.22) 的解释 74
    5.5.4 式(5.23) 的解释 74
    5.6 深度学习 74
    5.6.1 什么是深度学习 75
    5.6.2 深度学习的起源 75
    5.6.3 怎么理解特征学习 75
    参考文献 75
    第6 章 支持向量机 77
    6.1 间隔与支持向量 77
    6.1.1 图6.1 的解释 77
    6.1.2 式(6.1) 的解释 77
    6.1.3 式(6.2) 的推导 78
    6.1.4 式(6.3) 的推导 78
    6.1.5 式(6.4) 的推导 80
    6.1.6 式(6.5) 的解释 80
    6.2 对偶问题 80
    6.2.1 凸优化问题 80
    6.2.2 KKT 条件 80
    6.2.3 拉格朗日对偶函数 81
    6.2.4 拉格朗日对偶问题 82
    6.2.5 式(6.9) 和式(6.10) 的推导 85
    6.2.6 式(6.11) 的推导 85
    6.2.7 式(6.13) 的解释 86
    6.3 核函数 87
    6.3.1 式(6.22) 的解释 87
    6.4 软间隔与正则化 87
    6.4.1 式(6.35) 的推导 87
    6.4.2 式(6.37) 和式(6.38) 的推导 87
    6.4.3 式(6.39) 的推导 87
    6.4.4 式(6.40) 的推导 88
    6.4.5 对率回归与支持向量机的关系 88
    6.4.6 式(6.41) 的解释 89
    6.5 支持向量回归 89
    6.5.1 式(6.43) 的解释 89
    6.5.2 式(6.45) 的推导 90
    6.5.3 式(6.52) 的推导 91
    6.6 核方法 92
    6.6.1 式(6.57) 和式(6.58) 的解释 92
    6.6.2 式(6.65) 的推导 92
    6.6.3 式(6.66) 和式(6.67) 的解释 93
    6.6.4 式(6.70) 的推导 94
    6.6.5 核对率回归 98
    参考文献 99
    第7 章 贝叶斯分类器 100
    7.1 贝叶斯决策论 100
    7.1.1 式(7.5) 的推导 100
    7.1.2 式(7.6) 的推导 100
    7.1.3 判别式模型与生成式模型 100
    7.2 极大似然估计 101
    7.2.1 式(7.12) 和式(7.13) 的推导 101
    7.3 朴素贝叶斯分类器 104
    7.3.1 式(7.16) 和式(7.17) 的解释 104
    7.3.2 式(7.18) 的解释 104
    7.3.3 贝叶斯估计 105
    7.3.4 Categorical 分布 105
    7.3.5 Dirichlet 分布 106
    7.3.6 式(7.19) 和式(7.20) 的推导 106
    7.4 半朴素贝叶斯分类器 110
    7.4.1 式(7.21) 的解释 110
    7.4.2 式(7.22) 的解释 111
    7.4.3 式(7.23) 的推导 111
    7.4.4 式(7.24) 和式(7.25) 的推导 112
    7.5 贝叶斯网 112
    7.5.1 式(7.27) 的解释 112
    7.6 EM 算法 113
    7.6.1 Jensen 不等式 113
    7.6.2 EM 算法的推导 113
    参考文献 121
    第8 章 集成学习 122
    8.1 个体与集成 123
    8.1.1 式(8.1) 的解释 123
    8.1.2 式(8.2) 的解释 123
    8.1.3 式(8.3) 的推导 123
    8.2 Boosting 124
    8.2.1 式(8.4) 的解释 125
    8.2.2 式(8.5) 的解释 125
    8.2.3 式(8.6) 的推导 126
    8.2.4 式(8.7) 的推导 126
    8.2.5 式(8.8) 的推导 127
    8.2.6 式(8.9) 的推导 127
    8.2.7 式(8.10) 的解释 128
    8.2.8 式(8.11) 的推导 128
    8.2.9 式(8.12) 的解释 129
    8.2.10 式(8.13) 的推导 129
    8.2.11 式(8.14) 的推导 130
    8.2.12 式(8.16) 的推导 131
    8.2.13 式(8.17) 的推导 131
    8.2.14 式(8.18) 的推导 132
    8.2.15 式(8.19) 的推导 132
    8.2.16 AdaBoost 的个人推导 133
    8.2.17 进一步理解权重 新公式 137
    8.2.18 能够接受带权样本的基学习算法 139
    8.3 Bagging 与随机森林 140
    8.3.1 式(8.20) 的解释 140
    8.3.2 式(8.21) 的推导 140
    8.3.3 随机森林的解释 141
    8.4 结合策略 141
    8.4.1 式(8.22) 的解释 141
    8.4.2 式(8.23) 的解释 141
    8.4.3 硬投票和软投票的解释 141
    8.4.4 式(8.24) 的解释 142
    8.4.5 式(8.25) 的解释 142
    8.4.6 式(8.26) 的解释 142
    8.4.7 元学习器的解释 142
    8.4.8 Stacking 算法的解释 143
    8.5 多样性 143
    8.5.1 式(8.27) 的解释 143
    8.5.2 式(8.28) 的解释 143
    8.5.3 式(8.29) 的解释 143
    8.5.4 式(8.30) 的解释 144
    8.5.5 式(8.31) 的推导 144
    8.5.6 式(8.32) 的解释 144
    8.5.7 式(8.33) 的解释 145
    8.5.8 式(8.34) 的解释 145
    8.5.9 式(8.35) 的解释 145
    8.5.10 式(8.36) 的解释 145
    8.5.11 式(8.40) 的解释 145
    8.5.12 式(8.41) 的解释 146
    8.5.13 式(8.42) 的解释 146
    8.5.14 多样性增强的解释 146
    8.6 Gradient Boosting、GBDT、XGBoost的联系与区别 147
    8.6.1 从梯度下降的角度解释AdaBoost 147
    8.6.2 梯度提升 149
    8.6.3 梯度提升树(GBDT) 151
    8.6.4 XGBoost 152
    参考文献 152
    第9 章 聚类 153
    9.1 聚类任务 153
    9.2 性能度量 153
    9.2.1 式(9.5) 的解释 153
    9.2.2 式(9.6) 的解释 155
    9.2.3 式(9.7) 的解释 155
    9.2.4 式(9.8) 的解释 156
    9.2.5 式(9.12) 的解释 156
    9.3 距离计算 156
    9.3.1 式(9.21) 的解释 156
    9.4 原型聚类 157
    9.4.1 式(9.28) 的解释 157
    9.4.2 式(9.29) 的解释 157
    9.4.3 式(9.30) 的解释 158
    9.4.4 式(9.31) 的解释 159
    9.4.5 式(9.32) 的解释 159
    9.4.6 式(9.33) 的推导 160
    9.4.7 式(9.34) 的推导 161
    9.4.8 式(9.35) 的推导 162
    9.4.9 式(9.36) 的解释 164
    9.4.10 式(9.37) 的推导 164
    9.4.11 式(9.38) 的推导 165
    9.4.12 图9.6 的解释 166
    9.5 密度聚类 166
    9.5.1 密度直达、密度可达与密度相连 167
    9.5.2 图9.9 的解释 168
    9.6 层次聚类 168
    第 10 章 降维与度量学习 170
    10.1 预备知识 170
    10.1.1 符号约定 170
    10.1.2 矩阵与单位阵、向量的乘法 170
    10.2 矩阵的F 范数与迹 171
    10.3 k 近邻学习 173
    10.3.1 式(10.1) 的解释 173
    10.3.2 式(10.2) 的推导 174
    10.4 低维嵌入 175
    10.4.1 图10.2 的解释 175
    10.4.2 式(10.3) 的推导 175
    10.4.3 式(10.4) 的推导 176
    10.4.4 式(10.5) 的推导 177
    10.4.5 式(10.6) 的推导 177
    10.4.6 式(10.10) 的推导 178
    10.4.7 式(10.11) 的解释 179
    10.4.8 图10.3 关于MDS 算法的解释 179
    10.5 主成分分析 180
    10.5.1 式(10.14) 的推导 180
    10.5.2 式(10.16) 的解释 184
    10.5.3 式(10.17) 的推导 186
    10.5.4 根据式(10.17) 求解式(10.16) 188
    10.6 核化线性降维 188
    10.6.1 式(10.19) 的解释 189
    10.6.2 式(10.20) 的解释 189
    10.6.3 式(10.21) 的解释 190
    10.6.4 式(10.22) 的解释 190
    10.6.5 式(10.24) 的推导 190
    10.6.6 式(10.25) 的解释 191
    10.7 流形学习 191
    10.7.1 等度量映射(Isomap) 的解释 191
    10.7.2 式(10.28) 的推导 192
    10.7.3 式(10.31) 的推导 194
    10.8 度量学习 196
    10.8.1 式(10.34) 的解释 196
    10.8.2 式(10.35) 的解释 197
    10.8.3 式(10.36) 的解释 197
    10.8.4 式(10.37) 的解释 198
    10.8.5 式(10.38) 的解释 198
    10.8.6 式(10.39) 的解释 198
    参考文献 199
    第 11 章 特征选择与稀疏学习 200
    11.1 子集搜索与评价 200
    11.1.1 式(11.1) 的解释 200
    11.1.2 式(11.2) 的解释 200
    11.2 过滤式选择 201
    11.3 包裹式选择 201
    11.4 嵌入式选择与L1 正则化 202
    11.4.1 式(11.5) 的解释 202
    11.4.2 式(11.6) 的解释 202
    11.4.3 式(11.7) 的解释 203
    11.4.4 式(11.8) 的解释 203
    11.4.5 式(11.9) 的解释 203
    11.4.6 式(11.10) 的推导 203
    11.4.7 式(11.11) 的解释 205
    11.4.8 式(11.12) 的解释 205
    11.4.9 式(11.13) 的解释 205
    11.4.10 式(11.14) 的推导 205
    11.5 稀疏表示与字典学习 208
    11.5.1 式(11.15) 的解释 208
    11.5.2 式(11.16) 的解释 208
    11.5.3 式(11.17) 的推导 208
    11.5.4 式(11.18) 的推导 208
    11.6 压缩感知 213
    11.6.1 式(11.21) 的解释 213
    11.6.2 式(11.25) 的解释 213
    参考文献 214
    第 12 章 计算学习理论 215
    12.1 基础知识 215
    12.1.1 式(12.1) 的解释 216
    12.1.2 式(12.2) 的解释 216
    12.1.3 式(12.3) 的解释 216
    12.1.4 式(12.4) 的解释 216
    12.1.5 式(12.5) 和式(12.6) 的解释 216
    12.1.6 式(12.7) 的解释 217
    12.2 PAC 学习 217
    12.2.1 式(12.9) 的解释 218
    12.3 有限假设空间 218
    12.3.1 式(12.10) 的解释 219
    12.3.2 式(12.11) 的解释 219
    12.3.3 式(12.12) 的推导 219
    12.3.4 式(12.13) 的解释 220
    12.3.5 式(12.14) 的推导 220
    12.3.6 引理12.1 的解释 221
    12.3.7 式(12.18) 的推导 221
    12.3.8 式(12.19) 的推导 221
    12.3.9 式(12.20) 的解释 222
    12.4 VC 维 223
    12.4.1 式(12.21) 的解释 223
    12.4.2 式(12.22) 的解释 223
    12.4.3 式(12.23) 的解释 224
    12.4.4 引理12.2 的解释 224
    12.4.5 式(12.28) 的解释 226
    12.4.6 式(12.29) 的解释 227
    12.4.7 式(12.30) 的解释 227
    12.4.8 定理12.4 的解释 228
    12.5 Rademacher 复杂度 229
    12.5.1 式(12.36) 的解释 229
    12.5.2 式(12.37) 的解释 229
    12.5.3 式(12.38) 的解释 230
    12.5.4 式(12.39) 的解释 230
    12.5.5 式(12.40) 的解释 231
    12.5.6 式(12.41) 的解释 231
    12.5.7 定理12.5 的解释 231
    12.6 定理12.6 的解释 233
    12.6.1 式(12.52) 的证明 235
    12.6.2 式(12.53) 的推导 235
    12.7 稳定性 235
    12.7.1 泛化损失/经验损失/留一损失的解释 236
    12.7.2 式(12.57) 的解释 236
    12.7.3 定理12.8 的解释 236
    12.7.4 式(12.60) 的推导 237
    12.7.5 经验损失 小化 237
    12.7.6 定理12.9 的证明的解释 237
    参考文献 238
    第 13 章 半监督学习 240
    13.1 未标记样本 240
    13.2 生成式方法 240
    13.2.1 式(13.1) 的解释 241
    13.2.2 式(13.2) 的推导 241
    13.2.3 式(13.3) 的推导 242
    13.2.4 式(13.4) 的推导 242
    13.2.5 式(13.5) 的解释 242
    13.2.6 式(13.6) 的解释 243
    13.2.7 式(13.7) 的解释 244
    13.2.8 式(13.8) 的解释 246
    13.3 半监督SVM 248
    13.3.1 图13.3 的解释 248
    13.3.2 式(13.9) 的解释 248
    13.3.3 图13.4 的解释 248
    13.3.4 式(13.10) 的解释 250
    13.4 图半监督学习 250
    13.4.1 式(13.12) 的推导 251
    13.4.2 式(13.13) 的推导 252
    13.4.3 式(13.14) 的推导 253
    13.4.4 式(13.15) 的推导 253
    13.4.5 式(13.16) 的解释 254
    13.4.6 式(13.17) 的推导 254
    13.4.7 式(13.18) 的解释 254
    13.4.8 式(13.20) 的解释 254
    13.4.9 式(13.21) 的推导 255
    13.5 基于分歧的方法 259
    13.5.1 图13.6 的解释 259
    13.6 半监督聚类 260
    13.6.1 图13.7 的解释 260
    13.6.2 图13.9 的解释 260
    参考文献 260
    第 14 章 概率图模型 261
    14.1 隐马尔可夫模型 261
    14.1.1 生成式模型和判别式模型 261
    14.1.2 式(14.1) 的推导 262
    14.1.3 隐马尔可夫模型的三组参数 263
    14.2 马尔可夫随机场 263
    14.2.1 式(14.2) 和式(14.3) 的解释 263
    14.2.2 式(14.4) ~ 式(14.7) 的推导 264
    14.2.3 马尔可夫毯 264
    14.2.4 势函数 265
    14.2.5 式(14.8) 的解释 265
    14.2.6 式(14.9) 的解释 265
    14.3 条件随机场 265
    14.3.1 式(14.10) 的解释 265
    14.3.2 式(14.11) 的解释 266
    14.4 学习与推断 266
    14.4.1 式(14.14) 的推导 266
    14.4.2 式(14.15) 和式(14.16) 的推导 266
    14.4.3 式(14.17) 的解释 267
    14.4.4 式(14.18) 的推导 267
    14.4.5 式(14.19) 的解释 267
    14.4.6 式(14.20) 的解释 268
    14.4.7 式(14.22) 的推导 268
    14.4.8 图14.8 的解释 269
    14.5 近似推断 269
    14.5.1 式(14.21) ~ 式(14.25) 的解释 269
    14.5.2 式(14.26) 的解释 270
    14.5.3 式(14.27) 的解释 270
    14.5.4 式(14.28) 的推导 270
    14.5.5 吉布斯采样与MH 算法 271
    14.5.6 式(14.29) 的解释 272
    14.5.7 式(14.30) 的解释 272
    14.5.8 式(14.31) 的解释 273
    14.5.9 式(14.32) ~ 式(14.34) 的推导 273
    14.5.10 式(14.35) 的解释 274
    14.5.11 式(14.36) 的推导 274
    14.5.12 式(14.37) 和式(14.38) 的解释 276
    14.5.13 式(14.39) 的解释 277
    14.5.14 式(14.40) 的解释 277
    14.6 话题模型 278
    14.6.1 式(14.41) 的解释 278
    14.6.2 式(14.42) 的解释 279
    14.6.3 式(14.43) 的解释 279
    14.6.4 式(14.44) 的解释 279
    参考文献 279
    第 15 章 规则学习 280
    15.1 剪枝优化 280
    15.1.1 式(15.2) 和式(15.3) 的解释 280
    15.2 归纳逻辑程序设计 281
    15.2.1 式(15.6) 的解释 281
    15.2.2 式(15.7) 的推导 281
    15.2.3 式(15.9) 的推导 281
    15.2.4 式(15.10) 的解释 281
    15.2.5 式(15.11) 的解释 281
    15.2.6 式(15.12) 的解释 282
    15.2.7 式(15.13) 的解释 282
    15.2.8 式(15.16) 的推导 282
    第 16 章 强化学习 283
    16.1 任务与奖赏 283
    16.2 K-摇臂赌博机 283
    16.2.1 式(16.2) 和式(16.3) 的推导 283
    16.2.2 式(16.4) 的解释 283
    16.3 有模型学习 284
    16.3.1 式(16.7) 的解释 284
    16.3.2 式(16.8) 的推导 284
    16.3.3 式(16.10) 的推导 285
    16.3.4 式(16.14) 的解释 285
    16.3.5 式(16.15) 的解释 285
    16.3.6 式(16.16) 的推导 285
    16.4 免模型学习 286
    16.4.1 式(16.20) 的解释 286
    16.4.2 式(16.23) 的解释 286
    16.4.3 式(16.31) 的推导 286
    16.5 值函数近似 287
    16.5.1 式(16.33) 的解释 287
    16.5.2 式(16.34) 的推导 287
    参考文献 287

    ......

    精 彩 页:
    1
    • 商品详情
    • 内容简介

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购