返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 预售神经网络与深度学习 [美]查鲁·C. 阿加沃尔(Charu C. Aggarwal) 著 石川 杨成 译 译
  • 【预售】预计到货时间:2021年08月31日 新华书店正版
    • 作者: [美]查鲁·C. 阿加沃尔(Charu C. Aggarwal)著 | | 石川 杨成 译译
    • 出版社: 机械工业出版社
    • 出版时间:2021-08-01 00:00:00
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    文轩网图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

         https://product.suning.com/0070067633/11555288247.html

     

    商品参数
    • 作者: [美]查鲁·C. 阿加沃尔(Charu C. Aggarwal)著| 石川 杨成 译译
    • 出版社:机械工业出版社
    • 出版时间:2021-08-01 00:00:00
    • 版次:1
    • 印次:1
    • 印刷时间:2021-08-01
    • 字数:340
    • 页数:408
    • 开本:16开
    • 装帧:平装
    • ISBN:9787111686859
    • 国别/地区:中国
    • 版权提供:机械工业出版社

    神经网络与深度学习

    作  者:[美]查鲁·C. 阿加沃尔(Charu C. Aggarwal) 著 石川 杨成 译 译
    定  价:149
    出 版 社:机械工业出版社
    出版日期:2021年08月01日
    页  数:408
    装  帧:平装
    ISBN:9787111686859
    主编推荐

    内容简介

    本书涵盖了经典和现代的深度学习模型。章节分为三类:部分为神经网络的基础。许多传统的机器学习模型可以理解为神经网络的特殊情况。前两章的重点是理解传统机器学习和神经网络之间的关系。支持向量机、线性/逻辑回归、奇异值分解、矩阵分解和推荐系统都是神经网络的特例。本书将这些方法与特征工程方法如word2vec一起进行了研究。第2部分是神经网络的基本原理。训练和正则化的详细讨论在第3章和第4章提供。第5章和第6章介绍了径向基函数(RBF)网络和受限的玻尔兹曼机。第3部分是神经网络的不错主题:第7章和第8章讨论了循环神经网络和卷积神经网络。第9章和0章介绍了几个不错主题,如深度强化学习、神经图像机、Kohonen自组织映射和生成对抗网络。这本书是为研究生、研究人员和实践者编写的。大量的练习和一个解决方案手册,以帮助在课堂教学。在可能的情况下,突出显示以应用程序为中心的视图,以便提供对每一类技术的实际用途null

    作者简介

    精彩内容

    目录
    译者序前言致谢作者简介章神经网络概论111简介11.2神经网络的基本架构31.2.1单层计算网络:感知机31.2.2多层神经网络131.2.3多层网络即计算图151.3利用反向传播训练神经网络161.4神经网络训练中的实际问题191.4.1过拟合问题191.4.2梯度消失与梯度爆炸问题221.4.3收敛问题221.4.4局部最优和伪最优221.4.5计算上的挑战231.5复合函数的能力之谜231.5.1非线性激活函数的重要性251.5.2利用深度以减少参数261.5.3非常规网络架构271.6常见网络架构281.6.1浅层模型模拟基础机器学习方法281.6.2径向基函数网络291.6.3受限玻尔兹曼机291.6.4循环神经网络301.6.5卷积神经网络311.6.6层次特征工程与预训练模型321.7不错主题341.7.1强化学习341.7.2分离数据存储和计算341.7.3生成对抗网络351.8两个基准351.8.1MNIST手写数字数据库351.8.2ImageNet数据库361.9总结371.10参考资料说明371.101视频讲座381.102软件资源391.11练习39第2章基于浅层神经网络的机器学习412.1简介412.2二分类模型的神经架构422.2.1复习感知机422.2.2最小二乘回归442.2.3逻辑回归472.2.4支持向量机492.3多分类模型的神经架构502.3.1多分类感知机512.3.2WestonWatkins支持向量机522.3.3多重逻辑回归(softmax分类器)532.3.4应用于多分类的分层softmax542.4反向传播可以用于特征选择和神经网络的可解释性542.5使用自编码器进行矩阵分解552.5.1自编码器的基本原则552.5.2非线性激活函数592.5.3深度自编码器602.5.4应用于离群点检测622.5.5当隐藏层比输入层维数高时632.5.6其他应用632.5.7推荐系统:行索引到行值的预测652.5.8讨论672.6word2vec:简单神经架构的应用672.6.1连续词袋的神经嵌入682.6.2skipgram模型的神经嵌入702.6.3word2vec(SGNS)是逻辑矩阵分解742.6.4原始skipgram模型是多项式矩阵分解762.7图嵌入的简单神经架构762.7.1处理任意数量的边782.7.2多项式模型782.7.3与DeepWalk和node2vec的联系782.8总结782.9参考资料说明792.10练习80第3章深度神经网络的训练823.1简介823.2反向传播的详细讨论833.2.1计算图抽象中的反向传播833.2.2前来拯救的动态规划873.2.3使用激活后变量的反向传播883.2.4使用激活前变量的反向传播893.2.5不同激活函数的更新示例913.2.6以向量为中心的反向传播的解耦视图923.2.7多输出节点及隐藏节点下的损失函数943.2.8小批量随机梯度下降953.2.9用于解决共享权重的反向传播技巧963.2.10检查梯度计算的正确性973.3设置和初始化问题983.3.1调整超参数983.3.2特征预处理993.3.3初始化1003.4梯度消失和梯度爆炸问题1013.4.1对梯度比例影响的几何理解1023.4.2部分解决:激活函数的选择1033.4.3死亡神经元和“脑损伤”1043.5梯度下降策略1053.5.1学习率衰减1053.5.2基于动量的学习1063.5.3参数特异的学习率1083.5.4悬崖和高阶不稳定性1113.5.5梯度截断1123.5.6二阶导数1123.5.7Polyak平均1183.5.8局部极小值和伪极小值1193.6批归一化1203.7加速与压缩的实用技巧1233.7.1GPU加速1233.7.2并行和分布式实现1253.7.3模型压缩的算法技巧1263.8总结1283.9参考资料说明1283.10练习130第4章让深度学习器学会泛化1324.1简介1324.2偏差方差权衡1354.3模型调优和评估中的泛化问题1384.3.1用留出法和交叉验证法进行评估1394.3.2大规模训练中的问题1404.3.3如何检测需要收集更多的数据1414.4基于惩罚的正则化1414.4.1与注入噪声的联系1424.4.2L1正则化1434.4.3选择L1正则化还是L2正则化1434.4.4对隐藏单元进行惩罚:学习稀疏表示1444.5集成方法1454.5.1装袋和下采样1454.5.2参数模型选择和平均1464.5.3随机连接删除1464.5.4Dropout1474.5.5数据扰动集成1494.6早停1494.7无监督预训练1504.7.1无监督预训练的变体1534.7.2如何进行监督预训练1544.8继续学习与课程学习1544.8.1继续学习1554.8.2课程学习1564.9共享参数1564.10无监督应用中的正则化1574.101基于值的惩罚:稀疏自编码器1574.102噪声注入:去噪自编码器1574.103基于梯度的惩罚:收缩自编码器1584.104隐藏层概率结构:变分自编码器1614.11总结1664.12参考资料说明1664.13练习168第5章径向基函数网络1695.1简介1695.2RBF网络的训练1715.2.1训练隐藏层171

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购