返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 深度学习:从基础到实践(全2册) (美)安德鲁·格拉斯纳 著 罗家佳 译 专业科技 文轩网
  • 新华书店正版
    • 作者: 安德鲁·格拉斯纳(Andrew Glassner)著 | | 罗家佳译
    • 出版社: 人民邮电出版社
    • 出版时间:2022-12-01 00:00:00
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    文轩网图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

         https://product.suning.com/0070067633/11555288247.html

     

    商品参数
    • 作者: 安德鲁·格拉斯纳(Andrew Glassner)著| 罗家佳译
    • 出版社:人民邮电出版社
    • 出版时间:2022-12-01 00:00:00
    • 版次:1
    • 印次:1
    • 印刷时间:2022-12-01
    • 页数:824
    • 开本:16开
    • 装帧:平装
    • ISBN:9787115554512
    • 国别/地区:中国
    • 版权提供:人民邮电出版社

    深度学习:从基础到实践(全2册)

    作  者:(美)安德鲁·格拉斯纳 著 罗家佳 译
    定  价:199.8
    出 版 社:人民邮电出版社
    出版日期:2022年12月01日
    页  数:824
    装  帧:平装
    ISBN:9787115554512
    主编推荐

    1.“计算机图形研究领域最受尊敬的天才之一”Andrew Glassner编写。 2. 基本概念+理论,不涉及复杂的数学内容。 3. 近千张图和简单的例子,由浅入深地讲解深度学习的相关知识。

    内容简介

    本书从基本概念和理论入手,通过近千张图和简单的例子由浅入深地讲解深度学习的相关知识,且不涉及复杂的数学内容。
    本书分为上下两册。上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、反向传播等内容。下册介绍机器学习的scikit-learn库和深度学习的Keras库(这两种库均基于Python语言),以及卷积神经网络、循环神经网络、自编码器、强化学习、生成对抗网络等内容,还介绍了一些创造性应用,并给出了一些典型的数据集,以帮助读者更好地了解学习。
    本书适合想要了解和使用深度学习的人阅读,也可作为深度学习教学培训领域的入门级参考用书。

    作者简介

    Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。”

    精彩内容

    目录
    《深度学习:从基础到实践.上册》
    第1章机器学习与深度学习入门1
    1.1为什么这一章出现在这里1
    1.1.1从数据中提取含义1
    1.1.2专家系统3
    1.2从标记数据中学习4
    1.2.1一种学习策略5
    1.2.2一种计算机化的学习策略6
    1.2.3泛化8
    1.2.4让我们仔细看看学习过程9
    1.3监督学习10
    1.3.1分类10
    1.3.2回归11
    1.4无监督学习12
    1.4.1聚类13
    1.4.2降噪13
    1.4.3降维14
    1.5生成器16
    1.6强化学习18
    1.7深度学习19
    1.8接下来会讲什么22
    参考资料22
    第2章随机性与基础统计学24
    2.1为什么这一章出现在这里24
    2.2随机变量24
    2.3一些常见的分布29
    2.3.1均匀分布30
    2.3.2正态分布31
    2.3.3伯努利分布34
    2.3.4多项式分布34
    2.3.5期望值35
    2.4独立性35
    2.5抽样与放回36
    2.5.1有放回抽样36
    2.5.2无放回抽样37
    2.5.3做选择38
    2.6Bootstrapping算法38
    2.7高维空间41
    2.8协方差和相关性43
    2.8.1协方差43
    2.8.2相关性44
    2.9Anscombe四重奏47
    参考资料48
    第3章概率50
    3.1为什么这一章出现在这里50
    3.2飞镖游戏50
    3.3初级概率学52
    3.4条件概率52
    3.5联合概率55
    3.6边际概率57
    3.7测量的正确性58
    3.7.1样本分类58
    3.7.2混淆矩阵60
    3.7.3混淆矩阵的解释62
    3.7.4允许错误分类64
    3.7.5准确率65
    3.7.6精度66
    3.7.7召回率67
    3.7.8关于精度和召回率68
    3.7.9其他方法69
    3.7.10同时使用精度和召回率71
    3.7.11f1分数72
    3.8混淆矩阵的应用73
    参考资料77
    第4章贝叶斯定理78
    4.1为什么这一章出现在这里78
    4.2频率论者法则以及贝叶斯法则78
    4.2.1频率论者法则79
    4.2.2贝叶斯法则79
    4.2.3讨论79
    4.3抛硬币80
    4.4这枚硬币公平吗81
    4.4.1贝叶斯定理86
    4.4.2贝叶斯定理的注意事项87
    4.5生活中的贝叶斯定理89
    4.6重复贝叶斯定理91
    4.6.1后验-先验循环92
    4.6.2例子:挑到的是哪种硬币93
    4.7多个假设97
    参考资料101
    第5章曲线和曲面102
    5.1为什么这一章出现在这里102
    5.2引言102
    5.3导数103
    5.4梯度108
    参考资料112
    第6章信息论113
    6.1为什么这一章出现在这里113
    6.2意外程度与语境113
    6.2.1意外程度114
    6.2.2语境114
    6.3用比特作为单位115
    6.4衡量信息116
    6.5事件的大小117
    6.6自适应编码117
    6.7熵122
    6.8交叉熵123
    6.8.1两种自适应编码123
    6.8.2混合编码125
    6.9KL散度127
    参考资料128
    第7章分类130
    7.1为什么这一章出现在这里130
    7.2二维分类130
    7.3二维多分类134
    7.4多维二元分类135
    7.4.1one-versus-rest135
    7.4.2one-versus-one136
    7.5聚类138
    7.6维度灾难141
    参考资料149
    第8章训练与测试150
    8.1为什么这一章出现在这里150
    8.2训练150
    8.3测试数据153
    8.4验证数据156
    8.5交叉验证157
    8.6对测试结果的利用160
    参考资料161
    第9章过拟合与欠拟合162
    9.1为什么这一章出现在这里162
    9.2过拟合与欠拟合162
    9.2.1过拟合162
    9.2.2欠拟合164
    9.3过拟合数据164
    9.4及早停止167
    9.5正则化168
    9.6偏差与方差169
    9.6.1匹配潜在数据170
    9.6.2高偏差,低方差172
    9.6.3低偏差,高方差173
    9.6.4比较这些曲线173
    9.7用贝叶斯法则进行线拟合175
    参考资料179
    第10章神经元181
    10.1为什么这一章出现在这里181
    10.2真实神经元181
    10.3人工神经元182
    10.3.1感知机183
    10.3.2感知机的历史183
    10.3.3现代人工神经元184
    10.4小结188
    参考资料188
    第11章学习与推理190
    11.1为什么这一章出现在这里190
    11.2学习的步骤190
    11.2.1表示190
    11.2.2评估192
    11.2.3优化193
    11.3演绎和归纳193
    11.4演绎194
    11.5归纳199
    11.5.1机器学习中的归纳术语201
    11.5.2归纳谬误202
    11.6组合推理203
    11.7操作条件204
    参考资料206
    第12章数据准备208
    12.1为什么这一章出现在这里208
    12.2数据变换208
    12.3数据类型210
    12.4数据清理基础212
    12.4.1数据清理212
    12.4.2现实中的数据清理213
    12.5归一化和标准化213
    12.5.1归一化213
    12.5.2标准化214
    12.5.3保存数据的转换方式215
    12.5.4转换方式216
    12.6特征选择217
    12.7降维217
    12.7.1主成分分析217
    12.7.2图像的标准化和PCA222
    12.8转换226
    12.9切片处理229
    12.9.1逐样本处理230
    12.9.2逐特征处理230
    12.9.3逐元素处理231
    12.10交叉验证转换232
    参考资料234
    第13章分类器236
    13.1为什么这一章出现在这里236
    13.2分类器的种类236
    13.3k近邻法237
    13.4支持向量机241
    13.5决策树247
    13.5.1构建决策树250
    13.5.2分离节点253
    13.5.3控制过拟合255
    13.6朴素贝叶斯255
    13.7讨论259
    参考资料260
    第14章集成算法261
    14.1为什么这一章出现在这里261
    14.2集成方法261
    14.3投票262
    14.4套袋算法262
    14.5随机森林264
    14.6特别随机树265
    14.7增强算法265
    参考资料270
    第15章scikit-learn272
    15.1为什么这一章出现在这里272
    15.2介绍273
    15.3Python约定273
    15.4估算器276
    15.4.1创建276
    15.4.2学习fit()用法277
    15.4.3用predict()预测278
    15.4.4decision_function(),predict_proba()279
    15.5聚类279
    15.6变换282
    15.7数据精化286
    15.8集成器288
    15.9自动化290
    15.9.1交叉验证290
    15.9.2超参数搜索292
    15.9.3枚举型网格搜索294
    15.9.4随机型网格搜索300
    15.9.5pipeline300
    15.9.6决策边界307
    15.9.7流水线式变换308
    15.10数据集309
    15.11实用工具311
    15.12结束语312
    参考资料312
    第16章前馈网络314
    16.1为什么这一章出现在这里314
    16.2神经网络图314
    16.3同步与异步流316
    16.4权重初始化317
    参考资料320
    第17章激活函数321
    17.1为什么这一章出现在这里321
    17.2激活函数可以做什么321
    17.3基本的激活函数324
    17.3.1线性函数324
    17.3.2阶梯状函数325
    17.4阶跃函数325
    17.5分段线性函数327
    17.6光滑函数329
    17.7激活函数画廊333
    17.8归一化指数函数333
    参考资料335
    第18章反向传播336
    18.1为什么这一章出现在这里336
    18.2一种非常慢的学习方式337
    18.2.1缓慢的学习方式339
    18.2.2更快的学习方式340
    18.3现在没有激活函数341
    18.4神经元输出和网络误差342
    18.5微小的神经网络345
    18.6第1步:输出神经元的delta347
    18.7第2步:使用delta改变权重353
    18.8第3步:其他神经元的delta356
    18.9实际应用中的反向传播359
    18.10使用激活函数363
    18.11学习率367
    18.12讨论374
    18.12.1在一个地方的反向传播374
    18.12.2反向传播不做什么374
    18.12.3反向传播做什么375
    18.12.4保持神经元快乐375
    18.12.5小批量377
    18.12.6并行更新378
    18.12.7为什么反向传播很有吸引力378
    18.12.8反向传播并不是有保证的379
    18.12.9一点历史379
    18.12.10深入研究数学380
    参考资料381
    第19章优化器383
    19.1为什么这一章出现在这里383
    19.2几何误差383
    19.2.1最小值、优选值、平台和鞍部383
    19.2.2作为二维曲线的误差386
    19.3调整学习率388
    19.3.1固定大小的更新388
    19.3.2随时间改变学习率394
    19.3.3衰减规划396
    19.4更新策略398
    19.4.1批梯度下降398
    19.4.2随机梯度下降400
    19.4.3minibatch梯度下降401
    19.5梯度下降变体403
    19.5.1动量403
    19.5.2Nesterov动量408
    19.5.3Adagrad410
    19.5.4Adadelta和RMSprop411
    19.5.5Adam413
    19.6优化器选择414
    参考资料415
    《深度学习:从基础到实践.下册》
    第20章深度学习417
    20.1为什么这一章出现在这里417
    20.2深度学习概述417
    20.3输入层和输出层419
    20.3.1输入层419
    20.3.2输出层420
    20.4深度学习层纵览420
    20.4.1全连接层421
    20.4.2激活函数421
    20.4.3dropout422
    20.4.4批归一化423
    20.4.5卷积层424
    20.4.6池化层425
    20.4.7循环层426
    20.4.8其他工具层427
    20.5层和图形符号总结428
    20.6一些例子429
    20.7构建一个深度学习器434
    20.8解释结果435
    参考资料440
    第21章卷积神经网络441
    21.1为什么这一章出现在这里441
    21.2介绍441
    21.2.1“深度”的两重含义442
    21.2.2放缩后的值之和443
    21.2.3权重共享445
    21.2.4局部感知域446
    21.2.5卷积核447
    21.3卷积447
    21.3.1过滤器450
    21.3.2复眼视图452
    21.3.3过滤器的层次结构453
    21.3.4填充458
    21.3.5步幅459
    21.4高维卷积462
    21.4.1具有多个通道的过滤器463
    21.4.2层次结构的步幅465
    21.5一维卷积466
    21.61×1卷积466
    21.7卷积层468
    21.8转置卷积469
    21.9卷积网络样例472
    21.9.1VGG16475
    21.9.2有关过滤器的其他内容:第1部分477
    21.9.3有关过滤器的其他内容:第2部分481
    21.10对手483
    参考资料485
    第22章循环神经网络488
    22.1为什么这一章出现在这里488
    22.2引言489
    22.3状态490
    22.4RNN单元的结构494
    22.4.1具有更多状态的单元496
    22.4.2状态值的解释498
    22.5组织输入498
    22.6训练RNN500
    22.7LSTM和GRU502
    22.7.1门503
    22.7.2LSTM505
    22.8RNN的结构508
    22.8.1单个或多个输入和输出508
    22.8.2深度RNN510
    22.8.3双向RNN511
    22.8.4深度双向RNN512
    22.9一个例子513
    参考资料517
    第23章Keras第1部分520
    23.1为什么这一章出现在这里520
    23.1.1本章结构520
    23.1.2笔记本521
    23.1.3Python警告521
    23.2库和调试521
    23.2.1版本和编程风格522
    23.2.2Python编程和调试522
    23.3概述523
    23.3.1什么是模型524
    23.3.2张量和数组524
    23.3.3设置Keras524
    23.3.4张量图像的形状525
    23.3.5GPU和其他加速器527
    23.4准备开始528
    23.5准备数据530
    23.5.1重塑530
    23.5.2加载数据536
    23.5.3查看数据537
    23.5.4训练-测试拆分541
    23.5.5修复数据类型541
    23.5.6归一化数据542
    23.5.7固定标签544
    23.5.8在同一个地方进行预处理547
    23.6制作模型548
    23.6.1将网格转换为列表548
    23.6.2创建模型550
    23.6.3编译模型554
    23.6.4模型创建摘要556
    23.7训练模型557
    23.8训练和使用模型559
    23.8.1查看输出560
    23.8.2预测562
    23.8.3训练历史分析566
    23.9保存和加载567
    23.9.1将所有内容保存在一个文件中567
    23.9.2仅保存权重568
    23.9.3仅保存架构568
    23.9.4使用预训练模型569
    23.9.5保存预处理步骤569
    23.10回调函数570
    23.10.1检查点570
    23.10.2学习率572
    23.10.3及早停止573
    参考资料575
    第24章Keras第2部分577
    24.1为什么这一章出现在这里577
    24.2改进模型577
    24.2.1超参数计数577
    24.2.2改变一个超参数578
    24.2.3其他改进方法580
    24.2.4再增加一个全连接层581
    24.2.5少即是多582
    24.2.6添加dropout584
    24.2.7观察587
    24.3使用scikit-learn588
    24.3.1Keras包装器588
    24.3.2交叉验证591
    24.3.3归一化交叉验证594
    24.3.4超参数搜索596
    24.4卷积网络602
    24.4.1工具层603
    24.4.2为CNN准备数据604
    24.4.3卷积层606
    24.4.4对MNIST使用卷积611
    24.4.5模式619
    24.4.6图像数据增强621
    24.4.7合成数据623
    24.4.8CNN的参数搜索624
    24.5RNN624
    24.5.1生成序列数据625
    24.5.2RNN数据准备627
    24.5.3创建并训练RNN631
    24.5.4分析RNN性能634
    24.5.5一个更复杂的数据集639
    24.5.6深度RNN641
    24.5.7更多数据的价值643
    24.5.8返回序列646
    24.5.9有状态的RNN649
    24.5.10时间分布层650
    24.5.11生成文本653
    24.6函数式API658
    24.6.1输入层659
    24.6.2制作函数式模型660
    参考资料664
    第25章自编码器665
    25.1为什么这一章出现在这里665
    25.2引言666
    25.2.1有损编码和无损编码666
    25.2.2区域编码667
    25.2.3混合展示669
    25.3最简单的自编码器671
    25.4更好的自编码器675
    25.5探索自编码器677
    25.5.1深入地观察隐藏变量677
    25.5.2参数空间679
    25.5.3混合隐藏变量683
    25.5.4对不同类型的输入进行预测684
    25.6讨论685
    25.7卷积自编码器685
    25.7.1混合卷积自编码器中的隐藏变量688
    25.7.2在CNN中对不同类型的输入进行预测689
    25.8降噪689
    25.9VAE691
    25.9.1隐藏变量的分布691
    25.9.2VAE的结构692
    25.10探索VAE697
    参考资料703
    第26章强化学习704
    26.1为什么这一章出现在这里704
    26.2目标704
    26.3强化学习的结构708
    26.3.1步骤1:智能体选择一个动作709
    26.3.2步骤2:环境做出响应710
    26.3.3步骤3:智能体进行自我更新711
    26.3.4简单版本的变体712
    26.3.5回到主体部分713
    26.3.6保存经验714
    26.3.7奖励714
    26.4翻转718
    26.5L学习719
    26.6Q学习728
    26.6.1Q值与更新729
    26.6.2Q学习策略731
    26.6.3把所有东西放在一起732
    26.6.4显而易见而又被忽略的事实733
    26.6.5Q学习的动作734
    26.7SARSA739
    26.7.1实际中的SARSA741
    26.7.2对比Q学习和SARSA744
    26.8强化学习的全貌748
    26.9经验回放749
    26.10两个应用750
    参考资料751
    第27章生成对抗网络753
    27.1为什么这一章出现在这里753
    27.2一个比喻:伪造钞票754
    27.2.1从经验中学习756
    27.2.2用神经网络伪造757
    27.2.3一个学习回合759
    27.3为什么要用“对抗”760
    27.4GAN的实现760
    27.4.1鉴别器761
    27.4.2生成器761
    27.4.3训练GAN762
    27.4.4博弈763
    27.5实际操作中的GAN764
    27.6DCGAN769
    27.7挑战771
    27.7.1使用大样本772
    27.7.2模态崩溃772
    参考资料773
    第28章创造性应用775
    28.1为什么这一章出现在这里775
    28.2可视化过滤器775
    28.2.1选择网络775
    28.2.2可视化一个过滤器776
    28.2.3可视化层778
    28.3deepdreaming779
    28.4神经风格迁移782
    28.4.1在矩阵中捕获风格783
    28.4.2宏观蓝图784
    28.4.3内容损失785
    28.4.4风格损失786
    28.4.5实现风格迁移789
    28.4.6讨论793
    28.5为本书生成更多的内容794
    参考资料795
    第29章数据集797
    29.1公共数据集797
    29.2MNIST和Fashion-MNIST797
    29.3库的内建数据集798
    29.3.1scikit-learn798
    29.3.2Keras798

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购