返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 正版 深度学习:从基础到实践(上下) 安德鲁·格拉斯纳(Andrew Gla
  • 新华书店旗下自营,正版全新
    • 作者: 安德鲁·格拉斯纳(Andrew Glassner)著 | 安德鲁·格拉斯纳(Andrew Glassner)编 | 安德鲁·格拉斯纳(Andrew Glassner)译 | 安德鲁·格拉斯纳(Andrew Glassner)绘
    • 出版社: 人民邮电出版社
    • 出版时间:2020-12
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    美阅书店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 安德鲁·格拉斯纳(Andrew Glassner)著| 安德鲁·格拉斯纳(Andrew Glassner)编| 安德鲁·格拉斯纳(Andrew Glassner)译| 安德鲁·格拉斯纳(Andrew Glassner)绘
    • 出版社:人民邮电出版社
    • 出版时间:2020-12
    • 版次:null
    • 印次:1
    • 字数:1317000
    • 页数:824
    • 开本:16开
    • ISBN:9787115554512
    • 版权提供:人民邮电出版社
    • 作者:安德鲁·格拉斯纳(Andrew Glassner)
    • 著:安德鲁·格拉斯纳(Andrew Glassner)
    • 装帧:平装
    • 印次:1
    • 定价:199.80
    • ISBN:9787115554512
    • 出版社:人民邮电出版社
    • 开本:16开
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2020-12
    • 页数:824
    • 外部编号:11875264
    • 版次:null
    • 成品尺寸:暂无

    上册 第 1章 机器学习与深度学习入门 1 1.1 为什么这一章出现在这里 1 1.1.1 从数据中提取含义 1 1.1.2 专家系统 3 1.2 从标记数据中学习 4 1.2.1 一种学习策略 5 1.2.2 一种计算机化的学习策略 6 1.2.3 泛化 8 1.2.4 让我们仔细看看学习过程 9 1.3 监督学习 10 1.3.1 分类 10 1.3.2 回归 11 1.4 无监督学习 12 1.4.1 聚类 13 1.4.2 降噪 13 1.4.3 降维 14 1.5 生成器 16 1.6 强化学习 18 1.7 深度学习 19 1.8 接下来会讲什么 22 参考资料 22 第 2章 随机性与基础统计学 24 2.1 为什么这一章出现在这里 24 2.2 随机变量 24 2.3 一些常见的分布 29 2.3.1 均匀分布 30 2.3.2 正态分布 31 2.3.3 伯努利分布 34 2.3.4 多项式分布 34 2.3.5 期望值 35 2.4 独立性 35 2.5 抽样与放回 36 2.5.1 有放回抽样 36 2.5.2 无放回抽样 37 2.5.3 做选择 38 2.6 Bootstrapping算法 38 2.7 高维空间 41 2.8 协方差和相关性 43 2.8.1 协方差 43 2.8.2 相关性 44 2.9 Anscombe四重奏 47 参考资料 48 第3章 概率 50 3.1 为什么这一章出现在这里 50 3.2 飞镖游戏 50 3.3 初级概率学 52 3.4 条件概率 52 3.5 联合概率 55 3.6 边际概率 57 3.7 测量的正确性 58 3.7.1 样本分类 58 3.7.2 混淆矩阵 60 3.7.3 混淆矩阵的解释 62 3.7.4 允许错误分类 64 3.7.5 准确率 65 3.7.6 精度 66 3.7.7 召回率 67 3.7.8 关于精度和召回率 68 3.7.9 其他方法 69 3.7.10 同时使用精度和召回率 71 3.7.11 f1分数 72 3.8 混淆矩阵的应用 73 参考资料 77 第4章 贝叶斯定理 78 4.1 为什么这一章出现在这里 78 4.2 频率论者法则以及贝叶斯法则 78 4.2.1 频率论者法则 79 4.2.2 贝叶斯法则 79 4.2.3 讨论 79 4.3 抛硬币 80 4.4 这枚硬币公平吗 81 4.4.1 贝叶斯定理 86 4.4.2 贝叶斯定理的注意事项 87 4.5 生活中的贝叶斯定理 89 4.6 重复贝叶斯定理 91 4.6.1 后验-先验循环 92 4.6.2 例子:挑到的是哪种硬币 93 4.7 多个假设 97 参考资料 101 第5章 曲线和曲面 102 5.1 为什么这一章出现在这里 102 5.2 引言 102 5.3 导数 103 5.4 梯度 108 参考资料 112 第6章 信息论 113 6.1 为什么这一章出现在这里 113 6.2 意外程度与语境 113 6.2.1 意外程度 114 6.2.2 语境 114 6.3 用比特作为单位 115 6.4 衡量信息 116 6.5 事件的大小 117 6.6 自适应编码 117 6.7 熵 122 6.8 交叉熵 123 6.8.1 两种自适应编码 123 6.8.2 混合编码 125 6.9 KL散度 127 参考资料 128 第7章 分类 130 7.1 为什么这一章出现在这里 130 7.2 二维分类 130 7.3 二维多分类 134 7.4 多维二元分类 135 7.4.1 one-versus-rest 135 7.4.2 one-versus-one 136 7.5 聚类 138 7.6 维度灾难 141 参考资料 149 第8章 训练与测试 150 8.1 为什么这一章出现在这里 150 8.2 训练 150 8.3 测试数据 153 8.4 验证数据 156 8.5 交叉验证 157 8.6 对测试结果的利用 160 参考资料 161 第9章 过拟合与欠拟合 162 9.1 为什么这一章出现在这里 162 9.2 过拟合与欠拟合 162 9.2.1 过拟合 162 9.2.2 欠拟合 164 9.3 过拟合数据 164 9.4 及早停止 167 9.5 正则化 168 9.6 偏差与方差 169 9.6.1 匹配潜在数据 170 9.6.2 高偏差,低方差 172 9.6.3 低偏差,高方差 173 9.6.4 比较这些曲线 173 9.7 用贝叶斯法则进行线拟合 175 参考资料 179 第 10章 神经元 181 10.1 为什么这一章出现在这里 181 10.2 真实神经元 181 10.3 人工神经元 182 10.3.1 感知机 183 10.3.2 感知机的历史 183 10.3.3 现代人工神经元 184 10.4 小结 188 参考资料 188 第 11章 学习与推理 190 11.1 为什么这一章出现在这里 190 11.2 学习的步骤 190 11.2.1 表示 190 11.2.2 评估 192 11.2.3 优化 193 11.3 演绎和归纳 193 11.4 演绎 194 11.5 归纳 199 11.5.1 机器学习中的归纳术语 201 11.5.2 归纳谬误 202 11.6 组合推理 203 11.7 操作条件 204 参考资料 206 第 12章 数据准备 208 12.1 为什么这一章出现在这里 208 12.2 数据变换 208 12.3 数据类型 210 12.4 数据清理基础 212 12.4.1 数据清理 212 12.4.2 现实中的数据清理 213 12.5 归一化和标准化 213 12.5.1 归一化 213 12.5.2 标准化 214 12.5.3 保存数据的转换方式 215 12.5.4 转换方式 216 12.6 特征选择 217 12.7 降维 217 12.7.1 主成分分析 217 12.7.2 图像的标准化和PCA 222 12.8 转换 226 12.9 切片处理 229 12.9.1 逐样本处理 230 12.9.2 逐特征处理 230 12.9.3 逐元素处理 231 12.10 交叉验证转换 232 参考资料 234 第 13章 分类器 236 13.1 为什么这一章出现在这里 236 13.2 分类器的种类 236 13.3 k近邻法 237 13.4 支持向量机 241 13.5 决策树 247 13.5.1 构建决策树 250 13.5.2 分离节点 253 13.5.3 控制过拟合 255 13.6 朴素贝叶斯 255 13.7 讨论 259 参考资料 260 第 14章 集成算法 261 14.1 为什么这一章出现在这里 261 14.2 集成方法 261 14.3 投票 262 14.4 套袋算法 262 14.5 随机森林 264 14.6 特别随机树 265 14.7 增强算法 265 参考资料 270 第 15章 scikit-learn 272 15.1 为什么这一章出现在这里 272 15.2 介绍 273 15.3 Python 约定 273 15.4 估算器 276 15.4.1 创建 276 15.4.2 学习fit()用法 277 15.4.3 用predict()预测 278 15.4.4 decision_function(),predict_proba() 279 15.5 聚类 279 15.6 变换 282 15.7 数据精化 286 15.8 集成器 288 15.9 自动化 290 15.9.1 交叉验证 290 15.9.2 超参数搜索 292 15.9.3 枚举型网格搜索 294 15.9.4 随机型网格搜索 300 15.9.5 pipeline 300 15.9.6 决策边界 307 15.9.7 流水线式变换 308 15.10 数据集 309 15.11 实用工具 311 15.12 结束语 312 参考资料 312 第 16章 前馈网络 314 16.1 为什么这一章出现在这里 314 16.2 神经网络图 314 16.3 同步与异步流 316 16.4 权重初始化 317 参考资料 320 第 17章 激活函数 321 17.1 为什么这一章出现在这里 321 17.2 激活函数可以做什么 321 17.3 基本的激活函数 324 17.3.1 线性函数 324 17.3.2 阶梯状函数 325 17.4 阶跃函数 325 17.5 分段线性函数 327 17.6 光滑函数 329 17.7 激活函数画廊 333 17.8 归一化指数函数 333 参考资料 335 第 18章 反向传播 336 18.1 为什么这一章出现在这里 336 18.2 一种非常慢的学习方式 337 18.2.1 缓慢的学习方式 339 18.2.2 更快的学习方式 340 18.3 现在没有激活函数 341 18.4 神经元输出和网络误差 342 18.5 微小的神经网络 345 18.6 第 1步:输出神经元的delta 347 18.7 第 2步:使用delta改变权重 353 18.8 第3步:其他神经元的delta 356 18.9 实际应用中的反向传播 359 18.10 使用激活函数 363 18.11 学习率 367 18.12 讨论 374 18.12.1 在一个地方的反向传播 374 18.12.2 反向传播不做什么 374 18.12.3 反向传播做什么 375 18.12.4 保持神经元快乐 375 18.12.5 小批量 377 18.12.6 并行更新 378 18.12.7 为什么反向传播很有吸引力 378 18.12.8 反向传播并不是有保证的 379 18.12.9 一点历史 379 18.12.10 深入研究数学 380 参考资料 381 第 19章 优化器 383 19.1 为什么这一章出现在这里 383 19.2 几何误差 383 19.2.1 最小值、优选值、平台和鞍部 383 19.2.2 作为二维曲线的误差 386 19.3 调整学习率 388 19.3.1 固定大小的更新 388 19.3.2 随时间改变学习率 394 19.3.3 衰减规划 396 19.4 更新策略 398 19.4.1 批梯度下降 398 19.4.2 随机梯度下降 400 19.4.3 mini batch梯度下降 401 19.5 梯度下降变体 403 19.5.1 动量 403 19.5.2 Nesterov动量 408 19.5.3 Adagrad 410 19.5.4 Adadelta和RMSprop 411 19.5.5 Adam 413 19.6 优化器选择 414 参考资料 415 下册 第 20章 深度学习 417 20.1 为什么这一章出现在这里 417 20.2 深度学习概述 417 20.3 输入层和输出层 419 20.3.1 输入层 419 20.3.2 输出层 420 20.4 深度学习层纵览 420 20.4.1 全连接层 421 20.4.2 激活函数 421 20.4.3 dropout 422 20.4.4 批归一化 423 20.4.5 卷积层 424 20.4.6 池化层 425 20.4.7 循环层 426 20.4.8 其他工具层 427 20.5 层和图形符号总结 428 20.6 一些例子 429 20.7 构建一个深度学习器 434 20.8 解释结果 435 参考资料 440 第 21章 卷积神经网络 441 21.1 为什么这一章出现在这里 441 21.2 介绍 441 21.2.1 “深度”的两重含义 442 21.2.2 放缩后的值之和 443 21.2.3 权重共享 445 21.2.4 局部感知域 446 21.2.5 卷积核 447 21.3 卷积 447 21.3.1 过滤器 450 21.3.2 复眼视图 452 21.3.3 过滤器的层次结构 453 21.3.4 填充 458 21.3.5 步幅 459 21.4 高维卷积 462 21.4.1 具有多个通道的过滤器 463 21.4.2 层次结构的步幅 465 21.5 一维卷积 466 21.6 1×1卷积 466 21.7 卷积层 468 21.8 转置卷积 469 21.9 卷积网络样例 472 21.9.1 VGG16 475 21.9.2 有关过滤器的其他内容:第 1部分 477 21.9.3 有关过滤器的其他内容:第 2部分 481 21.10 对手 483 参考资料 485 第 22章 循环神经网络 488 22.1 为什么这一章出现在这里 488 22.2 引言 489 22.3 状态 490 22.4 RNN单元的结构 494 22.4.1 具有更多状态的单元 496 22.4.2 状态值的解释 498 22.5 组织输入 498 22.6 训练RNN 500 22.7 LSTM和GRU 502 22.7.1 门 503 22.7.2 LSTM 505 22.8 RNN的结构 508 22.8.1 单个或多个输入和输出 508 22.8.2 深度RNN 510 22.8.3 双向RNN 511 22.8.4 深度双向RNN 512 22.9 一个例子 513 参考资料 517 第 23章 Keras第 1部分 520 23.1 为什么这一章出现在这里 520 23.1.1 本章结构 520 23.1.2 笔记本 521 23.1.3 Python警告 521 23.2 库和调试 521 23.2.1 版本和编程风格 522 23.2.2 Python编程和调试 522 23.3 概述 523 23.3.1 什么是模型 524 23.3.2 张量和数组 524 23.3.3 设置Keras 524 23.3.4 张量图像的形状 525 23.3.5 GPU和其他加速器 527 23.4 准备开始 528 23.5 准备数据 530 23.5.1 重塑 530 23.5.2 加载数据 536 23.5.3 查看数据 537 23.5.4 训练-测试拆分 541 23.5.5 修复数据类型 541 23.5.6 归一化数据 542 23.5.7 固定标签 544 23.5.8 在同一个地方进行预处理 547 23.6 制作模型 548 23.6.1 将网格转换为列表 548 23.6.2 创建模型 550 23.6.3 编译模型 554 23.6.4 模型创建摘要 556 23.7 训练模型 557 23.8 训练和使用模型 559 23.8.1 查看输出 560 23.8.2 预测 562 23.8.3 训练历史分析 566 23.9 保存和加载 567 23.9.1 将所有内容保存在一个文件中 567 23.9.2 仅保存权重 568 23.9.3 仅保存架构 568 23.9.4 使用预训练模型 569 23.9.5 保存预处理步骤 569 23.10 回调函数 570 23.10.1 检查点 570 23.10.2 学习率 572 23.10.3 及早停止 573 参考资料 575 第 24章 Keras第 2部分 577 24.1 为什么这一章出现在这里 577 24.2 改进模型 577 24.2.1 超参数计数 577 24.2.2 改变一个超参数 578 24.2.3 其他改进方法 580 24.2.4 再增加一个全连接层 581 24.2.5 少即是多 582 24.2.6 添加dropout 584 24.2.7 观察 587 24.3 使用scikit-learn 588 24.3.1 Keras包装器 588 24.3.2 交叉验证 591 24.3.3 归一化交叉验证 594 24.3.4 超参数搜索 596 24.4 卷积网络 602 24.4.1 工具层 603 24.4.2 为CNN准备数据 604 24.4.3 卷积层 606 24.4.4 对MNIST使用卷积 611 24.4.5 模式 619 24.4.6 图像数据增强 621 24.4.7 合成数据 623 24.4.8 CNN的参数搜索 624 24.5 RNN 624 24.5.1 生成序列数据 625 24.5.2 RNN数据准备 627 24.5.3 创建并训练RNN 631 24.5.4 分析RNN性能 634 24.5.5 一个更复杂的数据集 639 24.5.6 深度RNN 641 24.5.7 更多数据的价值 643 24.5.8 返回序列 646 24.5.9 有状态的RNN 649 24.5.10 时间分布层 650 24.5.11 生成文本 653 24.6 函数式API 658 24.6.1 输入层 659 24.6.2 制作函数式模型 660 参考资料 664 第 25章 自编码器 665 25.1 为什么这一章出现在这里 665 25.2 引言 666 25.2.1 有损编码和无损编码 666 25.2.2 区域编码 667 25.2.3 混合展示 669 25.3 最简单的自编码器 671 25.4 更好的自编码器 675 25.5 探索自编码器 677 25.5.1 深入地观察隐藏变量 677 25.5.2 参数空间 679 25.5.3 混合隐藏变量 683 25.5.4 对不同类型的输入进行预测 684 25.6 讨论 685 25.7 卷积自编码器 685 25.7.1 混合卷积自编码器中的隐藏变量 688 25.7.2 在CNN中对不同类型的输入进行预测 689 25.8 降噪 689 25.9 VAE 691 25.9.1 隐藏变量的分布 691 25.9.2 VAE的结构 692 25.10 探索VAE 697 参考资料 703 第 26章 强化学习 704 26.1 为什么这一章出现在这里 704 26.2 目标 704 26.3 强化学习的结构 708 26.3.1 步骤1:智能体选择一个动作 709 26.3.2 步骤2:环境做出响应 710 26.3.3 步骤3:智能体进行自我更新 711 26.3.4 简单版本的变体 712 26.3.5 回到主体部分 713 26.3.6 保存经验 714 26.3.7 奖励 714 26.4 翻转 718 26.5 L学习 719 26.6 Q学习 728 26.6.1 Q值与更新 729 26.6.2 Q学习策略 731 26.6.3 把所有东西放在一起 732 26.6.4 显而易见而又被忽略的事实 733 26.6.5 Q学习的动作 734 26.7 SARSA 739 26.7.1 实际中的SARSA 741 26.7.2 对比Q学习和SARSA 744 26.8 强化学习的全貌 748 26.9 经验回放 749 26.10 两个应用 750 参考资料 751 第 27章 生成对抗网络 753 27.1 为什么这一章出现在这里 753 27.2 一个比喻:伪造钞票 754 27.2.1 从经验中学习 756 27.2.2 用神经网络伪造 757 27.2.3 一个学习回合 759 27.3 为什么要用“对抗” 760 27.4 GAN的实现 760 27.4.1 鉴别器 761 27.4.2 生成器 761 27.4.3 训练GAN 762 27.4.4 博弈 763 27.5 实际操作中的GAN 764 27.6 DCGAN 769 27.7 挑战 771 27.7.1 使用大样本 772 27.7.2 模态崩溃 772 参考资料 773 第 28章 创造性应用 775 28.1 为什么这一章出现在这里 775 28.2 可视化过滤器 775 28.2.1 选择网络 775 28.2.2 可视化一个过滤器 776 28.2.3 可视化层 778 28.3 deep dreaming 779 28.4 神经风格迁移 782 28.4.1 在矩阵中捕获风格 783 28.4.2 宏观蓝图 784 28.4.3 内容损失 785 28.4.4 风格损失 786 28.4.5 实现风格迁移 789 28.4.6 讨论 793 28.5 为本书生成更多的内容 794 参考资料 795 第 29章 数据集 797 29.1 公共数据集 797 29.2 MNIST和Fashion-MNIST 797 29.3 库的内建数据集 798 29.3.1 scikit-learn 798 29.3.2 Keras 798

    Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。”

    上册 第 1章 机器学习与深度学习入门 1 1.1 为什么这一章出现在这里 1 1.1.1 从数据中提取含义 1 1.1.2 专家系统 3 1.2 从标记数据中学习 4 1.2.1 一种学习策略 5 1.2.2 一种计算机化的学习策略 6 1.2.3 泛化 8 1.2.4 让我们仔细看看学习过程 9 1.3 监督学习 10 1.3.1 分类 10 1.3.2 回归 11 1.4 无监督学习 12 1.4.1 聚类 13 1.4.2 降噪 13 1.4.3 降维 14 1.5 生成器 16 1.6 强化学习 18 1.7 深度学习 19 1.8 接下来会讲什么 22 参考资料 22 第 2章 与基础统计学 24 2.1 为什么这一章出现在这里 24 2.2 变量 24 2.3 一些常见的分布 29 2.3.1 均匀分布 30 2.3.2 正态分布 31 2.3.3 伯努利分布 34 2.3.4 多项式分布 34 2.3.5 期望值 35 2.4 独立 35 2.5 抽样与放回 36 2.5.1 有放回抽样 36 2.5.2 无放回抽样 37 2.5.3 做选择 38 2.6 Bootstrapping算法 38 2.7 高维空间 41 2.8 协方差和相关 43 2.8.1 协方差 43 2.8.2 相关 44 2.9 Anscombe四重奏 47 参考资料 48 第3章 概率 50 3.1 为什么这一章出现在这里 50 3.2 飞镖游戏 50 3.3 初级概率学 52 3.4 条件概率 52 3.5 联合概率 55 3.6 边际概率 57 3.7 测量的正确 58 3.7.1 样本分类 58 3.7.2 混淆矩阵 60 3.7.3 混淆矩阵的解释 62 3.7.4 允许错误分类 64 3.7.5 率 65 3.7.6 精度 66 3.7.7 召回率 67 3.7.8 关于精度和召回率 68 3.7.9 其他方法 69 3.7.10 同时使用精度和召回率 71 3.7.11 f1分数 72 3.8 混淆矩阵的应用 73 参考资料 77 第4章 贝叶斯定理 78 4.1 为什么这一章出现在这里 78 4.2 频率论者法则以及贝叶斯法则 78 4.2.1 频率论者法则 79 4.2.2 贝叶斯法则 79 4.2.3 讨论 79 4.3 抛硬币 80 4.4 这枚硬币公平吗 81 4.4.1 贝叶斯定理 86 4.4.2 贝叶斯定理的注意事项 87 4.5 生活中的贝叶斯定理 89 4.6 重复贝叶斯定理 91 4.6.1 后验-先验循环 92 4.6.2 例子:挑到的是哪种硬币 93 4.7 多个假设 97 参考资料 101 第5章 曲线和曲面 102 5.1 为什么这一章出现在这里 102 5.2 引言 102 5.3 导数 103 5.4 梯度 108 参考资料 112 第6章 信息论 113 6.1 为什么这一章出现在这里 113 6.2 意外程度与语境 113 6.2.1 意外程度 114 6.2.2 语境 114 6.3 用比特作为单位 115 6.4 衡量信息 116 6.5 事件的大小 117 6.6 自适应编码 117 6.7 熵 122 6.8 交叉熵 123 6.8.1 两种自适应编码 123 6.8.2 混合编码 125 6.9 KL散度 127 参考资料 128 第7章 分类 130 7.1 为什么这一章出现在这里 130 7.2 二维分类 130 7.3 二维多分类 134 7.4 多维二元分类 135 7.4.1 one-versus-rest 135 7.4.2 one-versus-one 136 7.5 聚类 138 7.6 维度灾难 141 参考资料 149 第8章 训练与测试 150 8.1 为什么这一章出现在这里 150 8.2 训练 150 8.3 测试数据 153 8.4 验证数据 156 8.5 交叉验证 157 8.6 对测试结果的利用 160 参考资料 161 第9章 过拟合与欠拟合 162 9.1 为什么这一章出现在这里 162 9.2 过拟合与欠拟合 162 9.2.1 过拟合 162 9.2.2 欠拟合 164 9.3 过拟合数据 164 9.4 及早停止 167 9.5 正则化 168 9.6 偏差与方差 169 9.6.1 匹配潜在数据 170 9.6.2 高偏差,低方差 172 9.6.3 低偏差,高方差 173 9.6.4 比较这些曲线 173 9.7 用贝叶斯法则进行线拟合 175 参考资料 179 第 10章 神经元 181 10.1 为什么这一章出现在这里 181 10.2 真实神经元 181 10.3 人工神经元 182 10.3.1 感知机 183 10.3.2 感知机的历史 183 10.3.3 现代人工神经元 184 10.4 小结 188 参考资料 188 第 11章 学习与推理 190 11.1 为什么这一章出现在这里 190 11.2 学步骤 190 11.2.1 表示 190 11.2.2 评估 192 11.2.3 优化 193 11.3 演绎和归纳 193 11.4 演绎 194 11.5 归纳 199 11.5.1 机器学归纳术语 201 11.5.2 归纳谬误 202 11.6 组合推理 203 11.7 操作条件 204 参考资料 206 第 12章 数据准备 208 12.1 为什么这一章出现在这里 208 12.2 数据变换 208 12.3 数据类型 210 12.4 数据清理基础 212 12.4.1 数据清理 212 12.4.2 现实中的数据清理 213 12.5 归一化和标准化 213 12.5.1 归一化 213 12.5.2 标准化 214 12.5.3 保存数据的转换方式 215 12.5.4 转换方式 216 12.6 特征选择 217 12.7 降维 217 12.7.1 主成分分析 217 12.7.2 图像的标准化和PCA 222 12.8 转换 226 12.9 切片处理 229 12.9.1 逐样本处理 230 12.9.2 逐特征处理 230 12.9.3 逐元素处理 231 12.10 交叉验证转换 232 参考资料 234 第 13章 分类器 236 13.1 为什么这一章出现在这里 236 13.2 分类器的种类 236 13.3 k近邻法 237 13.4 支持向量机 241 13.5 决策树 247 13.5.1 构建决策树 250 13.5.2 分离节点 253 13.5.3 控制过拟合 255 13.6 朴素贝叶斯 255 13.7 讨论 259 参考资料 260 第 14章 集成算法 261 14.1 为什么这一章出现在这里 261 14.2 集成方法 261 14.3 投票 262 14.4 套袋算法 262 14.5 森林 264 14.6 树 265 14.7 算法 265 参考资料 270 第 15章 scikit-learn 272 15.1 为什么这一章出现在这里 272 15.2 介绍 273 15.3 Python 约定 273 15.4 估算器 276 15.4.1 创建 276 15.4.2 学习fit()用法 277 15.4.3 用predict()预测 278 15.4.4 decision_function(),predict_proba() 279 15.5 聚类 279 15.6 变换 282 15.7 数据精化 286 15.8 集成器 288 15.9 自动化 290 15.9.1 交叉验证 290 15.9.2 超参数搜索 292 15.9.3 枚举型网格搜索 294 15.9.4 型网格搜索 300 15.9.5 pipeline 300 15.9.6 决策边界 307 15.9.7 流水线式变换 308 15.10 数据集 309 15.11 实用工具 311 15.12 结束语 312 参考资料 312 第 16章 前馈网络 314 16.1 为什么这一章出现在这里 314 16.2 神经网络图 314 16.3 同步与异步流 316 16.4 权重初始化 317 参考资料 320 第 17章 激活函数 321 17.1 为什么这一章出现在这里 321 17.2 激活函数可以做什么 321 17.3 基本的激活函数 324 17.3.1 线函数 324 17.3.2 阶梯状函数 325 17.4 阶跃函数 325 17.5 分段线函数 327 17.6 光滑函数 329 17.7 激活函数画廊 333 17.8 归一化指数函数 333 参考资料 335 第 18章 反向传播 336 18.1 为什么这一章出现在这里 336 18.2 一种慢的学 337 18.2.1 缓慢的学 339 18.2.2 更快的学 340 18.3 现在没有激活函数 341 18.4 神经元输出和网络误差 342 18.5 微小的神经网络 345 18.6 第 1步:输出神经元的delta 347 18.7 第 2步:使用delta改变权重 353 18.8 第3步:其他神经元的delta 356 18.9 实际应用中的反向传播 359 18.10 使用激活函数 363 18.11 学习率 367 18.12 讨论 374 18.12.1 在一个地方的反向传播 374 18.12.2 反向传播不做什么 374 18.12.3 反向传播做什么 375 18.12.4 保持神经元快乐 375 18.12.5 小批量 377 18.12.6 并行更新 378 18.12.7 为什么反向传播很有吸引力 378 18.12.8 反向传播并不是有保证的 379 18.12.9 一点历史 379 18.12.10 深入研究数学 380 参考资料 381 第 19章 优化器 383 19.1 为什么这一章出现在这里 383 19.2 几何误差 383 19.2.1 小值、大值、平台和鞍部 383 19.2.2 作为二维曲线的误差 386 19.3 调整学习率 388 19.3.1 固定大小的更新 388 19.3.2 间改变学习率 394 19.3.3 衰减规划 396 19.4 更新策略 398 19.4.1 批梯度下降 398 19.4.2 梯度下降 400 19.4.3 mini batch梯度下降 401 19.5 梯度下降变体 403 19.5.1 动量 403 19.5.2 Nesterov动量 408 19.5.3 Adagrad 410 19.5.4 Adadelta和RMSprop 411 19.5.5 Adam 413 19.6 优化器选择 414 参考资料 415 下册 第 20章 深度学习 417 20.1 为什么这一章出现在这里 417 20.2 深度学习概述 417 20.3 输入层和输出层 419 20.3.1 输入层 419 20.3.2 输出层 420 20.4 深度学习层纵览 420 20.4.1 全连接层 421 20.4.2 激活函数 421 20.4.3 dropout 422 20.4.4 批归一化 423 20.4.5 卷积层 424 20.4.6 池化层 425 20.4.7 循环层 426 20.4.8 其他工具层 427 20.5 层和图形符结 428 20.6 一些例子 429 20.7 构建一个深度学习器 434 20.8 解释结果 435 参考资料 440 第 21章 卷积神经网络 441 21.1 为什么这一章出现在这里 441 21.2 介绍 441 21.2.1 “深度”的两重含义 442 21.2.2 放缩后的值之和 443 21.2.3 权重共享 445 21.2.4 局部感知域 446 21.2.5 卷积核 447 21.3 卷积 447 21.3.1 过滤器 450 21.3.2 复眼视图 452 21.3.3 过滤器的层次结构 453 21.3.4 填充 458 21.3.5 步幅 459 21.4 高维卷积 462 21.4.1 具有多个通道的过滤器 463 21.4.2 层次结构的步幅 465 21.5 一维卷积 466 21.6 1×1卷积 466 21.7 卷积层 468 21.8 转置卷积 469 21.9 卷积网络样例 472 21.9.1 VGG16 475 21.9.2 有关过滤器的其他内容:第 1部分 477 21.9.3 有关过滤器的其他内容:第 2部分 481 21.10 对手 483 参考资料 485 第 22章 循环神经网络 488 22.1 为什么这一章出现在这里 488 22.2 引言 489 22.3 状态 490 22.4 RNN单元的结构 494 22.4.1 具有更多状态的单元 496 22.4.2 状态值的解释 498 22.5 组织输入 498 22.6 训练RNN 500 22.7 LSTM和GRU 502 22.7.1 门 503 22.7.2 LSTM 505 22.8 RNN的结构 508 22.8.1 单个或多个输入和输出 508 22.8.2 深度RNN 510 22.8.3 双向RNN 511 22.8.4 深度双向RNN 512 22.9 一个例子 513 参考资料 517 第 23章 Keras第 1部分 520 23.1 为什么这一章出现在这里 520 23.1.1 本章结构 520 23.1.2 笔记本 521 23.1.3 Python警告 521 23.2 库和调试 521 23.2.1 版本和编程风格 522 23.2.2 Python编程和调试 522 23.3 概述 523 23.3.1 什么是模型 524 23.3.2 张量和数组 524 23.3.3 设置Keras 524 23.3.4 张量图像的形状 525 23.3.5 GPU和其他加速器 527 23.4 准备开始 528 23.5 准备数据 530 23.5.1 重塑 530 23.5.2 加载数据 536 23.5.3 查看数据 537 23.5.4 训练-测试拆分 541 23.5.5 修复数据类型 541 23.5.6 归一化数据 542 23.5.7 固定标签 544 23.5.8 在同一个地方进行预处理 547 23.6 制作模型 548 23.6.1 将网格转换为列表 548 23.6.2 创建模型 550 23.6.3 编译模型 554 23.6.4 模型创建摘要 556 23.7 训练模型 557 23.8 训练和使用模型 559 23.8.1 查看输出 560 23.8.2 预测 562 23.8.3 训练历史分析 566 23.9 保存和加载 567 23.9.1 将所有内容保存在一个文件中 567 23.9.2 仅保存权重 568 23.9.3 仅保存架构 568 23.9.4 使用预训练模型 569 23.9.5 保存预处理步骤 569 23.10 回调函数 570 23.10.1 检查点 570 23.10.2 学习率 572 23.10.3 及早停止 573 参考资料 575 第 24章 Keras第 2部分 577 24.1 为什么这一章出现在这里 577 24.2 改进模型 577 24.2.1 超参数 577 24.2.2 改变一个超参数 578 24.2.3 其他改进方法 580 24.2.4 再增加一个全连接层 581 24.2.5 少即是多 582 24.2.6 添加dropout 584 24.2.7 观察 587 24.3 使用scikit-learn 588 24.3.1 Kera装器 588 24.3.2 交叉验证 591 24.3.3 归一化交叉验证 594 24.3.4 超参数搜索 596 24.4 卷积网络 602 24.4.1 工具层 603 24.4.2 为N准备数据 604 24.4.3 卷积层 606 24.4.4 对MNIST使用卷积 611 24.4.5 模式 619 24.4.6 图像数据 621 24.4.7 合成数据 623 24.4.8 N的参数搜索 624 24.5 RNN 624 24.5.1 生成序列数据 625 24.5.2 RNN数据准备 627 24.5.3 创建并训练RNN 631 24.5.4 分析RNN能 634 24.5.5 一个更复杂的数据集 639 24.5.6 深度RNN 641 24.5.7 更多数据的价值 643 24.5.8 返回序列 646 24.5.9 有状态的RNN 649 24.5.10 时间分布层 650 24.5.11 生成文本 653 24.6 函数式API 658 24.6.1 输入层 659 24.6.2 制作函数式模型 660 参考资料 664 第 25章 自编码器 665 25.1 为什么这一章出现在这里 665 25.2 引言 666 25.2.1 有损编码和无损编码 666 25.2.2 区域编码 667 25.2.3 混合展示 669 25.3 简单的自编码器 671 25.4 更好的自编码器 675 25.5 探索自编码器 677 25.5.1 深入地观察隐藏变量 677 25.5.2 参数空间 679 25.5.3 混合隐藏变量 683 25.5.4 对不同类型的输入进行预测 684 25.6 讨论 685 25.7 卷积自编码器 685 25.7.1 混合卷积自编码器中的隐藏变量 688 25.7.2 在N中对不同类型的输入进行预测 689 25.8 降噪 689 25.9 VAE 691 25.9.1 隐藏变量的分布 691 25.9.2 VAE的结构 692 25.10 探索VAE 697 参考资料 703 第 26章 强化学习 704 26.1 为什么这一章出现在这里 704 26.2 目标 704 26.3 强化学结构 708 26.3.1 步骤1:智能体选择一个动作 709 26.3.2 步骤2:环境做出响应 710 26.3.3 步骤3:智能体进行自我更新 711 26.3.4 简单版本的变体 712 26.3.5 回到主体部分 713 26.3.6 保存经验 714 26.3.7 奖励 714 26.4 翻转 718 26.5 L学习 719 26.6 Q学习 728 26.6.1 Q值与更新 729 26.6.2 Q学习策略 731 26.6.3 把所有东西放在一起 732 26.6.4 显而易见而又被忽略的事实 733 26.6.5 Q学动作 734 26.7 SARSA 739 26.7.1 实际中的SARSA 741 26.7.2 对比Q学习和SARSA 744 26.8 强化学全貌 748 26.9 经验回放 749 26.10 两个应用 750 参考资料 751 第 27章 生成对抗网络 753 27.1 为什么这一章出现在这里 753 27.2 一个比喻:票 754 27.2.1 从经验中学习 756 27.2.2 用神经网络伪造 757 27.2.3 一个学习回合 759 27.3 为什么要用“对抗” 760 27.4 GAN的实现 760 27.4.1 鉴别器 761 27.4.2 生成器 761 27.4.3 训练GAN 762 27.4.4 博弈 763 27.5 实际操作中的GAN 764 27.6 DCGAN 769 27.7 挑战 771 27.7.1 使用大样本 772 27.7.2 模态崩溃 772 参考资料 773 第 28章 创造应用 775 28.1 为什么这一章出现在这里 775 28.2 可视化过滤器 775 28.2.1 选择网络 775 28.2.2 可视化一个过滤器 776 28.2.3 可视化层 778 28.3 deep dreaming 779 28.4 神经风格迁移 782 28.4.1 在矩阵中捕获风格 783 28.4.2 宏观蓝图 784 28.4.3 内容损失 785 28.4.4 风格损失 786 28.4.5 实现风格迁移 789 28.4.6 讨论 793 28.5 为本书生成更多的内容 794 参考资料 795 第 29章 数据集 797 29.1 公共数据集 797 29.2 MNIST和Fashion-MNIST 797 29.3 库的内建数据集 798 29.3.cikit-learn 798 29.3.2 Keras 798

    1.“计算机图形研究领域受尊敬的天才之一”Andrew Glassner编写。 2. 基本概念 理论,不涉及复杂的数学内容。 3.张图和简单的例子,由浅入深地讲解深度学相关知识。

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购