返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 深度学习入门 基于Python的理论与实现 (日)斋藤康毅 著 陆宇杰 译 专业科技 文轩网
  • 新华书店正版
    • 作者: 斋藤康毅著 | | 陆宇杰译
    • 出版社: 人民邮电出版社
    • 出版时间:2021-05-01 00:00:00
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    文轩网图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

         https://product.suning.com/0070067633/11555288247.html

     

    商品参数
    • 作者: 斋藤康毅著| 陆宇杰译
    • 出版社:人民邮电出版社
    • 出版时间:2021-05-01 00:00:00
    • 版次:1
    • 印次:21
    • 印刷时间:2021-05-01
    • 页数:285
    • 开本:32开
    • 装帧:平装
    • ISBN:9787115485588
    • 国别/地区:中国
    • 版权提供:人民邮电出版社

    深度学习入门 基于Python的理论与实现

    作  者:(日)斋藤康毅 著 陆宇杰 译
    定  价:69.8
    出 版 社:人民邮电出版社
    出版日期:2018年07月01日
    页  数:308
    装  帧:平装
    ISBN:9787115485588
    主编推荐

    1.日本深度学习入门经典畅销书,原版上市不足2年印刷已达100 000册。长期位列日亚“人工智能”类图书榜首,众多五星好评。 2.使用Python 3,尽量不依赖外部库或工具,从零创建一个深度学习模型。 3.示例代码清晰,源代码可下载,需要的运行环境非常简单。读者可以一边读书一边执行程序,简单易上手。 4.使用平实的语言,结合直观的插图和具体的例子,将深度学习的原理掰开揉碎讲解,简明易懂。 5.使用计算图介绍复杂的误差反向传播法,非常直观。 6.相比AI圣经“花书”,本书更合适入门。 对于非AI方向的技术人员,本书将大大降低入门深度学习的门槛;对于在校大学生、研究生,本书不失为学习深度学习的一本好教材;即便是在工作中已经熟练使用框架开发各类深度学习模型的读者,也可以从本书中获得新的体会。——摘自本书译者序

    内容简介

    本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。书中不仅介绍了深度学习和神经网络的概念、特征等基础知识,对误差反向传播法、卷积神经网络等也有深入讲解,此外还介绍了深度学习相关的实用技巧,自动驾驶、图像生成、强化学习等方面的应用,以及为什么加深层可以提高识别精度等疑难的问题。本书适合深度学习初学者阅读,也可作为高校教材使用。

    作者简介

    斋藤康毅(作者) 东京工业大学毕业,并完成东京大学研究生院课程。现从事计算机视觉与机器学习相关的研究和开发工作。是Introducing Python、Python in Practice、The Elements of Computing Systems、Building Machine Learning Systems with Python的日文版译者。 陆宇杰(译者) 众安科技NLP算法工程师。主要研究方向为自然语言处理及其应用,对图像识别、机器学习、深度学习等领域有密切关注。Python爱好者。

    精彩内容

    目录
    译者序xiii
    前言xv
    第1章Python入门1
    1.1Python是什么1
    1.2Python的安装2
    1.2.1Python版本2
    1.2.2使用的外部库2
    1.2.3Anaconda发行版3
    1.3Python解释器4
    1.3.1算术计算4
    1.3.2数据类型5
    1.3.3变量5
    1.3.4列表6
    1.3.5字典7
    1.3.6布尔型7
    1.3.7if语句8
    1.3.8for语句8
    1.3.9函数9
    1.4Python脚本文件9
    1.4.1保存为文件9
    1.4.2类10
    1.5NumPy11
    1.5.1导入NumPy11
    1.5.2生成NumPy数组12
    1.5.3NumPy的算术运算12
    1.5.4NumPy的N维数组13
    1.5.5广播14
    1.5.6访问元素15
    1.6Matplotlib16
    1.6.1绘制简单图形16
    1.6.2pyplot的功能17
    1.6.3显示图像18
    1.7小结19
    第2章感知机21
    2.1感知机是什么21
    2.2简单逻辑电路23
    2.2.1与门23
    2.2.2与非门和或门23
    2.3感知机的实现25
    2.3.1简单的实现25
    2.3.2导入权重和偏置26
    2.3.3使用权重和偏置的实现26
    2.4感知机的局限性28
    2.4.1异或门28
    2.4.2线性和非线性30
    2.5多层感知机31
    2.5.1已有门电路的组合31
    2.5.2异或门的实现33
    2.6从与非门到计算机35
    2.7小结36
    第3章神经网络37
    3.1从感知机到神经网络37
    3.1.1神经网络的例子37
    3.1.2复习感知机38
    3.1.3激活函数登场40
    3.2激活函数42
    3.2.1sigmoid函数42
    3.2.2阶跃函数的实现43
    3.2.3阶跃函数的图形44
    3.2.4sigmoid函数的实现45
    3.2.5sigmoid函数和阶跃函数的比较46
    3.2.6非线性函数48
    3.2.7ReLU函数49
    3.3多维数组的运算50
    3.3.1多维数组50
    3.3.2矩阵乘法51
    3.3.3神经网络的内积55
    3.43层神经网络的实现56
    3.4.1符号确认57
    3.4.2各层间信号传递的实现58
    3.4.3代码实现小结62
    3.5输出层的设计63
    3.5.1恒等函数和softmax函数64
    3.5.2实现softmax函数时的注意事项66
    3.5.3softmax函数的特征67
    3.5.4输出层的神经元数量68
    3.6手写数字识别69
    3.6.1MNIST数据集70
    3.6.2神经网络的推理处理73
    3.6.3批处理75
    3.7小结79
    第4章神经网络的学习81
    4.1从数据中学习81
    4.1.1数据驱动82
    4.1.2训练数据和测试数据84
    4.2损失函数85
    4.2.1均方误差85
    4.2.2交叉熵误差87
    4.2.3mini-batch学习88
    4.2.4mini-batch版交叉熵误差的实现91
    4.2.5为何要设定损失函数92
    4.3数值微分94
    4.3.1导数94
    4.3.2数值微分的例子96
    4.3.3偏导数98
    4.4梯度100
    4.4.1梯度法102
    4.4.2神经网络的梯度106
    4.5学习算法的实现109
    4.5.12层神经网络的类110
    4.5.2mini-batch的实现114
    4.5.3基于测试数据的评价116
    4.6小结118
    第5章误差反向传播法121
    5.1计算图121
    5.1.1用计算图求解122
    5.1.2局部计算124
    5.1.3为何用计算图解题125
    5.2链式法则126
    5.2.1计算图的反向传播127
    5.2.2什么是链式法则127
    5.2.3链式法则和计算图129
    5.3反向传播130
    5.3.1加法节点的反向传播130
    5.3.2乘法节点的反向传播132
    5.3.3苹果的例子133
    5.4简单层的实现135
    5.4.1乘法层的实现135
    5.4.2加法层的实现137
    5.5激活函数层的实现139
    5.5.1ReLU层139
    5.5.2Sigmoid层141
    5.6Affine/Softmax层的实现144
    5.6.1Affine层144
    5.6.2批版本的Affine层148
    5.6.3Softmax-with-Loss层150
    5.7误差反向传播法的实现154
    5.7.1神经网络学习的全貌图154
    5.7.2对应误差反向传播法的神经网络的实现155
    5.7.3误差反向传播法的梯度确认158
    5.7.4使用误差反向传播法的学习159
    5.8小结161
    第6章与学习相关的技巧163
    6.1参数的更新163
    6.1.1探险家的故事164
    6.1.2SGD164
    6.1.3SGD的缺点166
    6.1.4Momentum168
    6.1.5AdaGrad170
    6.1.6Adam172
    6.1.7使用哪种更新方法呢174
    6.1.8基于MNIST数据集的更新方法的比较175
    6.2权重的初始值176
    6.2.1可以将权重初始值设为0吗176
    6.2.2隐藏层的激活值的分布177
    6.2.3ReLU的权重初始值181
    6.2.4基于MNIST数据集的权重初始值的比较183
    6.3BatchNormalization184
    6.3.1BatchNormalization的算法184
    6.3.2BatchNormalization的评估186
    6.4正则化188
    6.4.1过拟合189
    6.4.2权值衰减191
    6.4.3Dropout192
    6.5超参数的验证195
    6.5.1验证数据195
    6.5.2超参数的很优化196
    6.5.3超参数很优化的实现198
    6.6小结200
    第7章卷积神经网络201
    7.1整体结构201
    7.2卷积层202
    7.2.1全连接层存在的问题203
    7.2.2卷积运算203
    7.2.3填充206
    7.2.4步幅207
    7.2.53维数据的卷积运算209
    7.2.6结合方块思考211
    7.2.7批处理213
    7.3池化层214
    7.4卷积层和池化层的实现216
    7.4.14维数组216
    7.4.2基于im2col的展开217
    7.4.3卷积层的实现219
    7.4.4池化层的实现222
    7.5CNN的实现224
    7.6CNN的可视化228
    7.6.1第1层权重的可视化228
    7.6.2基于分层结构的信息提取230
    7.7具有代表性的CNN231
    7.7.1LeNet231
    7.7.2AlexNet232
    7.8小结233
    第8章深度学习235
    8.1加深网络235
    8.1.1向更深的网络出发235
    8.1.2进一步提高识别精度238
    8.1.3加深层的动机240
    8.2深度学习的小历史242
    8.2.1ImageNet243
    8.2.2VGG244
    8.2.3GoogLeNet245
    8.2.4ResNet246
    8.3深度学习的高速化248
    8.3.1需要努力解决的问题248
    8.3.2基于GPU的高速化249
    8.3.3分布式学习250
    8.3.4运算精度的位数缩减252
    8.4深度学习的应用案例253
    8.4.1物体检测253
    8.4.2图像分割255
    8.4.3图像标题的生成256
    8.5深度学习的未来258
    8.5.1图像风格变换258
    8.5.2图像的生成259
    8.5.3自动驾驶261
    8.5.4DeepQ-Network(强化学习)262
    8.6小结264
    附录ASoftmax-with-Loss层的计算图267
    A.1正向传播268
    A.2反向传播270
    A.3小结277
    参考文献279

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购