返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 正版 Python深度学习:基于PyTorch 吴茂贵 郁明敏 杨本法 李涛
  • 新华书店旗下自营,正版全新
    • 作者: 吴茂贵 郁明敏 杨本法 李涛 等著著 | 吴茂贵 郁明敏 杨本法 李涛 等著编 | 吴茂贵 郁明敏 杨本法 李涛 等著译 | 吴茂贵 郁明敏 杨本法 李涛 等著绘
    • 出版社: 机械工业出版社
    • 出版时间:2022-11
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    美阅书店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 吴茂贵 郁明敏 杨本法 李涛 等著著| 吴茂贵 郁明敏 杨本法 李涛 等著编| 吴茂贵 郁明敏 杨本法 李涛 等著译| 吴茂贵 郁明敏 杨本法 李涛 等著绘
    • 出版社:机械工业出版社
    • 出版时间:2022-11
    • 版次:2
    • 印次:1
    • 字数:648
    • 页数:391
    • 开本:16开
    • ISBN:9787111718802
    • 版权提供:机械工业出版社
    • 作者:吴茂贵 郁明敏 杨本法 李涛 等著
    • 著:吴茂贵 郁明敏 杨本法 李涛 等著
    • 装帧:平装
    • 印次:1
    • 定价:109.00
    • ISBN:9787111718802
    • 出版社:机械工业出版社
    • 开本:16开
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2022-11
    • 页数:391
    • 外部编号:12123001
    • 版次:2
    • 成品尺寸:暂无

    前言<br />第1版前言<br />第一部分  PyTorch基础<br />第1章  NumPy基础知识2<br />1.1  生成NumPy数组3<br />1.1.1  数组属性4<br />1.1.2  利用已有数据生成数组4<br />1.1.3  利用 random 模块生成数组5<br />1.1.4  生成特定形状的多维数组7<br />1.1.5  利用arange、linspace <br />    函数生成数组8<br />1.2  读取数据9<br />1.3  NumPy的算术运算11<br />1.3.1  逐元素操作11<br />1.3.2  点积运算12<br />1.4  数组变形13<br />1.4.1  修改数组的形状13<br />1.4.2  合并数组16<br />1.5  批处理19<br />1.6  节省内存20<br />1.7  通用函数21<br />1.8  广播机制23<br />1.9  小结24<br />第2章  PyTorch基础知识25<br />2.1  为何选择PyTorch25<br />2.2  PyTorch的安装配置26<br />2.2.1  安装CPU版PyTorch26<br />2.2.2  安装GPU版PyTorch28<br />2.3  Jupyter Notebook环境配置30<br />2.4  NumPy与Tensor31<br />2.4.1  Tensor概述31<br />2.4.2  创建Tensor32<br />2.4.3  修改Tensor形状34<br />2.4.4  索引操作35<br />2.4.5  广播机制35<br />2.4.6  逐元素操作36<br />2.4.7  归并操作37<br />2.4.8  比较操作37<br />2.4.9  矩阵操作38<br />2.4.10  PyTorch与NumPy比较39<br />2.5  Tensor与autograd39<br />2.5.1  自动求导要点40<br />2.5.2  计算图40<br />2.5.3  标量反向传播41<br />2.5.4  非标量反向传播42<br />2.5.5  切断一些分支的反向传播45<br />2.6  使用NumPy实现机器学习任务47<br />2.7  使用Tensor及autograd实现机器<br />    学习任务49<br />2.8  使用优化器及自动微分实现机器<br />    学习任务51<br />2.9  把数据集转换为带批量处理功能的<br />    迭代器52<br />2.10  使用TensorFlow 2实现机器<br />    学习任务54<br />2.11  小结55<br />第3章  PyTorch神经网络工具箱56<br />3.1  神经网络核心组件56<br />3.2  构建神经网络的主要工具57<br />3.2.1  nn.Module57<br />3.2.2  nn.functional58<br />3.3  构建模型59<br />3.3.1  继承nn.Module基类构建模型59<br />3.3.2  使用nn.Sequential按层<br />    顺序构建模型60<br />3.3.3  继承nn.Module基类并应用<br />    模型容器来构建模型63<br />3.3.4  自定义网络模块66<br />3.4  训练模型68<br />3.5  实现神经网络实例69<br />3.5.1  背景说明69<br />3.5.2  准备数据70<br />3.5.3  可视化源数据71<br />3.5.4  构建模型72<br />3.5.5  训练模型72<br />3.6  小结74<br />第4章  PyTorch数据处理工具箱75<br />4.1  数据处理工具箱概述75<br />4.2  utils.data76<br />4.3  torchvision78<br />4.3.1  transforms78<br />4.3.2  ImageFolder79<br />4.4  可视化工具81<br />4.4.1  TensorBoard简介81<br />4.4.2  用TensorBoard可视化<br />    神经网络82<br />4.4.3  用TensorBoard可视化损失值83<br />4.4.4  用TensorBoard可视化特征图84<br />4.5  小结85<br />第二部分  深度学习基础<br />第5 章  机器学习基础88<br />5.1  机器学习的基本任务88<br />5.1.1  监督学习89<br />5.1.2  无监督学习89<br />5.1.3  半监督学习90<br />5.1.4  强化学习90<br />5.2  机器学习的一般流程90<br />5.2.1  明确目标91<br />5.2.2  收集数据91<br />5.2.3  数据探索与预处理91<br />5.2.4  选择模型及损失函数91<br />5.2.5  评估及优化模型92<br />5.3  过拟合与欠拟合93<br />5.3.1  权重正则化93<br />5.3.2  dropout正则化94<br />5.3.3  批量归一化97<br />5.3.4  层归一化99<br />5.3.5  权重初始化99<br />5.4  选择合适的激活函数100<br />5.5  选择合适的损失函数101<br />5.6  选择合适的优化器103<br />5.6.1  传统梯度优化算法104<br />5.6.2  批量随机梯度下降法105<br />5.6.3  动量算法106<br />5.6.4  Nesterov动量算法108<br />5.6.5  AdaGrad算法109<br />5.6.6  RMSProp算法111<br />5.6.7  Adam算法112<br />5.6.8  Yogi算法113<br />5.6.9  使用优化算法实例114<br />5.7  GPU加速116<br />5.7.1  单GPU加速116<br />5.7.2  多GPU加速117<br />5.7.3  使用GPU时的注意事项120<br />5.8  小结121<br />第6章  视觉处理基础122<br />6.1  从全连接层到卷积层122<br />6.1.1  图像的两个特性123<br />6.1.2  卷积神经网络概述124<br />6.2  卷积层125<br />6.2.1  卷积核127<br />6.2.2  步幅129<br />6.2.3  填充130<br />6.2.4  多通道上的卷积131<br />6.2.5  激活函数134<br />6.2.6  卷积函数135<br />6.2.7  转置卷积136<br />6.2.8  特征图与感受野137<br />6.2.9  全卷积网络138<br />6.3  池化层139<br />6.3.1  局部池化140<br />6.3.2  全局池化140<br />6.4  现代经典网络142<br />6.4.1  LeNet-5模型142<br />6.4.2  AlexNet模型143<br />6.4.3  VGG模型143<br />6.4.4  GoogLeNet模型144<br />6.4.5  ResNet模型145<br />6.4.6  DenseNet模型146<br />6.4.7  CapsNet模型148<br />6.5  使用卷积神经网络实现CIFAR10<br />    多分类149<br />6.5.1  数据集说明149<br />6.5.2  加载数据149<br />6.5.3  构建网络151<br />6.5.4  训练模型151<br />6.5.5  测试模型152<br />6.5.6  采用全局平均池化153<br />6.5.7  像Keras一样显示各层参数154<br />6.6  使用模型集成方法提升性能156<br />6.6.1  使用模型156<br />6.6.2  集成方法157<br />6.6.3  集成效果158<br />6.7  使用现代经典模型提升性能158<br />6.8  小结159<br />第7章  自然语言处理基础160<br />7.1  从语言模型到循环神经网络160<br />7.1.1  链式法则161<br />7.1.2  马可夫假设与N元语法模型161<br />7.1.3  从N元语法模型到隐含<br />    状态表示161<br />7.1.4  从神经网络到有隐含状态的<br />    循环神经网络162<br />7.1.5  使用循环神经网络构建<br />    语言模型164<br />7.1.6  多层循环神经网络164<br />7.2  正向传播与随时间反向传播165<br />7.3  现代循环神经网络167<br />7.3.1  LSTM168<br />7.3.2  GRU169<br />7.3.3  Bi-RNN169<br />7.4  循环神经网络的PyTorch实现170<br />7.4.1  使用PyTorch实现RNN170<br />7.4.2  使用PyTorch实现LSTM172<br />7.4.3  使用PyTorch实现GRU174<br />7.5  文本数据处理175<br />7.6  词嵌入176<br />7.6.1  Word2Vec原理177<br />7.6.2  CBOW模型177<br />7.6.3  Skip-Gram模型178<br />7.7  使用PyTorch实现词性判别179<br />7.7.1  词性判别的主要步骤179<br />7.7.2  数据预处理180<br />7.7.3  构建网络180<br />7.7.4  训练网络181<br />7.7.5  测试模型182<br />7.8  用LSTM预测股票行情183<br />7.8.1  导入数据183<br />7.8.2  数据概览183<br />7.8.3  预处理数据184<br />7.8.4  定义模型185<br />7.8.5  训练模型185<br />7.8.6  测试模型186<br />7.9  几种特殊架构187<br />7.9.1  编码器-解码器架构187<br />7.9.2  Seq2Seq架构189<br />7.10  循环神经网络应用场景189<br />7.11  小结190<br />第8章  注意力机制191<br />8.1  注意力机制概述191<br />8.1.1  两种常见注意力机制192<br />8.1.2  来自生活的注意力192<br />8.1.3  注意力机制的本质192<br />8.2  带注意力机制的编码器-解码器架构194<br />8.2.1  引入注意力机制194<br />8.2.2  计算注意力分配概率分布值196<br />8.3  Transformer198<br />8.3.1  Transformer的顶层设计198<br />8.3.2  编码器与解码器的输入200<br />8.3.3  自注意力200<br />8.3.4  多头注意力203<br />8.3.5  自注意力与循环神经网络、<br />    卷积神经网络的异同204<br />8.3.6  加深Transformer网络层的<br />    几种方法205<br />8.3.7  如何进行自监督学习205<br />8.3.8  Vision Transformer207<br />8.3.9  Swin Transformer208<br />8.4  使用PyTorch实现Transformer213<br />8.4.1  Transformer背景介绍214<br />8.4.2  构建EncoderDecoder214<br />8.4.3  构建编码器215<br />8.4.4  构建解码器218&

    这是一本能指导读者快速掌握PyTorch和深度学习的著作,从PyTorch的原理到应用,从深度学习到强化学习,本书提供了全栈解决方案。<br />第1版上市后销量和口碑俱佳,是深度学习领域的畅销书,被誉为PyTorch领域的标准著作。第2版在第1版的基础上,去芜存菁,与时具进,根据PyTorch新版本全面升级,技术性、实战性、针对性、丰富性、易读性均得到了进一步提升,必定能帮助读者更轻松、更高效地进入深度学习的世界。<br />全书一共19章,在结构上分为三大部分:<br />第1部分(第1~4章) PyTorch基础<br />首先有针对性地讲解了Python和PyTorch的基石NumPy中的关键知识,然后详细讲解了PyTorch的基础知识、神经网络工具箱和数据处理工具箱等内容,帮助读者快速了解和掌握PyTorch。<br />第二部分(第5~10章) 深度学习基础<br />依次讲解了机器学习、视觉处理、自然语言处理、注意力机制、目标检测、语义分割、生成式深度学习等机器学习和深度学习的核心技术的原理和使用。<br />第三部分(第11~17章) 深度学习实践<br />通过实战案例的方式,详细讲解了PyTorch在人脸检测和识别、迁移学习、中英文互译、图像分类、语义分割、生成式网络、对抗攻击等领域的应用和解决方案。<br />第四部分(第18-19章) 强化学习<br />重点介绍了强化学习和深度强化学习的基础理论、常用算法及相关实例。<br />更为重要的是,为了让本书通俗易懂,在内容安排和写作方式上也颇花了一番心思。内容选择上,广泛涉猎、重点突出、注重实战;内容安排上,实例切入、由浅入深、循序渐进;表达形式上,深度抽象、化繁为简、用图说话。<br />

    (1)作者经验丰富:核心作者在大数据和人工智能领域有着超过20年的工作经验,实战经验非常丰富,其他几位作者也在大数据和人工智能领域颇有造诣。 (2)畅销书全面升级:第1版销量和口碑俱佳,是深度学习领域的畅销书,第2版根据PyTorch新版本升级,技术性、实战性、针对性、易读性进一步提升。 (3)PyTorch领域事实标准:因为内容扎实、可读性强,第1版被读者誉为PyTorch领域的标准著作,是读者的优选。 (4)深度学习双子星:本书是《Python深度学习:基于TensorFlow(第2版)》的姊妹篇,这两本书均是深度学习领域的畅销书。 (5)精心谋划、通俗易懂:本书在内容的选择、安排和表现形式上精心谋划,目的是确保高质量内容的同时,让深度学习的学习门槛大大降低。

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购