由于此商品库存有限,请在下单后15分钟之内支付完成,手慢无哦!
100%刮中券,最高50元无敌券,券有效期7天
活动自2017年6月2日上线,敬请关注云钻刮券活动规则更新。
如活动受政府机关指令需要停止举办的,或活动遭受严重网络攻击需暂停举办的,或者系统故障导致的其它意外问题,苏宁无需为此承担赔偿或者进行补偿。
正版 Python深度学习:基于PyTorch 吴茂贵 郁明敏 杨本法 李涛
¥ ×1
前言<br />第1版前言<br />第一部分 PyTorch基础<br />第1章 NumPy基础知识2<br />1.1 生成NumPy数组3<br />1.1.1 数组属性4<br />1.1.2 利用已有数据生成数组4<br />1.1.3 利用 random 模块生成数组5<br />1.1.4 生成特定形状的多维数组7<br />1.1.5 利用arange、linspace <br /> 函数生成数组8<br />1.2 读取数据9<br />1.3 NumPy的算术运算11<br />1.3.1 逐元素操作11<br />1.3.2 点积运算12<br />1.4 数组变形13<br />1.4.1 修改数组的形状13<br />1.4.2 合并数组16<br />1.5 批处理19<br />1.6 节省内存20<br />1.7 通用函数21<br />1.8 广播机制23<br />1.9 小结24<br />第2章 PyTorch基础知识25<br />2.1 为何选择PyTorch25<br />2.2 PyTorch的安装配置26<br />2.2.1 安装CPU版PyTorch26<br />2.2.2 安装GPU版PyTorch28<br />2.3 Jupyter Notebook环境配置30<br />2.4 NumPy与Tensor31<br />2.4.1 Tensor概述31<br />2.4.2 创建Tensor32<br />2.4.3 修改Tensor形状34<br />2.4.4 索引操作35<br />2.4.5 广播机制35<br />2.4.6 逐元素操作36<br />2.4.7 归并操作37<br />2.4.8 比较操作37<br />2.4.9 矩阵操作38<br />2.4.10 PyTorch与NumPy比较39<br />2.5 Tensor与autograd39<br />2.5.1 自动求导要点40<br />2.5.2 计算图40<br />2.5.3 标量反向传播41<br />2.5.4 非标量反向传播42<br />2.5.5 切断一些分支的反向传播45<br />2.6 使用NumPy实现机器学习任务47<br />2.7 使用Tensor及autograd实现机器<br /> 学习任务49<br />2.8 使用优化器及自动微分实现机器<br /> 学习任务51<br />2.9 把数据集转换为带批量处理功能的<br /> 迭代器52<br />2.10 使用TensorFlow 2实现机器<br /> 学习任务54<br />2.11 小结55<br />第3章 PyTorch神经网络工具箱56<br />3.1 神经网络核心组件56<br />3.2 构建神经网络的主要工具57<br />3.2.1 nn.Module57<br />3.2.2 nn.functional58<br />3.3 构建模型59<br />3.3.1 继承nn.Module基类构建模型59<br />3.3.2 使用nn.Sequential按层<br /> 顺序构建模型60<br />3.3.3 继承nn.Module基类并应用<br /> 模型容器来构建模型63<br />3.3.4 自定义网络模块66<br />3.4 训练模型68<br />3.5 实现神经网络实例69<br />3.5.1 背景说明69<br />3.5.2 准备数据70<br />3.5.3 可视化源数据71<br />3.5.4 构建模型72<br />3.5.5 训练模型72<br />3.6 小结74<br />第4章 PyTorch数据处理工具箱75<br />4.1 数据处理工具箱概述75<br />4.2 utils.data76<br />4.3 torchvision78<br />4.3.1 transforms78<br />4.3.2 ImageFolder79<br />4.4 可视化工具81<br />4.4.1 TensorBoard简介81<br />4.4.2 用TensorBoard可视化<br /> 神经网络82<br />4.4.3 用TensorBoard可视化损失值83<br />4.4.4 用TensorBoard可视化特征图84<br />4.5 小结85<br />第二部分 深度学习基础<br />第5 章 机器学习基础88<br />5.1 机器学习的基本任务88<br />5.1.1 监督学习89<br />5.1.2 无监督学习89<br />5.1.3 半监督学习90<br />5.1.4 强化学习90<br />5.2 机器学习的一般流程90<br />5.2.1 明确目标91<br />5.2.2 收集数据91<br />5.2.3 数据探索与预处理91<br />5.2.4 选择模型及损失函数91<br />5.2.5 评估及优化模型92<br />5.3 过拟合与欠拟合93<br />5.3.1 权重正则化93<br />5.3.2 dropout正则化94<br />5.3.3 批量归一化97<br />5.3.4 层归一化99<br />5.3.5 权重初始化99<br />5.4 选择合适的激活函数100<br />5.5 选择合适的损失函数101<br />5.6 选择合适的优化器103<br />5.6.1 传统梯度优化算法104<br />5.6.2 批量随机梯度下降法105<br />5.6.3 动量算法106<br />5.6.4 Nesterov动量算法108<br />5.6.5 AdaGrad算法109<br />5.6.6 RMSProp算法111<br />5.6.7 Adam算法112<br />5.6.8 Yogi算法113<br />5.6.9 使用优化算法实例114<br />5.7 GPU加速116<br />5.7.1 单GPU加速116<br />5.7.2 多GPU加速117<br />5.7.3 使用GPU时的注意事项120<br />5.8 小结121<br />第6章 视觉处理基础122<br />6.1 从全连接层到卷积层122<br />6.1.1 图像的两个特性123<br />6.1.2 卷积神经网络概述124<br />6.2 卷积层125<br />6.2.1 卷积核127<br />6.2.2 步幅129<br />6.2.3 填充130<br />6.2.4 多通道上的卷积131<br />6.2.5 激活函数134<br />6.2.6 卷积函数135<br />6.2.7 转置卷积136<br />6.2.8 特征图与感受野137<br />6.2.9 全卷积网络138<br />6.3 池化层139<br />6.3.1 局部池化140<br />6.3.2 全局池化140<br />6.4 现代经典网络142<br />6.4.1 LeNet-5模型142<br />6.4.2 AlexNet模型143<br />6.4.3 VGG模型143<br />6.4.4 GoogLeNet模型144<br />6.4.5 ResNet模型145<br />6.4.6 DenseNet模型146<br />6.4.7 CapsNet模型148<br />6.5 使用卷积神经网络实现CIFAR10<br /> 多分类149<br />6.5.1 数据集说明149<br />6.5.2 加载数据149<br />6.5.3 构建网络151<br />6.5.4 训练模型151<br />6.5.5 测试模型152<br />6.5.6 采用全局平均池化153<br />6.5.7 像Keras一样显示各层参数154<br />6.6 使用模型集成方法提升性能156<br />6.6.1 使用模型156<br />6.6.2 集成方法157<br />6.6.3 集成效果158<br />6.7 使用现代经典模型提升性能158<br />6.8 小结159<br />第7章 自然语言处理基础160<br />7.1 从语言模型到循环神经网络160<br />7.1.1 链式法则161<br />7.1.2 马可夫假设与N元语法模型161<br />7.1.3 从N元语法模型到隐含<br /> 状态表示161<br />7.1.4 从神经网络到有隐含状态的<br /> 循环神经网络162<br />7.1.5 使用循环神经网络构建<br /> 语言模型164<br />7.1.6 多层循环神经网络164<br />7.2 正向传播与随时间反向传播165<br />7.3 现代循环神经网络167<br />7.3.1 LSTM168<br />7.3.2 GRU169<br />7.3.3 Bi-RNN169<br />7.4 循环神经网络的PyTorch实现170<br />7.4.1 使用PyTorch实现RNN170<br />7.4.2 使用PyTorch实现LSTM172<br />7.4.3 使用PyTorch实现GRU174<br />7.5 文本数据处理175<br />7.6 词嵌入176<br />7.6.1 Word2Vec原理177<br />7.6.2 CBOW模型177<br />7.6.3 Skip-Gram模型178<br />7.7 使用PyTorch实现词性判别179<br />7.7.1 词性判别的主要步骤179<br />7.7.2 数据预处理180<br />7.7.3 构建网络180<br />7.7.4 训练网络181<br />7.7.5 测试模型182<br />7.8 用LSTM预测股票行情183<br />7.8.1 导入数据183<br />7.8.2 数据概览183<br />7.8.3 预处理数据184<br />7.8.4 定义模型185<br />7.8.5 训练模型185<br />7.8.6 测试模型186<br />7.9 几种特殊架构187<br />7.9.1 编码器-解码器架构187<br />7.9.2 Seq2Seq架构189<br />7.10 循环神经网络应用场景189<br />7.11 小结190<br />第8章 注意力机制191<br />8.1 注意力机制概述191<br />8.1.1 两种常见注意力机制192<br />8.1.2 来自生活的注意力192<br />8.1.3 注意力机制的本质192<br />8.2 带注意力机制的编码器-解码器架构194<br />8.2.1 引入注意力机制194<br />8.2.2 计算注意力分配概率分布值196<br />8.3 Transformer198<br />8.3.1 Transformer的顶层设计198<br />8.3.2 编码器与解码器的输入200<br />8.3.3 自注意力200<br />8.3.4 多头注意力203<br />8.3.5 自注意力与循环神经网络、<br /> 卷积神经网络的异同204<br />8.3.6 加深Transformer网络层的<br /> 几种方法205<br />8.3.7 如何进行自监督学习205<br />8.3.8 Vision Transformer207<br />8.3.9 Swin Transformer208<br />8.4 使用PyTorch实现Transformer213<br />8.4.1 Transformer背景介绍214<br />8.4.2 构建EncoderDecoder214<br />8.4.3 构建编码器215<br />8.4.4 构建解码器218&
这是一本能指导读者快速掌握PyTorch和深度学习的著作,从PyTorch的原理到应用,从深度学习到强化学习,本书提供了全栈解决方案。<br />第1版上市后销量和口碑俱佳,是深度学习领域的畅销书,被誉为PyTorch领域的标准著作。第2版在第1版的基础上,去芜存菁,与时具进,根据PyTorch新版本全面升级,技术性、实战性、针对性、丰富性、易读性均得到了进一步提升,必定能帮助读者更轻松、更高效地进入深度学习的世界。<br />全书一共19章,在结构上分为三大部分:<br />第1部分(第1~4章) PyTorch基础<br />首先有针对性地讲解了Python和PyTorch的基石NumPy中的关键知识,然后详细讲解了PyTorch的基础知识、神经网络工具箱和数据处理工具箱等内容,帮助读者快速了解和掌握PyTorch。<br />第二部分(第5~10章) 深度学习基础<br />依次讲解了机器学习、视觉处理、自然语言处理、注意力机制、目标检测、语义分割、生成式深度学习等机器学习和深度学习的核心技术的原理和使用。<br />第三部分(第11~17章) 深度学习实践<br />通过实战案例的方式,详细讲解了PyTorch在人脸检测和识别、迁移学习、中英文互译、图像分类、语义分割、生成式网络、对抗攻击等领域的应用和解决方案。<br />第四部分(第18-19章) 强化学习<br />重点介绍了强化学习和深度强化学习的基础理论、常用算法及相关实例。<br />更为重要的是,为了让本书通俗易懂,在内容安排和写作方式上也颇花了一番心思。内容选择上,广泛涉猎、重点突出、注重实战;内容安排上,实例切入、由浅入深、循序渐进;表达形式上,深度抽象、化繁为简、用图说话。<br />
(1)作者经验丰富:核心作者在大数据和人工智能领域有着超过20年的工作经验,实战经验非常丰富,其他几位作者也在大数据和人工智能领域颇有造诣。 (2)畅销书全面升级:第1版销量和口碑俱佳,是深度学习领域的畅销书,第2版根据PyTorch新版本升级,技术性、实战性、针对性、易读性进一步提升。 (3)PyTorch领域事实标准:因为内容扎实、可读性强,第1版被读者誉为PyTorch领域的标准著作,是读者的优选。 (4)深度学习双子星:本书是《Python深度学习:基于TensorFlow(第2版)》的姊妹篇,这两本书均是深度学习领域的畅销书。 (5)精心谋划、通俗易懂:本书在内容的选择、安排和表现形式上精心谋划,目的是确保高质量内容的同时,让深度学习的学习门槛大大降低。
亲,大宗购物请点击企业用户渠道>小苏的服务会更贴心!
亲,很抱歉,您购买的宝贝销售异常火爆让小苏措手不及,请稍后再试~
非常抱歉,您前期未参加预订活动,
无法支付尾款哦!
抱歉,您暂无任性付资格