返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 店 高效深度学习 模型压缩与设计 高效模型压缩和模型设计方法 定制化硬件加速器设计 大语言模型加速压缩书
  • 新商品上架
    • 作者: 汪玉,宁雪妃著 | 无编
    • 出版社: 电子工业出版社
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    句字图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 汪玉,宁雪妃著| 无编
    • 出版社:电子工业出版社
    • 页数:无
    • ISBN:9787121480591
    • 版权提供:电子工业出版社

    内容介绍

    本书系统地介绍了高效模型压缩和模型设计的方法,在编写上兼顾理论和实践。本书主体部分详细介绍了模型压缩的方法论,包括高效模块设计、模型剪枝、模型量化、模型二值化、神经网络架构搜索、知识蒸馏几大部分。另外,简要介绍了定制化硬件加速器的设计及大语言模型的加速和压缩。


    目录

    *1 部分基础

    1 绪论 2

    1.1 神经网络技术的发展 2

    1.2 神经网络的高效化需求 3

    1.3 神经网络的高效化路径 4

    1.4 本书主要内容 6

    2 基础知识 7

    2.1 优化问题 7

    2.1.1 优化问题的定义和分类 7

    2.1.2 优化方法的分类 9

    2.2 卷积神经网络模型 10

    2.2.1 基础模块 10

    2.2.2 代表性模型介绍 13

    2.3 视觉Transformer 模型 15

    2.3.1 基础模块 16

    2.3.2 模型分类与总结 18

    *2 部分高效模型压缩方法论

    3 高效模块设计 20

    3.1 概述 20

    3.2 代表性模型介绍 21

    3.2.1 SqueezeNet 21

    3.2.2 MobileNet 系列 22

    3.2.3 ShuffleNet 系列 24

    3.2.4 GhostNet 26

    3.2.5 ConvNeXt 27

    3.2.6 VoVNet 系列 28

    3.2.7 RepVGG 29

    3.3 高效模块的5 个设计维度 30

    3.4 本章小结 31

    4 模型剪枝 32

    4.1 模型剪枝的定义和分类 32

    4.2 模型敏感度分析方法 34

    4.2.1 层内和层间敏感度分析 34

    4.2.2 层内敏感度分析指标 35

    4.3 结构化剪枝方法 37

    4.3.1 基于权重正则的结构化剪枝方法 37

    4.3.2 基于搜索的结构化剪枝方法 39

    4.3.3 给定资源限制的条件下的结构化剪枝方法 44

    4.4 近似低秩分解方法 47

    4.5 非结构化剪枝方法 48

    4.6 半结构化剪枝方法 51

    4.7 针对激活值的剪枝方法 53

    4.8 剪枝方法的经验性选择 55

    4.8.1 剪枝流程的选择 55

    4.8.2 剪枝稀疏模式的选择 56

    4.8.3 关于任务性能的经验 56

    4.9 Group Lasso 结构化剪枝的实践案例 57

    4.10 本章小结 60

    5 模型量化 61

    5.1 模型量化的定义和分类 61

    5.2 模型量化过程和量化推理过程 64

    5.3 量化格式和操作 65

    5.3.1 均匀量化格式 66

    5.3.2 非均匀量化格式 68

    5.3.3 三种量化操作 71

    5.4 量化参数 73

    5.4.1 缩放系数 73

    5.4.2 零点位置 74

    5.4.3 量化位宽 74

    5.5 训练后量化75

    5.5.1 训练后量化的流程 75

    5.5.2 重参数化 76

    5.5.3 缩放系数的选取方法 80

    5.5.4 量化值调整 83

    5.6 量化感知训练 87

    5.6.1 基础与流程 87

    5.6.2 调整模型架构的方法 90

    5.6.3 量化器设计的技巧 92

    5.6.4 常用的训练技巧 97

    5.7 混合位宽量化 97

    5.7.1 基于敏感度指标的混合位宽量化 97

    5.7.2 基于搜索的混合位宽量化 99

    5.8 量化方法的经验性选择 100

    5.8.1 量化流程的选择 100

    5.8.2 数据表示的设计和决定 100

    5.8.3 算子的选择与处理和计算图的调整 102

    5.8.4 关于任务性能的经验 104

    5.9 拓展:低比特推理硬件实现 104

    5.9.1 定点计算的硬件效率 104

    5.9.2 浮点计算转定点计算的原理 105

    5.9.3 非均匀量化格式的计算 111

    5.9.4 典型的计算单元和加速器架构 112

    5.10 拓展:低比特训练简介 115

    5.10.1 应用背景 115

    5.10.2 挑战分析 116

    5.10.3 相关工作 116

    5.11 本章小结 117

    6 模型二值化 118

    6.1 模型二值化的定义和分类 118

    6.2 模型二值化的基础:以XNOR-Net 为例 120

    6.3 二值化方式 122

    6.3.1 朴素二值化方式 123

    6.3.2 间接二值化方式 127

    6.4 训练技巧 131

    6.4.1 修改损失函数 132

    6.4.2 降低梯度估计误差 133

    6.4.3 多阶段的训练方法 135

    6.4.4 训练经验 136

    6.5 架构设计 137

    6.5.1 模型架构的调整 138

    6.5.2 模型架构搜索 141

    6.5.3 集成方法与动态模型 142

    6.6 模型二值化在其他任务与架构中的应用 142

    6.7 本章小结 144

    7 神经网络架构搜索146

    7.1 神经网络架构搜索的定义和分类 146

    7.2 搜索空间 149

    7.2.1 人工设计搜索空间 150

    7.2.2 自动设计搜索空间 154

    7.2.3 总结 156

    7.3 搜索策略 157

    7.3.1 基于强化学习的搜索策略 157

    7.3.2 基于进化算法的搜索策略 159

    7.3.3 随机搜索策略 160

    7.3.4 基于架构性能预测器的搜索策略 160

    7.3.5 总结 164

    7.4 评估策略 165

    7.4.1 独立训练策略 166

    7.4.2 基于权重共享的单次评估策略 167

    7.4.3 基于权重生成的单次评估策略 172

    7.4.4 零次评估策略 172

    7.5 可微分神经网络架构搜索 175

    7.5.1 连续松弛方法 175

    7.5.2 优化方法 176

    7.5.3 搜索坍缩问题 177

    7.5.4 更高效的可微分搜索算法 179

    7.6 考虑硬件效率的神经网络架构搜索 180

    7.6.1 考虑硬件效率的搜索空间设计 181

    7.6.2 硬件效率指标的加速评估方法 182

    7.6.3 考虑多种硬件效率目标的搜索策略 184

    7.6.4 面向多种硬件设备及约束的神经网络架构搜索方法 186

    7.7 本章小结 188

    8 知识蒸馏 190

    8.1 知识蒸馏的定义和分类 190

    8.2 知识类型和知识分量:“学什么”  192

    8.2.1 基于响应的知识 192

    8.2.2 基于特征的知识 194

    8.2.3 基于关系的知识 197

    8.3 知识来源:“向谁学” 199

    8.3.1 离线蒸馏 199

    8.3.2 互学习 199

    8.3.3 自蒸馏200

    8.4 本章小结 201

    第3 部分拓展和前沿

    9 相关领域:高效灵活的AI 推理硬件

    和系统 203

    9.1 概述 203

    9.2 硬件加速器设计和软硬件协同优化 204

    9.2.1 从CPU 到硬件加速器 204

    9.2.2 AI 加速器中的软硬件协同优化 206

    9.2.3 Roofline 分析模型 207

    9.2.4 基于指令集的AI 加速器 210

    9.3 神经网络计算资源虚拟化 211

    9.3.1 虚拟化的概念 211

    9.3.2 AI 加速器的时分复用与空分复用虚拟化 212

    9.3.3 相关工作简介 214

    9.4 本章小结 215

    10 前沿应用:大语言模型的加速和压缩 218

    10.1 大语言模型的发展 218

    10.2 大语言模型的架构和推理过程 219

    10.3 大语言模型的高效性分析 220

    10.3.1 效率瓶颈 220

    10.3.2 优化路径 221

    10.4 典型的大语言模型的压缩方法:量化 223

    10.5 本章小结 226

    后记 227

    参考文献 229



    作者介绍

    汪玉,清华大学电子工程系长聘教授、系主任,IEEE Fellow,国家自然科学基金杰出青年基金获得者,清华大学信息科学技术学院副院长,清华大学天津电子信息研究院院长。长期从事智能芯片、高能效电路与系统的研究,曾获得4次国际学术会议*佳论文奖及12次*佳论文提名。曾获CCF科学技术奖技术发明一等奖、国际设计自动化会议40岁以下创新者奖、CCF青竹奖等荣誉。

    宁雪妃,清华大学电子工程系助理研究员,师从汪玉教授。主要研究方向为深度学习模型压缩和设计技术。在NeurIPS、ICLR、ICML、CVPR、ICCV、ECCV、TPAMI等国际会议和期刊上发表学术论文10余篇。

    1
    • 商品详情
    • 内容简介

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购