返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • [正版]出版社扩散模型从原理到实战 AIGC技术与应用 原理 扩散模型退化 采样 DDIM反转 ControlNet与音
  • 官方正版 出版社直发
    • 作者: 李忻玮等著 | 无编
    • 出版社: 人民邮电出版社
    • 出版时间:2023-08
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    友一个图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 李忻玮等著| 无编
    • 出版社:人民邮电出版社
    • 出版时间:2023-08
    • 页数:无
    • ISBN:9783499659168
    • 版权提供:人民邮电出版社

             店铺公告

      为保障消费者合理购买需求及公平交易机会,避免因非生活消费目的的购买货囤积商品,抬价转售等违法行为发生,店铺有权对异常订单不发货且不进行赔付。异常订单:包括但不限于相同用户ID批量下单,同一用户(指不同用户ID,存在相同/临近/虚构收货地址,或相同联系号码,收件人,同账户付款人等情形的)批量下单(一次性大于5本),以及其他非消费目的的交易订单。

    温馨提示:请务必当着快递员面开箱验货,如发现破损,请立即拍照拒收,如验货有问题请及时联系在线客服处理,(如开箱验货时发现破损,所产生运费由我司承担,一经签收即为货物完好,如果您未开箱验货,一切损失就需要由买家承担,所以请买家一定要仔细验货),

    关于退货运费:对于下单后且物流已发货货品在途的状态下,原则上均不接受退货申请,如顾客原因退货需要承担来回运费,如因产品质量问题(非破损问题)可在签收后,联系在线客服。

      本店存在书、古旧书、收藏书、二手书等特殊商品,因受采购成本限制,可能高于定价销售,明码标价,介意者勿拍!

    1.书籍因稀缺可能导致售价高于定价,图书实际定价参见下方详情内基本信息,请买家看清楚且明确后再拍,避免价格争议!

    2.店铺无纸质均开具电子,请联系客服开具电子版

     


    商品参数


    内容介绍

    AIGC的应用领域日益广泛,而在图像生成领域,扩散模型则是AIGC技术的一个重要应用。本书以扩散模型理论知识为切入点,由浅入深地介绍了扩散模型的相关知识,并以大量生动有趣的实战案例帮助读者理解扩散模型的相关细节。全书共8章,详细介绍了扩散模型的原理,以及扩散模型退化、采样、DDIM反转等重要概念与方法,此外还介绍了Stable Diffusion、ControlNet与音频扩散模型等内容。*,附录提供由扩散模型生成的高质量图像集以及Hugging Face社区的相关资源。

      本书既适合所有对扩散模型感兴趣的AI研究人员、相关科研人员以及在工作中有绘图需求的从业人员阅读,也可以作为计算机等相关专业学生的参考书。



    目录

    第 1章 扩散模型简介 1

    1.1 扩散模型的原理 1

    1.1.1 生成模型 1

    1.1.2 扩散过程 2

    1.2 扩散模型的发展 5

    1.2.1 开始扩散:基础扩散模型的提出与改进 6

    1.2.2 加速生成:采样器 6

    1.2.3 刷新纪录:基于显式分类器引导的扩散模型 7

    1.2.4 引爆网络:基于CLIP的多模态图像生成 8

    1.2.5 再次“出圈”:大模型的“再学习”方法——DreamBooth、LoRA和ControlNet 8

    1.2.6 开启AI作画时代:众多商业公司提出成熟的图像生成解决方案 10

    1.3 扩散模型的应用 12

    1.3.1 计算机视觉  12

    1.3.2 时序数据预测 14

    1.3.3 自然语言 15

    1.3.4 基于文本的多模态 16

    1.3.5 AI基础科学 19

    第 2章 Hugging Face简介 21

    2.1 Hugging Face核心功能介绍 21

    2.2 Hugging Face开源库 28

    2.3 Gradio工具介绍 30

    第3章 从*开始搭建扩散模型 33

    3.1 环境准备 33

    3.1.1 环境的创建与导入 33

    3.1.2 数据集测试 34

    3.2 扩散模型之退化过程 34

    3.3 扩散模型之训练 36

    3.3.1  UNet网络 36

    3.3.2 开始训练模型 38

    3.4 扩散模型之采样过程 41

    3.4.1 采样过程 41

    3.4.2 与DDPM的区别 44

    3.4.3 UNet2DModel模型 44

    3.5 扩散模型之退化过程示例 57

    3.5.1 退化过程 57

    3.5.2 *终的训练目标 59

    3.6 拓展知识 60

    3.6.1 时间步的调节 60

    3.6.2 采样(取样)的关键问题 61

    3.7 本章小结 61

    第4章 Diffusers实战 62

    4.1 环境准备 62

    4.1.1 安装Diffusers库 62

    4.1.2 DreamBooth 64

    4.1.3 Diffusers核心API 66

    4.2 实战:生成美丽的蝴蝶图像 67

    4.2.1 下载蝴蝶图像集 67

    4.2.2 扩散模型之调度器 69

    4.2.3 定义扩散模型 70

    4.2.4 创建扩散模型训练循环 72

    4.2.5 图像的生成 75

    4.3 拓展知识 77

    4.3.1 将模型上传到Hugging Face Hub  77

    4.3.2 使用Accelerate库扩大训练模型的规模 79

    4.4 本章小结 81

    第5章 微调和引导 83

    5.1 环境准备 86

    5.2 载入一个预训练过的管线 87

    5.3 DDIM——更快的采样过程 88

    5.4 扩散模型之微调 91

    5.4.1 实战:微调 91

    5.4.2 使用一个*小化示例程序来微调模型 96

    5.4.3 保存和载入微调过的管线 97

    5.5 扩散模型之引导 98

    5.5.1 实战:引导 100

    5.5.2 CLIP引导 104

    5.6 分享你的自定义采样训练 108

    5.7 实战:创建一个类别条件扩散模型 111

    5.7.1 配置和数据准备 111

    5.7.2 创建一个以类别为条件的UNet模型 112

    5.7.3 训练和采样 114

    5.8 本章小结 117

    第6章 Stable Diffusion 118

    6.1 基本概念 118

    6.1.1 隐式扩散 118

    6.1.2 以文本为生成条件 119

    6.1.3 无分类器引导 121

    6.1.4 其他类型的条件生成模型:Img2Img、Inpainting与Depth2Img模型  122

    6.1.5 使用DreamBooth进行微调 123

    6.2 环境准备 124

    6.3 从文本生成图像 125

    6.4 Stable Diffusion Pipeline 128

    6.4.1 可变分自编码器 128

    6.4.2 分词器和文本编码器 129

    6.4.3 UNet 131

    6.4.4 调度器 132

    6.4.5 DIY采样循环 134

    6.5 其他管线介绍 136

    6.5.1 Img2Img 136

    6.5.2 Inpainting 138

    6.5.3 Depth2Image 139

    6.6 本章小结 140

    第7章 DDIM反转 141

    7.1 实战:反转 141

    7.1.1 配置 141

    7.1.2 载入一个预训练过的管线 142

    7.1.3 DDIM采样 143

    7.1.4 反转 147

    7.2 组合封装 153

    7.3 ControlNet的结构与训练过程 158

    7.4 ControlNet示例 162

    7.4.1 ControlNet与Canny Edge 162

    7.4.2 ControlNet与M-LSD Lines 162

    7.4.3 ControlNet与HED Boundary 163

    7.4.4 ControlNet与涂鸦画 164

    7.4.5 ControlNet与人体关键点 164

    7.4.6 ControlNet与语义分割 164

    7.5 ControlNet实战 165

    7.6 本章小结 174

    第8章 音频扩散模型 175

    8.1 实战:音频扩散模型 175

    8.1.1 设置与导入 175

    8.1.2 在预训练的音频扩散模型管线中进行采样 176

    8.1.3 从音频到频谱的转换 177

    8.1.4 微调管线 180

    8.1.5 训练循环 183

    8.2 将模型上传到Hugging Face Hub 186

    8.3 本章小结 187

    附录A 精美图像集展示 188

    附录B Hugging Face相关资源 202



    作者介绍

    李忻玮,硕士毕业于美国常春藤盟校之一的哥伦比亚大学数据科学专业,现任声网人工智能算法工程师;主要研究方向是生成式人工智能、计算机视觉、自然语言处理、

    提示工程等。


    苏步升,扩散模型算法工程师,AIGC创业者,Hugging Face中国社区本地化工作组成员。


    徐浩然,毕业于中国海洋大学电子信息工程专业,现任声网音频算法工程师,从事扬声器声学设计、音频增强算法、音频质量评估算法等研究工作。


    余海铭,本科毕业于暨南大学,硕士毕业于加州大学尔湾分校;先后在中国科学院深圳先进技术研究院、爱奇艺、美团等单位工作;主要研究方向是图像识别、图像生成、

    多模态及自动驾驶等领域。


    1
    • 商品详情
    • 内容简介

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购