返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:

  • 深入浅出Embedding 原理解析与应用实践 吴茂贵,王红星 著 专业科技 文轩网
  • 新华书店正版
    • 作者: 吴茂贵,王红星著
    • 出版社: 机械工业出版社
    • 出版时间:2021-06-01 00:00:00
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    文轩网图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

         https://product.suning.com/0070067633/11555288247.html

     

    商品参数
    • 作者: 吴茂贵,王红星著
    • 出版社:机械工业出版社
    • 出版时间:2021-06-01 00:00:00
    • 版次:1
    • 印次:1
    • 印刷时间:2021-06-01
    • 字数:192
    • 页数:320
    • 开本:16开
    • 装帧:平装
    • ISBN:9787111680642
    • 国别/地区:中国
    • 版权提供:机械工业出版社

    深入浅出Embedding 原理解析与应用实践

    作  者:吴茂贵,王红星 著
    定  价:99
    出 版 社:机械工业出版社
    出版日期:2021年06月01日
    页  数:320
    装  帧:平装
    ISBN:9787111680642
    主编推荐

    (1)作者背景资深:作者是有20余年从业经验的AI技术专家和高级数据科学家。(2)豪华专家阵容:黄铁军(中国人工智能学会会士/北京智源人工智能研究院院长)、周明(创新工场首席科学家/中国计算机学会副理事长)。(3)内容系统全面:系统讲解了Embedding的基础、技术、原理、方法和性能优化。(4)注重实操:详细列举和分析Embedding在机器学习性能提升、中英文翻译、推荐系统等6个重要场景的应用实践。(5)学习门槛低:秉承复杂问题简单化原则,避免艰涩难懂数学公式,尽可能采用可视化的表达方式,内容循序渐进。

    内容简介

    这是一本系统、全面、理论与实践相结合的Embedding技术指南,由资深的AI技术专家和高级数据科学家撰写,得到了黄铁军、韦青、张峥、周明等中国人工智能领域的领军人物的一致好评和推荐。 在内容方面,本书理论与实操兼顾,一方面系统讲解了Embedding的基础、技术、原理、方法和性能优化,一方面详细列举和分析了Embedding在机器学习性能提升、中英文翻译、推荐系统等6个重要场景的应用实践;在写作方式上,秉承复杂问题简单化的原则,尽量避免复杂的数学公式,尽量采用可视化的表达方式,旨在降低本书的学习门槛,让读者能看得完、学得会。全书一共16章,分为两个部分。第1部分(第1~9章)Embedding理论知识主要讲解Embedding的基础知识、原理以及如何让Embedding落地的相关技术,如TensorFlow和PyTorch中的Embedding层、CNN算法、RNN算法、迁移学习null

    作者简介

    作者简介
    吴茂贵
    资深大数据和人工智能技术专家,在BI、数据挖掘与分析、数据仓库、机器学习等领域工作超过20年。在基于Spark、TensorFlow、PyTorch、Keras等的机器学习和深度学习方面有大量的工程实践实践,对Embedding有深入研究。
    著有《深度实践Spark机器学习》《Python深度学习:基于TensorFlow》《Python深度学习:基于Pytorch》等多部著作,广受读者好评。
    王红星
    ?高级数据科学家,任职于博世(中国)投资有限公司苏州分公司,负责BOSCH数据湖,数据分析与人工智能相关的产品与服务的设计和开发。在大数据、机器学习、人工智能方面有丰富的实践经验。

    精彩内容

    目录
    前言
    第一部分 Embedding基础知识
    第1章 万物皆可嵌入
    1.1 处理序列问题的一般步骤
    1.2 Word Embedding
    1.2.1 word2vec之前
    1.2.2 CBOW模型
    1.2.3 Skip-Gram模型
    1.2.4 可视化Skip-Gram模型实现过程
    1.2.5 Hierarchical Softmax优化
    1.2.6 Negative Sampling优化
    1.3 Item Embedding
    1.3.1 微软推荐系统使用Item Embedding
    1.3.2 Airbnb推荐系统使用Item Embedding
    1.4 用Embedding处理分类特征
    1.5 Graph Embedding
    1.5.1 DeepWalk方法
    1.5.2 LINE方法
    1.5.3 node2vec方法
    1.5.4 Graph Embedding在阿里的应用
    1.5.5 知识图谱助力推荐系统实例
    1.6 Contextual Word Embedding
    1.6.1 多种预训练模型概述
    1.6.2 多种预训练模型的发展脉络
    1.6.3 各种预训练模型的优缺点
    1.6.4 常用预训练模型
    1.6.5 Transformer的应用
    1.7 使用Word Embedding实现中文自动摘要
    1.7.1 背景说明
    1.7.2 预处理中文语料库
    1.7.3 生成词向量
    1.7.4 把文档的词转换为词向量
    1.7.5 生成各主题的关键词
    1.7.6 查看运行结果
    1.8 小结
    第2章 获取Embedding的方法
    2.1 使用PyTorch的Embedding Layer
    2.1.1 语法格式
    2.1.2 简单实例
    2.1.3 初始化
    2.2 使用TensorFlow 2.0的Embedding Layer
    2.2.1 语法格式
    2.2.2 简单实例
    2.3 从预训练模型获取Embedding
    2.3.1 背景说明
    2.3.2 下载IMDB数据集
    2.3.3 进行分词
    2.3.4 下载并预处理GloVe词嵌入
    2.3.5 构建模型
    2.3.6 训练模型
    2.3.7 可视化训练结果
    2.3.8 不使用预训练词嵌入的情况
    2.4 小结
    第3章 计算机视觉处理
    3.1 卷积神经网络
    3.1.1 卷积网络的一般架构
    3.1.2 增加通道的魅力
    3.1.3 加深网络的动机
    3.1.4 残差连接
    3.2 使用预训练模型
    3.2.1 迁移学习简介
    3.2.2 使用预训练模型的方法
    3.3 获取预训练模型
    3.4 使用PyTorch实现数据迁移实例
    3.4.1 特征提取实例
    3.4.2 微调实例
    3.5 小结
    第4章 文本及序列处理
    4.1 循环网络的基本结构
    4.1.1 标准循环神经网络
    4.1.2 深度循环神经网络
    4.1.3 LSTM网络结构
    4.1.4 GRU网络结构
    4.1.5 双向循环神经网络
    4.2 构建一些特殊模型
    4.2.1 Encoder-Decoder模型
    4.2.2 Seq2Seq模型
    4.3 小结
    第5章 注意力机制
    5.1 注意力机制概述
    5.1.1 两种常见的注意力机制
    5.1.2 注意力机制的本质
    5.2 带注意力机制的Encoder-Decoder模型
    5.2.1 引入注意力机制
    5.2.2 计算注意力分配值
    5.2.3 使用PyTorch实现带注意力机制的Encoder-Decoder模型
    5.3 可视化Transformer
    5.3.1 Transformer的顶层设计
    5.3.2 Encoder与Decoder的输入
    5.3.3 高并发长记忆的实现
    5.3.4 为加深Transformer网络层保驾护航的几种方法
    5.3.5 如何自监督学习
    5.4 使用PyTorch实现Transformer
    5.4.1 Transformer背景介绍
    5.4.2 构建Encoder-Decoder模型
    5.4.3 构建Encoder
    5.4.4 构建Decoder
    5.4.5 构建MultiHeadedAttention
    5.4.6 构建前馈网络层
    5.4.7 预处理输入数据
    5.4.8 构建完整网络
    5.4.9 训练模型
    5.4.10 实现一个简单实例
    5.5 Transformer-XL
    5.5.1 引入循环机制
    5.5.2 使用相对位置编码
    5.5.3 Transformer-XL计算过程
    5.6 使用PyTorch构建Transformer-XL
    5.6.1 构建单个Head Attention
    5.6.2 构建MultiHeadAttention
    5.6.3 构建Decoder
    5.7 Reformer
    5.7.1 使用局部敏感哈希
    5.7.2 使用可逆残差网络
    5.8 小结
    第6章 从Word Embedding到ELMo
    6.1 从word2vec到ELMo
    6.2 可视化ELMo原理
    6.2.1 字符编码层
    6.2.2 双向语言模型
    6.2.3 生成ELMo词嵌入
    6.3 小结
    第7章 从ELMo到BERT和GPT
    7.1 ELMo的优缺点
    7.2 可视化BERT原理
    7.2.1 BERT的整体架构
    7.2.2 BERT的输入
    7.2.3 掩码语言模型
    7.2.4 预测下一个句子
    7.2.5 微调
    7.2.6 使用特征提取方法
    7.3 使用PyTorch实现BERT
    7.3.1 BERTEmbedding类的代码
    7.3.2 TransformerBlock类的代码
    7.3.3 构建BERT的代码
    7.4 可视化GPT原理
    7.4.1 GPT简介
    7.4.2 GPT的整体架构
    7.4.3 GPT的模型结构
    7.4.4 GPT-2的Multi-Head与BERT的Multi-Head之间的区别
    7.4.5 GPT-2的输入
    7.4.6 GPT-2计算遮掩自注意力的详细过程
    7.4.7 输出
    7.4.8 GPT与GPT-2的异同
    7.5 GPT-3简介
    7.6 小结
    第8章 BERT的优化方法
    8.1 可视化XLNet原理
    8.1.1 排列语言模型简介
    8.1.2 使用双流自注意力机制
    8.1.3 融入Transformer-XL的理念
    8.1.4 改进后的效果
    8.2 ALBERT方法
    8.2.1 分解Vocabulary Embedding矩阵
    8.2.2 跨层共享参数
    8.2.3 用SOP代替NSP方法
    8.2.4 其他优化方法
    8.3 ELECTRA方法
    8.3.1 ELECTRA概述
    8.3.2 RTD结构
    8.3.3 损失函数
    8.3.4 ELECTRA与GAN的异同
    8.3.5 评估
    8.4 小结
    第9章 推荐系统
    9.1 推荐系统概述
    9.1.1 推荐系统的一般流程
    9.1.2 常用推荐算法
    9.2 协同过滤
    9.2.1 基于用户的协同过滤
    9.2.2 基于物品的协同过滤
    9.3 深度学习在推荐系统中的应用
    9.3.1 协同过滤中与神经网络结合
    9.3.2 融入多层感知机的推荐系统
    9.3.3 融入卷积网络的推荐系统
    9.3.4 融入Transformer的推荐系统
    9.4 小结
    第二部分 Embedding应用实例
    第10章 用Embedding表现分类特征
    10.1 项目背景
    10.1.1 项目概述
    10.1.2 数据集说明
    10.2 TensorFlow 2详细实现
    10.2.1 导入TensorFlow和其他库
    10.2.2 导入数据集并创建dataframe
    10.2.3 将dataframe拆分为训练、验证和测试集
    10.2.4 用tf.data创建输入流水线
    10.2.5 TensorFlow提供的几种处理特征列的方法
    10.2.6 选择特征
    10.2.7 创建网络的输入层
    10.2.8 创建、编译和训练模型
    10.2.9 可视化训练过程
    10.2.10 测试模型
    10.3 小结
    第11章 用Embedding提升机器学习性能
    11.1 项目概述
    11.1.1 数据集简介
    11.1.2 导入数据
    11.1.3 预处理数据
    11.1.4 定义公共函数
    11.2 使用Embedding提升神经网络性能
    11.2.1 基于独热编码的模型
    11.2.2 基于Embedding的模型
    11.3 构建XGBoost模型
    11.4 使用Embedding数据的XGBoost模型
    11.5 可视化Embedding数据
    11.6 小结
    第12章 用Transformer实现英译中
    12.1 TensorFlow 2+实例概述
    12.2 预处理数据
    12.2.1 下载数据
    12.2.2 分割数据
    12.2.3 创建英文语料字典
    12.2.4 创建中文语料字典
    12.2.5 定义编码函数
    12.2.6 过滤数据
    12.2.7 创建训练集和验证集
    12.3 构建Transformer模型
    12.3.1 Transformer模型架构图
    12.3.2 架构说明
    12.3.3 构建scaled_dot_product_attention模块
    12.3.4 构建MultiHeadAttention模块
    12.3.5 构建point_wise_feed_forward_network模块
    12.3.6 构建EncoderLayer模块
    12.3.7 构建Encoder模块
    12.3.8 构建DecoderLayer模块
    12.3.9 构建Decoder模块
    12.3.10 构建Transformer模型
    12.3.11 定义掩码函数
    12.4 定义损失函数
    12.5 定义优化器
    12.6 训练模型
    12.6.1 实例化Transformer
    12.6.2 设置checkpoint
    12.6.3 生成多种掩码
    12.6.4 定义训练模型函数
    12.6.5 训练模型
    12.7 评估预测模型
    12.7.1 定义评估函数
    12.7.2 测试翻译几个简单语句
    12.8 可视化注意力权重
    12.9 小结
    第13章 Embedding技术在推荐系统中的应用
    13.1 Embedding在Airbnb推荐系统中的应用
    13.2 Transformer在阿里推荐系统中的应用
    13.3 BERT在美团推荐系统中的应用
    13.4 小结
    第14章 用BERT实现中文语句分类
    14.1 背景说明
    14.1.1 查看中文BERT字典里的一些信息
    14.1.2 使用tokenizer分割中文语句
    14.2 可视化BERT注意力权重
    14.2.1 BERT对MASK字的预测
    14.2.2 导入可视化需要的库
    14.2.3 可视化
    14.3 用BERT预训练模型微调下游任务
    14.3.1 准备原始文本数据
    14.3.2 将原始文本转换成BERT的输入格式
    14.3.3 定义读取数据的函数
    14.3.4 读取数据并进行数据转换
    14.3.5 增加一个批量维度
    14.3.6 查看一个批次数据样例
    14.3.7 微调BERT完成下游任务
    14.3.8 查看微调后模型的结构
    14.4 训练模型
    14.4.1 定义预测函数
    14.4.2 训练模型
    14.5 测试模型
    14.5.1 用新数据测试模型
    14.5.2 比较微调前后的数据异同
    14.5.3 可视化注意力权重
    14.6 小结
    第15章 用GPT-2生成文本
    15.1 GPT-2概述
    15.2 用GPT-2生成新闻
    15.2.1 定义随机选择函数
    15.2.2 使用预训练模型生成新闻
    15.3 微调GPT-2生成戏剧文本
    15.3.1 读取文件
    15.3.2 对文件进行分词
    15.3.3 把数据集转换为可迭代对象
    15.3.4 训练模型
    15.3.5 使用模型生成文本
    15.4 小结
    第16章 Embedding技术总结
    16.1 Embedding技术回顾
    16.1.1 Embedding表示
    16.1.2 多种学习Embedding表示的算法
    16.1.3 几种Embedding衍生技术
    16.1.4 Embedding技术的不足
    16.2 Embedding技术展望
    16.2.1 从Embedding的表示方面进行优化
    16.2.2 从Embedding的结构上进行优化
    16.3 小结
    附录A 基于GPU的TensorFlow 2+、PyTorch 1+升级安装
    附录B 语言模型

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购