返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 醉染图书Python深度学习算法实践()(英文版)9787564189693
  • 正版全新
    • 作者: (印)苏达桑·拉维尚迪兰著 | (印)苏达桑·拉维尚迪兰编 | (印)苏达桑·拉维尚迪兰译 | (印)苏达桑·拉维尚迪兰绘
    • 出版社: 东南大学出版社
    • 出版时间:2020-08-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    醉染图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    新春将至,本公司假期时间为:2025年1月23日至2025年2月7日。2月8日订单陆续发货,期间带来不便,敬请谅解!

    商品参数
    • 作者: (印)苏达桑·拉维尚迪兰著| (印)苏达桑·拉维尚迪兰编| (印)苏达桑·拉维尚迪兰译| (印)苏达桑·拉维尚迪兰绘
    • 出版社:东南大学出版社
    • 出版时间:2020-08-01
    • 版次:1
    • 印次:1
    • 字数:627000
    • 页数:493
    • 开本:16开
    • ISBN:9787564189693
    • 版权提供:东南大学出版社
    • 作者:(印)苏达桑·拉维尚迪兰
    • 著:(印)苏达桑·拉维尚迪兰
    • 装帧:平装
    • 印次:1
    • 定价:119.00
    • ISBN:9787564189693
    • 出版社:东南大学出版社
    • 开本:16开
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2020-08-01
    • 页数:493
    • 外部编号:1202113359
    • 版次:1
    • 成品尺寸:暂无

    Preface
    Section 1" Getting Started with Deep Learning
    Chapter 1: Introduction to Deep Learning
    What is deep learning?
    Biological and artifi neurons
    ANN and its layers
    Input layer
    Hidden layer
    Output layer
    Exploring activation functions
    The sigmoid function
    The tanh function
    The Rectified Linear Unit function
    The leaky ReLU function
    The Exponential linear unit function
    The Swish function
    The softmax function
    Forward propagation in ANN
    How does ANN learn?
    Debugging gradient descent with gradient checking
    Putting illtgether
    Building a neural network from scratch
    Summary
    estions
    Further reading
    Chapter 2: Getting to Know TensorFIow
    What is TensorFIow?
    Understanding computational graphs and sessions
    Sessions
    Variables, constants, and placeholders
    Variables
    Constants
    Placeholders and feed dictionaries
    Introducing TensorBoard
    Creating a name scope
    Handwritten digit classification using TensorFIow
    Importing the required libraries
    Loading the dataset
    Defining the number of neurons in each layer
    Defining placeholders
    Forward propagation
    Computing loss and backpropagation
    Computing accuracy
    Creating summary
    Training the model
    Visualizing graphs in TensorBoard
    Introducing eager execution
    Math oraios in TensorFIow
    TensorFIow 2.0 and Keras
    Bonjour Keras
    Defining the model
    Defining a sequential model
    Defining a functional model
    Compiling the model
    Training the model
    Evaluating the model
    MNIST digit classification using TensorFIow 2.0
    Should we use Keras or TensorFIow?
    Summary
    estions
    Further reading
    Section 2: Fundamental Deep Learning Algorithms
    Chapter 3: Gradient Descent and Its Variants
    Demystifying gradient descent
    Performing gradient descent in regression "
    Importing the libraries
    Preparing the dataset
    Defining the loss function
    Computing the gradients of the loss function
    Updating the model parameters
    Gradient descent versus stochastic gradient descent
    Momentum-based gradient descent
    Gradient descent with momentum
    Nesterov accelerated gradient
    Adaptive methods of gradient descent
    Setting a learning rate adaptively using Adagrad
    Doing away with the learning rate using Adadelta
    Overcoming the limitations of Adagrad using RMSProp
    Adaptive moment estimation
    Adamax - Adam based on infinity-norm
    Adaptive moment estimation with AMSGrad
    ……
    Section 3 Advanced Deep Learning Algorithms

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购