返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 全新正版Spark实战/计算机科学技术译丛9787111617488机械工业
    • 作者: (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵著 | (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵编 | (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵译 | (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵绘
    • 出版社: 机械工业出版社
    • 出版时间:2019-08-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    如梦图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品参数
    • 作者: (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵著| (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵编| (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵译| (美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵绘
    • 出版社:机械工业出版社
    • 出版时间:2019-08-01
    • 版次:1
    • 印次:1
    • 印刷时间:2019-08-01
    • 开本:16开
    • ISBN:9787111617488
    • 版权提供:机械工业出版社
    • 作者:(美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵
    • 著:(美)彼得·泽斯维奇//马可·波纳奇|译者:郑美珠//田华//王佐兵
    • 装帧:暂无
    • 印次:1
    • 定价:99.00
    • ISBN:9787111617488
    • 出版社:机械工业
    • 开本:16开
    • 印刷时间:2019-08-01
    • 语种:暂无
    • 出版时间:2019-08-01
    • 页数:暂无
    • 外部编号:30701308
    • 版次:1
    • 成品尺寸:暂无

    目录
    译者序
    致谢
    前言
    关于本书
    关于作者
    关于封面
    部分 步
    章 Apache Spark介绍
    1.1什么是Spark
    1.1.1 Spark
    1.1.2 MapReduce的缺点
    1.1.3 Spark带来了什么有价值的东西
    1.2 Spark组件
    1.2.1 Spark核心
    1.2.2 Spark SL
    1.. Spark Streaming
    1.2.4 Spark MLlib
    1.2.5 Spark GraphX
    1.3 Spark程序流
    1.4 Spark生态系统
    1.5 建立spark-in-action 虚拟机
    1.5.1下载启动虚拟机
    1.5.2 停止虚拟机
    1.6总结
    第2章 Spark基础
    2.1使用spark-in-action虚拟机
    2.1.1 复制Spark in Action GitHub存储库
    2.1.2 找到java
    2.1.3 用虚拟机的Hadoop安装
    2.1.4 检查虚拟机的Spark安装
    2.2用Spark shell(壳)编写个Spark程序
    2.2.1 启动Spark shell
    2.2.2 个Spark代码示例
    2.. 弹分布式数据集的概念
    .基础RDD行为和转换
    ..1 使用用map转换
    ..2 使用distinct和flatMap 转换
    .. 使用sample、take和takeSample操作获取RDD的元素
    2.4 Double RDD功能
    2.4.1 Double RDD基本统计
    2.4.2 使用直方图可视化数据分布
    2.4.3 近似求和与平均值
    2.5 总结
    第3章 编写Spark应用程序
    3.1在Eclipse上生成一个新的Spark项目
    3.2开发应用程序
    3.2.1 准备 GitHub 档案数据
    3.2.2 加载 JSON
    3.. 从Eclipse运行应用
    3.2.4 数据汇总
    3.2.5 排除非公司员工
    3.2.6 广播变量
    3.2.7 使用整个数据集
    3.3提交应用程序
    3.3.1 建立uberjar
    3.3.2 调整应用程序
    3.3.3 使用spark-submit
    3.4 总结
    第4章 深入Spark API
    4.1使用键值对RDD
    4.1.1 创建键值对RDD
    4.1.2 键值对RDD的基本功能
    4.2了解数据分区和减少数据混排
    4.2.1 使用spark数据分区器
    4.2.2 了解和避免不必要的数据混排
    4.. RDD重新分区
    4.2.4 在分区中映数据
    4.3 连接、排序、分组数据
    4.3.1 连接数据
    4.3.2 数据排序
    4.3.3 数据分组
    4.4 理解RDD依赖
    4.4.1 RDD依赖和Spark执行
    4.4.2 Spark阶段和任务
    4.4.3 使用检查点保存Spark谱系
    4.5 使用累加器和广播变量与spark执行器进行沟通
    4.5.1 使用累加器从执行器获取数据
    4.5.2 使用广播变量将数据发送数据到执行器
    4.6总结
    第二部分 认识Spark家族
    第5章 Spark SL查询
    5.1使用DataFrames
    5.1.1 从RDD创建DataFrames
    5.1.2 DataFrame API 基础知识
    5.1.3 用SL函数执行数据计算
    5.1.4 使用缺失值
    5.1.5 将DataFrames转换为RDD
    5.1.6 分组和连接数据
    5.1.7 执行连接
    5.2DataFrames:引入DataSet
    5.3使用SL命令
    5.3.1 表目录和Hive metastore
    5.3.2 执行SL查询
    5.3.3 通过Thrift服务器连接到Spark SL
    5.4保存并加载DataFrame 数据
    5.4.1 内置数据源
    5.4.2 保存数据
    5.4.3 加载数据
    5.5 Catalyst 优化器
    5.6 Tungsten能改进
    5.7总结
    第6章 使用Spark Streaming提取数据
    6.1编写Spark Streaming应用程序
    6.1.1 介绍示例程序
    6.1.2 创建流上下文
    6.1.3 创建离散流
    6.1.4 使用离散流
    6.1.5 把结果保存到文档
    6.1.6 启动和停止流计算
    6.1.7 随着保存计算状态
    6.1.8 使用窗口操作进行限制计算
    6.1.9 检查内置输入流
    6.2使用外部数据源
    6.2.1 设置kafka
    6.2.2 使用kafka更改流应用程序
    6.3 Spark Streaming任务的能
    6.3.1 获得良好的能
    6.3.2 实现容错
    6.4结构化流
    6.4.1 创建流式DataFrame
    6.4.2 输出流数据
    6.4.3 检查流执行
    6.4.4 结构化流的未来方向
    6.5总结
    第7章 使用MLlib变聪明
    7.1机器学习简介
    7.1.1 机器学习的定义
    7.1.2 机器学习算法分类
    7.1.3 使用Spark进行机器学习
    7.2 Spark中的线代数
    7.2.1 本地向量与矩阵实现
    7.2.2 分布式矩阵
    7.3线回归
    7.3.1 有关线回归
    7.3.2 简单的线回归
    7.3.3 将模型扩展到多元线回归
    7.4分析和准备数据
    7.4.1 分析数据分布
    7.4.2 分析列余弦相似
    7.4.3 协方差矩阵的计算
    7.4.4 转化为标记点
    7.4.5 拆分数据
    7.4.6 特征缩放和平均归一化
    7.5拟合和使用线回归模型
    7.5.1 预测目标值
    7.5.2 评估模型能
    7.5.3 解释模型参数
    7.5.4 加载和保存模型
    7.6调整算法
    7.6.1 找到正确的步长和迭代次数
    7.6.2 添加高阶多项式
    7.6.3 偏差-方差权衡和模型复杂度
    7.6.4 绘制残差图
    7.6.5 利用正则化避免过度拟合
    7.6.6 k折交叉验
    7.7优化线回归
    7.7.1 小批量随机梯度下降
    7.7.2 LBFGS优化
    7.8总结
    八、ML:分类和聚类
    8.1 Spark ML 图书馆
    8.1.1 估计器,变压器和评估器
    8.1.2 ML参数
    8.1.3 ML管道
    8.2逻辑回归
    8.2.1 二元逻辑回归模型
    8.2.2准备数据在Spark中使用逻辑回归
    8.. 训练模型
    8.2.4 评估分类模型
    8.2.5 执行k折交叉验
    8.2.6 多类逻辑回归
    8.3决策树和随机森林
    8.3.1 决策树
    8.3.2 随机森林
    8.4使用k均值聚类
    8.4.1 k均值聚类
    8.5总结
    第9章 使用GraphX连接点
    9.1 Spark图处理
    9.1.1 使用GraphX API构造图
    9.1.2 转换图
    9.2图算法
    9.2.1 数据集的介绍
    9.2.2 短路径算法
    9.. 页面排名
    9.2.4 连通分量
    9.2.5 强连通分量
    9.3实现A *搜索算法
    9.3.1 了解A *搜索算法
    9.3.2 实现A *搜索算法
    9.3.3 测试实现
    9.4总结
    第3部分 Spark ops
    0章 运行Spark
    10.1 Spark的运行时架构概述
    10.1.1 Spark运行组件
    10.1.2 Spark集群类型
    10.2作业与资源调度
    10.2.1 集群资源调度
    10.2.2 Spark作业调度
    10.. 数据局部考虑
    10.2.4 Spark内存调度
    10.3配置Spark
    10.3.1 Spark配置文件
    10.3.2 命令行参数
    10.3.3 系统环境变量
    10.3.4 译编程方式设置配置
    10.3.5 master参数
    10.3.6 查看所有配置的参数
    10.4 Spark Web UI (网络用户界面)
    10.4.1 Jobs(作业)页面
    10.4.2 Stages(阶段)页面
    10.4.3 Storage(存储)页面
    10.4.4 Environment(环境)页面
    10.4.5 Executors(执行器)页面
    10.5在本地机器运行Spark
    10.5.1 本地模式
    10.5.2 本地集群模式
    10.6总结
    1章 在Spark独立集群上运行
    11.1 Spark Standalone集群组件
    11.1.1 启动Stanalone集群
    11.1.2 用shell脚本启动群集
    11.1.3 手动启动集群
    11.1.4 查看Spark进程
    11.1.5 Standalone master高可用和恢复
    11.3 Standalone集群网络用户界面
    11.4 在3Standalone集群中运行应用程序
    11.4.1 驱动器的位置
    11.4.2 指定执行器的数量
    11.4.3 指定额外的类路径和文件
    11.4.4 终止应用程序
    11.4.5 应用程序自动重启
    11.5 Spark历史记录服务器和事件日志记录
    11.6 在Amazon EC2上运行
    11.6.1 先决条件
    11.6.2 创建一个E2C独立集群
    11.6.3 使用E2C集群
    11.6.4 销毁集群
    11.7 总结
    2章 在YARN and Mesos运行
    12.1 在YARN上运行Spark
    12.1.1 YARN架构
    12.1.2 安装配置启动YARN
    12.1.3 YARN中的资源调度
    12.1.4 向YARN提交Spark应用程序
    12.1.5 在YARN上配置Spark
    12.1.6 为Spark工作配置资源
    12.1.7 YARN UI
    12.1.8 在YARN上寻找日志
    12.1.9 安全注意事项
    12.1.10 动态资源分配
    12.2在Mesos上运行Spark
    12.2.1 Mesos架构
    12.2.2 安装配置Mesos
    12.. Mesos Web UI
    12.2.4 Mesos资源调度
    12.2.5 向Mesos提交Spark应用程序
    12.2.6 使用 Docker运行Spark
    1.总结
    第4部分 协同使用
    3章 实例学习:实时仪表盘
    13.1了解用例
    13.1.1 概况
    13.1.2 了解应用程序组件
    13.2 运行应用程序
    13.2.1 在spark-in-action VM中运行应用程序
    13.2.2 手动启动应用程序
    13.3 理解源代码
    13.3.1 KafkaLogsSimulator项目
    13.3.2 Streaming Log Analyzer项目
    13.3.3 Web统计信息显示板项目
    13.3.4 建设项目
    13.4总结
    4章 H20深入学习Spark
    14.1什么是深入学习
    14.2 在Spark中使用H2O和
    14.2.1 什么是H2O
    14.4.2 在Spark中启动Sparkling Water
    14.4.3 启动H2O集群
    14.4.4 访问Flow UI
    14.3 使用H2O的深度学习进行回归
    14.4.3 将数据加载到H2O框架中
    14.4.4 使用Flow UI构建和评估深度学习模型
    14.4.5 使用Sparkling Water API构建和评估深度学习模型
    14.4使用H2O的深度学习进行分类
    14.4.1 加载和拆分数据
    14.4.2 通过Flow UI 建造模型
    14.4.3 通过Sparkling Water API建造模型
    14.4.4 停止H2O集群
    14.5总结
    附录A 安装Apache Spark
    附录B 了解MapReduce
    附录C 线代数基础

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购