返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 全新Python大数据处理库PySpark实战汪明9787302575085
  • 正版
    • 作者: 汪明著 | 汪明编 | 汪明译 | 汪明绘
    • 出版社: 清华大学出版社
    • 出版时间:2021-03-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    萌萌哒图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品参数
    • 作者: 汪明著| 汪明编| 汪明译| 汪明绘
    • 出版社:清华大学出版社
    • 出版时间:2021-03-01
    • 版次:1
    • 印次:1
    • 字数:512000
    • 页数:320
    • 开本:16开
    • ISBN:9787302575085
    • 版权提供:清华大学出版社
    • 作者:汪明
    • 著:汪明
    • 装帧:平装
    • 印次:1
    • 定价:79.00
    • ISBN:9787302575085
    • 出版社:清华大学出版社
    • 开本:16开
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2021-03-01
    • 页数:320
    • 外部编号:1202303177
    • 版次:1
    • 成品尺寸:暂无

    章 大数据时代 1

    1.1 什么是大数据 1

    1.1.1 大数据的特点 2

    1.1.2 大数据的发展趋势 3

    1.2 大数据下的分析工具 4

    1.2.1 Hadoop 5

    1.2.2 Hive 6

    1.. HBase 6

    1.2.4 Apache Phoenix 7

    1.2.5 Apache Drill 7

    1.2.6 Apache Hudi 7

    1.2.7 Apache Kylin 8

    1.2.8 Apache Presto 8

    1.2.9 ClickHouse 8

    1.2.10 Apache Spark 9

    1.2.11 Apache Flink 10

    1.2.12 Apache Storm 10

    1.2.13 Apache Druid 10

    1.2.14 Apache Kafka 11

    1.2.15 TensorFlw 1

    1.2.16 PyTorch 12

    1.2.17 Apache Superset 12

    1.2.18 Elasticsearch 12

    1.2.19 Jupyter Notebook 13

    1.2.20 Apache Zeppelin 13

    1.3 小结 14

    第2章 大数据的瑞士——Spark 15

    2.1 Hadoop与生态系统 15

    2.1.1 Hadoop概述 15

    2.1.2 HDFS体系结构 19

    2.1.3 Hadoop生态系统 20

    2.2 Spark与Hadoop

    2.2.1 Apache Spark概述

    2.2.2 Spark和Hadoop比较 24

    . Spark核心概念 25

    ..1 Spark软件栈 25

    ..2 Spark运行架构 26

    .. Spark部署模式 27

    2.4 Spark基本操作 29

    2.5 SL in Spark 33

    2.6 Spark与机器学习 33

    2.6.1 决策树算法 35

    2.6.2 贝叶斯算法 36

    2.6.3 支持向量机算法 36

    2.6.4 随机森林算法 37

    2.6.5 人工神经网络算法 38

    2.6.6 关联规则算法 39

    2.6.7 线回归算法 40

    2.6.8 KNN算法 40

    2.6.9 K-Means算法 41

    2.7 小结 42

    第3章 Spark实战环境设定 43

    3.1 建立Spark环境前提 43

    3.1.1 CentOS 7安装 45

    3.1.2 FinalShell安装 55

    3.1.3 PuTTY安装 58

    3.1.4 JDK安装 60

    3.1.5 Python安装 63

    3.1.6 Visual Studio Code安装 64

    3.1.7 PyCharm安装 65

    3.2 一分钟建立Spark环境 66

    3.2.1 Linux搭建Spark环境 66

    3.2.2 Windows搭建Spark环境 69

    3.3 建立Hadoop集群 79

    3.3.1 CentOS配置 79

    3.3.2 Hadoop伪分布模式安装 81

    3.3.3 Hadoop完全分布模式安装 87

    3.4 安装与配置Spark集群 93

    3.5 安装与配置Hive 99

    3.5.1 Hive安装 99

    3.5.2 Hive与Spark集成 108

    3.6 打造交互式Spark环境 110

    3.6.1 Spark Shell 111

    3.6.2 PySpark 112

    3.6.3 Jupyter Notebook安装 112

    3.7 小结 118

    第4章 活用PySpark 119

    4.1 Python 语法复习 119

    4.1.1 Python基础语法 120

    4.1.2 Python变量类型 124

    4.1.3 Python运算符 135

    4.1.4 Python控制语句 139

    4.1.5 Python函数 143

    4.1.6 Python模块和包 149

    4.1.7 Python面向对象 154

    4.1.8 Python异常处理 157

    4.1.9 Python JSON处理 159

    4.1.10 Python日期处理 160

    4.2 用PySpark建立个Spark RDD 161

    4.2.1 PySpark Shell 建立RDD 163

    4.2.2 VSCode编程建立RDD 165

    4.. Jupyter 编程建立RDD 167

    4.3 RDD的操作与观察 168

    4.3.1 first操作 169

    4.3.2 max操作 169

    4.3.3 sum操作 170

    4.3.4 take操作 171

    4.3.5 top操作 172

    4.3.6 count操作 172

    4.3.7 collect操作 173

    4.3.8 collectAsMap操作 174

    4.3.9 countByKey操作 175

    4.3.10 countByValue操作 175

    4.3.11 glom操作 176

    4.3.12 coalesce操作 177

    4.3.13 combineByKey操作 178

    4.3.14 distinct操作 179

    4.3.15 filter操作 180

    4.3.16 flatMap操作 181

    4.3.17 flatMapValues操作 181

    4.3.18 fold操作 182

    4.3.19 foldByKey操作 183

    4.3.20 foreach操作 184

    4.3.21 foreachPartition操作 185

    4.3.22 map操作 186

    4.3. mapPartitions操作 187

    4.3.24 mapPartitionsWithIndex操作 187

    4.3.25 mapValues操作 188

    4.3.26 groupBy操作 189

    4.3.27 groupByKey操作 190

    4.3.28 keyBy操作 191

    4.3.29 keys操作 192

    4.3.30 zip操作 193

    4.3.31 zipWithIndex操作 194

    4.3.32 values操作 194

    4.3.33 union操作 195

    4.3.34 takeOrdered操作 196

    4.3.35 takeSample操作 197

    4.3.36 subtract操作 198

    4.3.37 subtractByKey操作 198

    4.3.38 stats操作 199

    4.3.39 sortBy操作 200

    4.3.40 sortByKey操作 201

    4.3.41 sample操作 202

    4.3.42 repartition操作 203

    4.3.43 reduce操作 204

    4.3.44 reduceByKey操作 205

    4.3.45 randomSplit操作 206

    4.3.46 lookup操作 207

    4.3.47 join操作 208

    4.3.48 intersection操作 209

    4.3.49 fullOuterJoin操作 210

    4.3.50 leftOuterJoin与rightOuterJoin操作 211

    4.3.51 aggregate操作 212

    4.3.52 aggregateByKey操作 215

    4.3.53 cartesian操作 217

    4.3.54 cache操作 218

    4.3.55 saveAsTextFile操作 218

    4.4 共享变数 220

    4.4.1 广播变量 220

    4.4.2 累加器 221

    4.5 DataFrames与Spark SL 2

    4.5.1 DataFrame建立 2

    4.5.2 Spark SL基本用法 228

    4.5.3 DataFrame基本操作 1

    4.6 撰写个Spark程序 245

    4.7 提交你的 Spark 程序 246

    4.8 小结 248

    第5章 PySpark ETL 实战 249

    5.1 认识资料单元格式 249

    5.2 观察资料 255

    5.3 选择、筛选与聚合 267

    5.4 存储数据 269

    5.5 Spark存储数据到SL Server 272

    5.6 小结 275

    第6章 PySpark分布式机器学习 276

    6.1 认识数据格式 277

    6.2 描述统计 280

    6.3 资料清理与变形 284

    6.4 认识Pipeline 288

    6.5 逻辑回归原理与应用 290

    6.5.1 逻辑回归基本原理 290

    6.5.2 逻辑回归应用示例:Titanic幸存者预测 291

    6.6 决策树原理与应用 295

    6.6.1 决策树基本原理 295

    6.6.2 决策树应用示例:Titanic幸存者预测 296

    6.7 小结 299

    第7章 实战:PySpark Kafka实时项目 301

    7.1 Kafka和Flask环境搭建 301

    7.2 代码实现 303

    7.3 小结 310

    汪明,硕士,于中国矿业大学,徐州软件协会副理事长,某创业公司合伙人。从事软件行业十余年,发表数十篇。著有图书《TypeScript实战》《Go并发编程实战》。

    PySpark可以对大数据进行分布式处理,降低了大数据的学习门槛。本书是一本PySpark入门教材,重点讲述PySpark安装、PySpark用法、ETL数据处理、PySpark机器学习及其实战,很后给出一个综合实战案例。本书逻辑线索清晰,内容体系合理,适合有一定Python基础的大数据分析和处理人员学习使用。

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购