返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 醉染图书Hadoop指南9787302465133
  • 正版全新
    • 作者: Tom White著 王海,华东,刘喻,吕粤海 译著 | Tom White著 王海,华东,刘喻,吕粤海 译编 | Tom White著 王海,华东,刘喻,吕粤海 译译 | Tom White著 王海,华东,刘喻,吕粤海 译绘
    • 出版社: 清华大学出版社
    • 出版时间:2017-07-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    醉染图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    新春将至,本公司假期时间为:2025年1月23日至2025年2月7日。2月8日订单陆续发货,期间带来不便,敬请谅解!

    商品参数
    • 作者: Tom White著 王海,华东,刘喻,吕粤海 译著| Tom White著 王海,华东,刘喻,吕粤海 译编| Tom White著 王海,华东,刘喻,吕粤海 译译| Tom White著 王海,华东,刘喻,吕粤海 译绘
    • 出版社:清华大学出版社
    • 出版时间:2017-07-01
    • 版次:4
    • 印次:1
    • 字数:594000.0
    • 页数:705
    • ISBN:9787302465133
    • 版权提供:清华大学出版社
    • 作者:Tom White著 王海,华东,刘喻,吕粤海 译
    • 著:Tom White著 王海,华东,刘喻,吕粤海 译
    • 装帧:暂无
    • 印次:1
    • 定价:148.00
    • ISBN:9787302465133
    • 出版社:清华大学出版社
    • 开本:暂无
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2017-07-01
    • 页数:705
    • 外部编号:1201529825
    • 版次:4
    • 成品尺寸:暂无

    第Ⅰ部分 Hadoop基础知识
    章 初识Hadoop 3
    1.1 数据!数据! 3
    1.2 数据的存储与分析 5
    1.3 查询所有数据 6
    1.4 不仅仅是批处理 7
    1.5 相较于系统的优势 8
    1.5.1 关系型数据库管理系统 8
    1.5.2 网格计算 10
    1.5.3 志愿计算 11
    1.6 Apache Hadoop发展简史 12
    1.7 本书包含的内容 16
    第2章 关于MapReduce 19
    2.1 气象数据集 19
    2.2 使用Unix工具来分析数据 21
    . 使用Hadoop来分析数据 22
    ..1 map和reduce
    ..2 Java MapReduce 24
    2.4 横向扩展 31
    2.4.1 数据流 31
    2.4.2 biner函数 35
    2.4.3 运行分布式的MapReduce作业 37
    2.5 Hadoop Streaming 37
    2.5.1 Ruby版本 38
    2.5.2 Python版本 40
    第3章 Hadoop分布式文件系统 42
    3.1 HDFS的设计 42
    3.2 HDFS的概念 44
    3.2.1 数据块 44
    3.2.2 namenode和datanode 45
    3.. 块缓存 46
    3.2.4 联邦HDFS 47
    3.2.5 HDFS的高可用 47
    3.3 命令行接口 50
    3.4 Hadoop文件系统 52
    3.5 Java接口 56
    3.5.1 从Hadoop URL读取数据 56
    3.5.2 通过FileSystem API读取数据 58
    3.5.3 写入数据 61
    3.5.4 目录 63
    3.5.5 查询文件系统 63
    3.5.6 删除数据 68
    3.6 数据流 68
    3.6.1 剖析文件读取 68
    3.6.2 剖析文件写入 71
    3.6.3 一致模型 74
    3.7 通过distcp并行复制 76
    第4章 关于YARN 78
    4.1 剖析YARN应用运行机制 79
    4.1.1 资源请求 80
    4.1.2 应用生命期 81
    4.1.3 构建YARN应用 81
    4.2 YARN与MapReduce 1相比 82
    4.3 YARN中的调度 85
    4.3.1 调度选项 85
    4.3.2 容量调度器配置 87
    4.3.3 公平调度器配置 89
    4.3.5 延迟调度 93
    4.3.5 资源公平 94
    4.4 延伸阅读 95
    第5章 Hadoop的I/O操作 96
    5.1 数据完整 96
    5.1.1 HDFS的数据完整 97
    5.1.2 LocalFileSystem 98
    5.1.3 ChecksumFileSystem 98
    5.2 压缩 99
    5.2.1 codec 100
    5.2.2 压缩和输入分片 105
    5.. 在MapReduce中使用压缩 106
    5.3 序列化 109
    5.3.1 Writable接口 110
    5.3.2 Writable类 112
    5.3.3 实现定制的Writable集合 121
    5.3.4 序列化框架 125
    5.4 基于文件的数据结构 127
    5.4.1 关于SequenceFile 127
    5.4.2 关于MapFile 135
    5.4.3 文件格式和面向列的格式 136
    第Ⅱ部分 关于MapReduce
    第6章 MapReduce应用开发 141
    6.1 用于配置的API 142
    6.1.1 资源合并 143
    6.1.2 变量扩展 144
    6.2 配置开发环境 144
    6.2.1 管理配置 146
    6.2.2 辅类GenericOptionsParser,Tool和ToolRunner 149
    6.3 用MRUnit来写单元测试 152
    6.3.1 关于Mapper 152
    6.3.2 关于Reducer 156
    6.4 本地运行测试数据 156
    6.4.1 在本地作业运行器上运行作业 156
    6.4.2 测试驱动程序 158
    6.5 在集群上运行 160
    6.5.1 打包作业 160
    6.5.2 启动作业 162
    6.5.3 MapReduce的Web界面 165
    6.5.4 获取结果 167
    6.5.5 作业调试 168
    6.5.6 Hadoop日志 171
    6.5.7 远程调试 173
    6.6 作业调优 174
    6.7 MapReduce的工作流 176
    6.7.1 将问题分解成MapReduce作业 177
    6.7.2 关于JobContrl 78
    6.7.3 关于Apache Oozie 179
    第7章 MapReduce的工作机制 184
    7.1 剖析MapReduce作业运行机制 184
    7.1.1 作业的提交 185
    7.1.2 作业的初始化 186
    7.1.3 任务的分配 187
    7.1.4 任务的执行 188
    7.1.5 进度和状态的更新 189
    7.1.6 作业的完成 191
    7.2 失败 191
    7.2.1 任务运行失败 191
    7.2.2 application master运行失败 193
    7.. 节点管理器运行失败 193
    7.2.4 资源管理器运行失败 194
    7.3 shuffle和排序 195
    7.3.1 map端 195
    7.3.2 reduce端 197
    7.3.3 配置调优 199
    7.4 任务的执行 201
    7.4.1 任务执行环境 201
    7.4.2 推测执行 202
    7.4.3 关于OutputCommitters 204
    第8章 MapReduce的类型与格式 207
    8.1 MapReduce的类型 207
    8.1.1 默认的MapReduce作业 212
    8.1.2 默认的Streaming作业 216
    8.2 输入格式 218
    8.2.1 输入分片与记录 218
    8.2.2 文本输入 229
    8.. 二进制输入
    8.2.4 多个输入 4
    8.2.5 数据库输入(和输出) 5
    8.3 输出格式
    8.3.1 文本输出
    8.3.2 二进制输出
    8.3.3 多个输出
    8.3.4 延迟输出 242
    8.3.5 数据库输出 242
    第9章 MapReduce的特 243
    9.1 器 243
    9.1.1 内置器 243
    9.1.2 用户定义的Java器 248
    9.1.3 用户定义的Streaming器 251
    9.2 排序 252
    9.2.1 准备 252
    9.2.2 部分排序 253
    9.. 全排序 255
    9.2.4 辅排序 259
    9.3 连接 264
    9.3.1 map端连接 266
    9.3.2 reduce端连接 266
    9.4 边数据分布 270
    9.4.1 利用JobConf来配置作业 270
    9.4.2 分布式缓存 270
    9.5 MapReduce库类 276
    第Ⅲ部分 Hadoop的作 0章 构建Hadoop集群 279
    10.1 集群规范 280
    10.1.1 集群规模 281
    10.1.2 网络拓扑 282
    10.2 集群的构建和安装 284
    10.2.1 安装Java 284
    10.2.2 创建Unix 用户账号 284
    10.. 安装Hadoop 284
    10.2.4 SSH配置 285
    10.2.5 配置Hadoop 286
    10.2.6 格式化HDFS 文件系统 286
    10.2.7 启动和停止守护进程 286
    10.2.8 创建用户目录 288
    10.3 Hadoop配置 288
    10.3.1 配置管理 289
    10.3.2 环境设置 290
    10.3.3 Hadoop守护进程的关键属 293
    10.3.4 Hadoop守护进程的地址和端口 300
    10.3.5 Hadoop的属 303
    10.4 安全 305
    10.4.1 Kerberos和Hadoop 306
    10.4.2 委托令牌 308
    10.4.3 安全改进 309
    10.5 利用基准评测程序测试Hadoop集群 311
    10.5.1 Hadoop基准评测程序 311
    10.5.2 用户作业 313
    1章 管理Hadoop 314
    11.1 HDFS 314
    11.1.1 数据结构 314
    11.1.2 安全模式 320
    11.1.3 日志审计 322
    11.1.4 工具 322
    11.2 监控 327
    11.2.1 日志 327
    11.2.2 度量和JMX(Java管理扩展) 328
    11.3 维护 329
    11.3.1 日常管理过程 329
    11.3.2 委任和解除节点 331
    11.3.3 升级 334
    第Ⅳ部分 Hadoop相关开源项目
    2章 关于Avro 341
    12.1 Avro数据类型和模式 342
    12.2 内存中的序列化和反序列化特定API 347
    1. Avro数据文件 349
    12.4 互操作 351
    12.4.1 Python API 351
    12.4.2 Avro工具集 352
    12.5 模式解析 352
    12.6 排列顺序 354
    12.7 关于Avro MapReduce 356
    12.8 使用Avro MapReduce进行排序 359
    12.9 语言的Avro 362
    3章 关于Parquet 363
    13.1 数据模型 364
    13.2 Parquet文件格式 367
    13.3 Parquet的配置 368
    13.4 Parquet文件的读/写 369
    13.4.1 Avro、Protocol Buffers和Thrift 371
    13.4.2 投影模式和读取模式 373
    13.5 Parquet MapReduce 374
    4章 关于Flume 377
    14.1 安装Flume 378
    14.2 示例 378
    14.3 事务和可靠 30
    14.4 HDFS Sink 382
    14.5 扇出 385
    14.5.1 交付保 386
    14.5.2 复制和复用选择器 387
    14.6 通过代理层分发 387
    14.7 Sink组 391
    14.8 Flume与应用程序的集成 395
    14.9 组件编目 395
    14.10 延伸阅读 397
    5章 关于Sqoop 398
    15.1 获取Sqoop 398
    15.2 Sqoop连接器 400
    15.3 一个导入的例子 401
    15.4 生成代码 404
    15.5 深入了解数据库导入 405
    15.5.1 导入控制 407
    15.5.2 导入和一致 408
    15.5.3 增量导入 408
    15.5.4 直接模式导入 408
    15.6 使用导入的数据 409
    15.7 导入大对象 412
    15.8 执行导出 414
    15.9 深入了解导出功能 416
    15.9.1 导出与事务 417
    15.9.2 导出和SequenceFile 418
    15.10 延伸阅读 419
    6章 关于Pig 420
    16.1 安装与运行Pig 421
    16.1.1 执行类型 422
    16.1.2 运行Pig程序 4
    16.1.3 Grunt 424
    16.1.4 Pig Latin编辑器 424
    16.2 示例 425
    16.3 与数据库进行比较 428
    16.4 PigLatin 429
    16.4.1 结构 430
    16.4.2 语句 431
    16.4.3 表达式 436
    16.4.4 类型 437
    16.4.5 模式 438
    16.4.6 函数 443
    16.4.7 宏 445
    16.5 用户自定义函数 446
    16.5.1 过滤UDF 447
    16.5.2 计算UDF 450
    16.5.3 加载UDF 452
    16.6 数据处理操作 455
    16.6.1 数据的加载和存储 455
    16.6.2 数据的过滤 455
    16.6.3 数据的分组与连接 458
    16.6.4 数据的排序 463
    16.6.5 数据的组合和切分 465
    16.7 Pig实战 465
    16.7.1 并行处理 465
    16.7.2 匿名关系 466
    16.7.3 参数代换 467
    16.8 延伸阅读 468
    7章 关于Hive 469
    17.1 安装Hive 470
    Hive的shell环境 471
    17.2 示例 472
    17.3 运行Hive 473
    17.3.1 配置Hive 473
    17.3.2 Hive服务 476
    17.3.3 Metastore 478
    17.4 Hive与传统数据库相比 480
    17.4.1 读时模式vs.写时模式 480
    17.4.2 更新、事务和索引 481
    17.4.3 SL—on—Hadoop技术 482
    17.5 HiveL 483
    17.5.1 数据类型 484
    17.5.2 操作与函数 487
    17.6 表 488
    17.6.1 托管表和外部表 488
    17.6.2 分区和桶 490
    17.6.3 存储格式 494
    17.6.4 导入数据 498
    17.6.5 表的修改 500
    17.6.6 表的丢弃 501
    17.7 查询数据 501
    17.7.1 排序和聚集 501
    17.7.2 MapReduce脚本 502
    17.7.3 连接 503
    17.7.4 子查询 506
    17.7.5 视图 507
    17.8 用户定义函数 508
    17.8.1 写UDF 510
    17.8.2 写UDAF 512
    17.9 延伸阅读 516
    8章 关于Crunch 517
    18.1 示例 518
    18.2 Crunch核心API 521
    18.2.1 基本操作 522
    18.2.2 类型 527
    18.. 源和目标 530
    18.2.4 函数 532
    18.2.5 物化 535
    18.3 管线执行 537
    18.3.1 运行管线 538
    18.3.2 停止管线 539
    18.3.3 查看Crunch计划 540
    18.3.4 迭代算法 543
    18.3.5 给管线设置检查点 544
    18.4 Crunch库 545
    18.5 延伸阅读 547
    9章 关于Spark 548
    19.1 安装Spark 549
    19.2 示例 549
    19.2.1 Spark应用、作业、阶段和任务 551
    19.2.2 Scala独立应用 552
    19.. Java示例 553
    19.2.4 Python示例 554
    19.3 弹分布式数据集 555
    19.3.1 创建 555
    19.3.2 转换和动作 557
    19.3.3 持久化 561
    19.3.4 序列化 563
    19.4 共享变量 564
    19.4.1 广播变量 564
    19.4.2 累加器 565
    19.5 剖析Spark作业运行机制 565
    19.5.1 作业提交 566
    19.5.2 DAG的构建 566
    19.5.3 任务调度 569
    19.5.4 任务执行 570
    19.6 执行器和集群管理器 570
    19.7 延伸阅读 574
    第20章 关于HBase 575
    20.1 HBase基础 575
    20.2 概念 576
    20.2.1 数据模型的“旋风之旅” 576
    20.2.2 实现 578
    20.3 安装 581
    20.4 客户端 584
    20.4.1 Java 584
    20.4.2 MapReduce 588
    20.4.3 REST和Thrift 589
    20.5 创建在线查询应用 589
    20.5.1 模式设计 590
    20.5.2 加载数据 591
    20.5.3 在线查询 595
    20.6 HBase和RDBMS的比较 598
    20.6.1 成功的服务 599
    20.6.2 HBase 600
    20.7 Praxis 601
    20.7.1 HDFS 601
    20.7.2 用户界面 602
    20.7.3 度量 602
    20.7.4 器 602
    20.8 延伸阅读 602
    2章 关于ZooKeeper 604
    21.1 安装和运行ZooKeeper 605
    21.2 示例 607
    21.2.1 ZooKeeper中的组成员关系 608
    21.2.2 创建组 608
    21.. 加入组 611
    21.2.4 列出组成员 612
    21.2.5 删除组 614
    21.3 ZooKeeper服务 615
    21.3.1 数据模型 615
    21.3.2 操作 618
    21.3.3 实现 622
    21.3.4 一致 624
    21.3.5 会话 626
    21.3.6 状态 628
    21.4 使用ZooKeeper来构建应用 629
    21.4.1 配置服务 629
    21.4.2 可复原的ZooKeeper应用 633
    21.4.3 锁服务 637
    21.4.4 更多分布式数据结构和协议 639
    21.5 生产环境中的ZooKeeper 640
    21.5.1 可恢复和能 641
    21.5.2 配置 642
    21.6 延伸阅读 643
    第Ⅴ部分 案例学习
    第22章 医疗公司塞纳(Cerner)的可聚合数据 647
    22.1 从多CPU到语义集成 647
    22.2 进入Apache Crunch 648
    2. 建立全貌 649
    22.4 集成健康医疗数据 651
    22.5 框架之上的可组合 654
    22.6 下一步 655
    第章 生物数据科学:用软件拯救生命 657
    .1 DNA的结构 659
    .2 遗传密码:将DNA字符转译为蛋白质 660
    2. 将DNA想象成源代码 661
    .4 人类基因组计划和参考基因组 663
    22.5 DNA测序和比对 664
    . ADAM,一个可扩展的基因组分析平台 666
    . 使用Avro接口描述语言进行自然语言编程 666
    . 使用Parquet进行面向列的存取 668
    . 一个简单例子:用Spark和ADAM做k—mer 669
    .10 从个化广告到个化医疗 672
    .11 联系我们 673
    第24章 开源项目Cascading 674
    24.1 字段、元组和管道 675
    24.2 操作 678
    24.3 Taps,Schemes和Flows 680
    24.4 Cascading实践应用 681
    24.5 灵活 64
    24.6 ShareThis中的Hadoop和Cascading 685
    24.7 总结 689
    附录A 安装Apache Hadoop 691
    附录B 关于CDH 697
    附录C 准备NCDC气象数据 699
    附录D 新版和旧版JavaMapReduce API 702

    Tom White是很杰出的Hadoop专家之一。自2007年2月以来,Tom White一直是Apache Hadoop的提交者(committer),也是Apache软件会的成员。Tom是Cloudera的软件,他是Cloudera的首批员工,对Apache和Cloudera做出了举足轻重的贡献。在此之前,他是一名独立的Hadoop顾问,帮公司搭建、使用和扩展Hadoop。他是很多行业大会的专题演讲人,比如ApacheCon、OSCON和Strata。Tom在英国剑桥大学获得数学士学,在利兹大学获得科学哲学硕士。他目前与家人居住在威尔士。
    王海博士,解放军理工大学通信工程学院教授,博导,教研中心主任,长期从事无线自组网网络的设计与研发工作,主持自然科学、863计划课题等多项重量课题,近5年获军队科技进步二等奖1项,三等奖6项,作为发明人申请发明十余项,发表学术50余篇。
    华东博士,现任南京医科大学计算机教研室教师,一直致力于计算机辅教学的相关技术研究,陆续开发了人体解剖学网络自学平台、诊断学自学平台和面向执业医师的预约化平台等系统,并在各个学科得到广泛的使用,获得全国高等学校计算机课件评比一等奖和三等奖各一项。主编、副主编教材两部,获发明一项、软件著作权多项。

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购