返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • [正版] 大话数据科学 大数据与机器学习实战 清华大学出版社 陈文贤 基于R语言 数据科学 机器学数据 全彩印刷
  • 新商品上架
    • 作者: 陈文贤著
    • 出版社: 清华大学出版社
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    句字图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 陈文贤著
    • 出版社:清华大学出版社
    • 开本:16开
    • ISBN:9783697077884
    • 版权提供:清华大学出版社


     书名:  大话数据科学——大数据与机器学习实战(基于R语言)
     出版社:  清华大学出版社
     出版日期  2020
     ISBN号:  9787302551300

    本书以独特的方式讲解数据科学,不仅让读者可以轻松学习数据科学理论,又可以动手(手算和机算)
    进行数据科学实战。本书特色:全彩印刷,图形、表格、思维导图丰富;避免深奥的数学证明,采用简单
    的数学说明;用各种学习图将本书内容贯穿起来;实战计算,包含小型数据的演算和大型数据的实战程序。

     本书共13章,内容涵盖丰富的数据科学模型,包含关联分析、聚类分析、贝叶斯分类、近邻法、决策树、
    降维分析、回归模型等算法。利用小数据例题介绍计算步骤,同时用R语言验证计算结果。另外,也有大
    数据的案例数据,例如:推荐系统、支持向量机、集成学习等。另外,本书只有大数据的案例数据用R语
    言计算。

     本书适合各个专业领域(包含金融、电商、保险、互联网等行业)想掌握数据科学的读者,也可以作
    为高校、社会培训机构教材。由于内容比较多,教师可自行选择教学内容。

    陈文贤,美国加州大学伯克利分校工业工程博士,历任:台大信息管理系教授兼系主任、美国雪城Syracuse大学客座教授、澳大利亚悉尼科技大学UTS客座教授、台北德明财经科技大学信息管理系特聘教授。

    数据科学作为一门新兴的学科,正在高速发展并落地应用。当前的各行各业都充满了数据,这些数据的类型多种多样,不仅包括传统的结构化数据,也包括网页、文本、图像、视频、语音等非结构化数据。
    数据科学涵盖的体系甚广,对某一领域进行数据科学研究,首先要研究该领域(比如生物信息学、天体信息学、数字地球等)的特性,然后通过包括统计学、机器学习、数据挖掘、数据库等技术从中分析出需要的结果。这些学科都是数据科学的重要组成部分,只有把它们有机地整合在一起,才能形成整个数据科学的全貌。
    陈文贤老师作为数据科学的早期探索者,积累了大量科研经验,更为难得的是,陈老师擅用与科班教材截然不同的方式把包罗万象的数据科学细节逐步分解,娓娓道来,再用多年积累的实际案例把理论串联起来,从中再佐以大家耳熟能详的案例(如武侠场景、生活场景),把艰深晦涩、逻辑复杂的问题剖析地如水银泻地般流畅。
    由于数据科学的特性,我们在策划阶段便确认彩色印刷,以便可以更精准地讲解和分析各种图表和代码。另外,陈老师针对全书脉络,每章都提供了学习地图,确保读者学习过程中不会迷失。

    第一篇 基础篇

     第1章 大数据概述 3

    1.1 大数据与相关学科的定义 4

    1.1.1 大数据的定义 4

    1.1.2 数据挖掘 6

    1.1.3 数据挖掘标准过程 7

    1.1.4 机器学习 9

    1.1.5 知识管理 12

    1.1.6 数据科学 14

    1.1.7 商业智能 15

    1.1.8 人工智能 17

    1.1.9 统计学与大数据比较 19

    1.1.10 数据名词的定义 21

    1.2 系统与模型概念 22

    1.2.1 系统定义与成分 22

    1.2.2 输入,处理,输出与黑箱 23

    1.2.3 环境 24

    1.2.4 反馈 25

    1.2.5 效率与效果 25

    1.2.6 模型与建模 26

    1.2.7 模型的假定与参数 27

    1.2.8 敏感,稳健或鲁棒 28

    1.2.9 模型的过拟合 28

    1.3 大数据分析模型的分类 30

    1.3.1 后设模型 30

    1.3.2 关系与因果 31

    1.3.3 基于因果关系的统计学分类 32

    1.3.4 基于因果关系的大数据分类 32

    1.3.5 基于数据类型的分类 34

    1.3.6 基于测量的分类 35

    1.3.7 数据科学模型的其他分类 36

    1.4 大数据的江湖传奇 36

    1.5 R语言“词云图”代码 40

    1.6 本章思维导图 42

    第2 章 大数据与R 语言  43

    2.1 大数据进位 44

    2.2 R语言介绍 45

    2.2.1 安装 R 语言软件 45

    2.2.2 下载R语言程序包 45

    2.3 R数据对象的属性与结构 46

    2.3.1 数值 47

    2.3.2 整数 47

    2.3.3 字符串 47

    2.3.4 逻辑 47

    2.3.5 向量 48

    2.3.6 因子 49

    2.3.7 矩阵 50

    2.3.8 数据框 52

    2.3.9 数组 52

    2.3.10 列表 53

    2.3.11 时间序列 54

    2.3.12 访问数据类型和结构 54

    2.3.13 遗失值 55

    2.3.14 读入Excel CSV数据 55

    2.3.15 编辑数据 55

    2.3.16 保存Excel CSV数据 55

    2.3.17 数据输入窗口 56

    2.3.18 R 的数据结构和函数表 56

    2.4 R的函数包 56

    2.5 R的数据绘图 59

    2.6 本章思维导图 64

    第二篇 非监督式学习
    第3 章 关联分析  67

    3.1 关联分析介绍 68

    3.1.1 事务与项目的定义 68

    3.1.2 项集的关联规则 69

    3.2 关联规则数据格式 71

    3.3 关联规则的算法 72

    3.3.1 Apriori算法 73

    3.3.2 关联规则其他测度值 74

    3.3.3 负关联规则 75

    3.4 关联规则的优点和缺点 76

    3.4.1 Apriori算法的优点 76

    3.4.2 Apriori算法的缺点 76

    3.4.3 关联规则的评估 76

    3.5 关联规则的实例计算 77

    3.5.1 尿布与啤酒 77

    3.5.2 豆浆、烧饼与饭团 79

    3.5.3 评估与应用 82

    3.6 R语言实战 82

    3.6.1 泰坦尼克号 82

    3.6.2 商店数据 86

    3.6.3 食品杂货数据 90

    3.6.4 人口收入数据 92

    3.6.5 鸢尾花数据 93

    3.7 本章思维导图 96

    第4 章 聚类分析  97

    4.1 聚类分析介绍 98

    4.2 距离与相似度衡量 99

    4.2.1 数值数据距离 99

    4.2.2 标准化与归一化 100

    4.2.3 0-1数据距离和相似度 100

    4.2.4 混合数据的距离 102

    4.2.5 顾客数据的距离 102

    4.2.6 距离和相似度的转换 104

    4.2.7 计算距离的R函数 104

    4.3 层次聚类分析 106

    4.3.1 两类连接 106

    4.3.2 顾客数据的聚类 107

    4.3.3 层次聚类的优点和缺点  110

    4.4 非层次聚类分析  110

    4.4.1 K-mean聚类  110

    4.4.2 PAM 聚类  112

    4.4.3 K-mean聚类的优点和缺点  113

    4.5 聚类分析的评价  113

    4.6 R语言实战  115

    4.6.1 欧洲语言的聚类  115

    4.6.2 美国电力公司数据  118

    4.6.3 欧州人蛋白质数据 120

    4.6.4 红酒数据 124

    4.6.5 汽车数据 126

    4.7 本章思维导图 128

    第5 章 降维分析  129

    5.1 降维分析介绍 130

    5.2 主成分分析 131

    5.2.1 主成分分析的计算理论 132

    5.2.2 主成分分析的计算步骤 134

    5.2.3 主成分分析的优点和缺点 134

    5.3 R语言程序 135

    5.4 R语言实战 138

    5.4.1 鸢尾花数据 138

    5.4.2 美国罪犯数据 138

    5.4.3 美国法官数据  145

    5.4.4 国家冰球联盟资料  146

    5.4.5 美国职业棒球数据  149

    5.4.6 早餐麦片数据  151

    5.4.7 红酒数据  151

    5.4.8 心理学数据  152

    5.5 本章思维导图  154

    第三篇 监督式学习
    第6 章 模型选择与评价  157

    6.1 模型选择与评价步骤  158

    6.2 大数据的抽样方法  159

    6.2.1 保留方法抽样  160

    6.2.2 自助抽样法  162

    6.2.3 632自助法  163

    6.2.4 过采样  164

    6.3 交叉验证  165

    6.3.1 k-折交叉验证  165

    6.3.2 留一交叉验证  166

    6.4 模型选择  167

    6.4.1 参数和非参数学习  168

    6.4.2 偏差和方差  169

    6.4.3 模型的复杂度  170

    6.4.4 正则化  171

    6.4.5 认真学习和懒惰学习  171

    6.5 模型评价  172

    6.5.1 二元0-1分类器的评价——混淆矩阵  172

    6.5.2 混淆矩阵的举例说明  174

    6.5.3 二元分类器的成本计算  176

    6.5.4 二元分类器例题数据R语言  176

    6.5.5 多标签分类器的评价  179

    6.5.6 多标签分类器评价R 语言  181

    6.5.7 交叉验证分类的评价  183

    6.5.8 分类学习的ROC曲线 183

    6.5.9 连续型目标变量回归模型的评价 187

    6.6 R语言实战 189

    6.6.1 R语言自动调模与调参 189

    6.6.2 汽车数据 190

    6.6.3 乳腺癌诊断数据 190

    6.7 本章思维导图 192

    第7 章 回归分析  193

    7.1 多元线性回归 194

    7.1.1 多元线性回归模型 194

    7.1.2 参数估计 195

    7.1.3 适合性检验 196

    7.1.4 实例计算 197

    7.1.5 R语言的实例计算 199

    7.2 变量(特征)选择 200

    7.2.1 偏相关系数 200

    7.2.2 逐步回归 203

    7.2.3 部分子集回归 204

    7.2.4 压缩方法 205

    7.3 Logistic逻辑回归 207

    7.4 R语言实战 209

    7.4.1 股票数据 209

    7.4.2 乳腺癌病理数据 210

    7.4.3 医疗保险数据 213

    7.4.4 棒球数据 215

    7.4.5 波士顿房价数据 218

    7.4.6 皮玛数据 221

    7.5 本章思维导图 224

    第8 章 近邻法  225

    8.1 学习器 226

    8.1.1 认真学习器和懒惰学习器 226

    8.1.2 基于实例学习器 227

    8.1.3 参数学习器和非参数学习器 228

    8.2 近邻法介绍 229

    8.2.1 k-近邻法算法步骤  229

    8.2.2 k-近邻法分类器  230

    8.2.3 k-近邻法回归  231

    8.2.4 自变量是分类变量  232

    8.3 近邻法的优点和缺点  232

    8.4 R语言实战  233

    8.4.1 食材数据  233

    8.4.2 鸢尾花数据  234

    8.4.3 乳癌检查数据  236

    8.4.4 美国总统候选人数据  238

    8.4.5 玻璃数据  240

    8.4.6 波士顿房价数据  241

    8.4.7 皮玛数据  242

    8.5 本章思维导图  244

    第9 章 贝叶斯分类 245

    9.1 贝叶斯公式  246

    9.2 贝叶斯分类  247

    9.2.1 朴素贝叶斯分类  247

    9.2.2 特征值是连续变量  248

    9.2.3 朴素贝叶斯分类的优点和缺点  249

    9.3 贝叶斯分类的实例计算  249

    9.3.1 天气和打网球  249

    9.3.2 验前概率与似然概率  251

    9.3.3 拉普拉斯校准  251

    9.3.4 R 语言实例计算  252

    9.4 R语言实战  255

    9.4.1 泰坦尼克号数据  255

    9.4.2 鸢尾花数据  256

    9.4.3 垃圾邮件数据  258

    9.4.4 皮玛数据  261

    9.5 本章思维导图  262

    第10 章 决策树  263

    10.1 决策树概述  264

    10.1.1 图形表示  264

    10.1.2 逻辑表示 265

    10.1.3 规则表示 265

    10.1.4 数学公式表示 265

    10.2 决策树的信息计算 266

    10.2.1 信息计算 266

    10.2.2 熵与信息 267

    10.2.3 信息增益 267

    10.2.4 信息增益比 268

    10.2.5 基尼系数与基尼增益 268

    10.2.6 卡方统计量 269

    10.2.7 分枝法则的选择 269

    10.2.8 回归树 269

    10.3 决策树的实例计算 270

    10.4 决策树的剪枝 277

    10.4.1 贪婪算法 277

    10.4.2 决策树剪枝 278

    10.5 决策树的优点和缺点 279

    10.6 R语言实战 280

    10.6.1 决策树R语言包 280

    10.6.2 打网球数据 280

    10.6.3 泰坦尼克号数据 283

    10.6.4 鸢尾花数据 284

    10.6.5 皮玛数据 289

    10.6.6 汽车座椅销售数据 292

    10.6.7 波士顿房价数据 295

    10.6.8 猫数据 297

    10.6.9 驼背数据 300

    10.6.10 美国总统选举投票数据 301

    10.6.11 员工离职数据 302

    10.7 本章思维导图 306

    第11 章 支持向量机  307

    11.1 支持向量机概述 308

    11.2 最大间隔分类(硬间隔) 310

    11.3 支持向量分类(软间隔)  311

    11.4 支持向量机(核函数)  313

    11.4.1 支持向量机的核函数  313

    11.4.2 多元分类支持向量机  315

    11.5 支持向量机的优点和缺点  315

    11.6 支持向量机R语言应用  316

    11.6.1 随机正态分布数据线性核函数  317

    11.6.2 随机正态分布数据径向基核函数  318

    11.6.3 三分类数据径向基核函数  321

    11.7 R语言实战  322

    11.7.1 基因表达数据  322

    11.7.2 鸢尾花数据  322

    11.7.3 猫数据  323

    11.7.4 皮玛数据  325

    11.7.5 字符数据  328

    11.7.6 玻璃数据  329

    11.8 本章思维导图  332

    第12 章 集成学习 333

    12.1 集成学习介绍  334

    12.2 个别分类方法评价  335

    12.3 Bagging学习  337

    12.4 随机森林  338

    12.4.1 随机森林介绍  338

    12.4.2 随机森林算法步骤  339

    12.4.3 R 语言  339

    12.4.4 随机森林的优点和缺点  340

    12.4.5 非监督式学习-鸢尾花数据  340

    12.4.6 美国大学数据  341

    12.5 Boosting学习  342

    12.6 Stacking学习  343

    12.6.1 皮玛数据  343

    12.6.2 员工离职数据  344

    12.7 R语言实战  345

    12.7.1 红酒数据  345

    12.7.2 信用数据  347

    12.7.3 皮玛数据 348

    12.7.4 波士顿房价数据 349

    12.7.5 汽车座椅数据 352

    12.7.6 顾客流失数据 353

    12.8 本章思维导图 356

    第13 章 推荐系统 357

    13.1 推荐系统概述 358

    13.2 过滤推荐 359

    13.2.1 相似度 360

    13.2.2 基于用户的协同过滤 360

    13.2.3 基于项目的协同过滤 361

    13.2.4 协同过滤的评价 362

    13.2.5 协同过滤的优点和缺点 363

    13.2.6 混合的推荐机制 364

    13.3 R语言应用 365

    13.3.1 推荐系统R语言包 365

    13.3.2 recommenderlab 函数程序 366

    13.3.3 模拟数据 367

    13.4 R语言实战 369

    13.4.1 电影数据 369

    13.4.2 笑话数据 373

    13.5 本章思维导图 378
    结语 379
    参考文献 381

    秋水时至,百川灌河;泾流之大,两涘渚崖之间不辩牛马。

    于是焉河伯欣然自喜,以天下之美为尽在己。

    顺流而东行,至于北海,东面而视,不见水端。

     —《庄子·秋水篇》

    互联网的时机到了,数据汇入数据库,流量之大,不能辨别分类聚类。

    于是数据科学家沾沾自喜,以为大数据的美丽结果,我说了算。

    数据流量顺势加大,汇流成海量,看数据沧海,不见因果关系。

     —《大数据篇》

    本书期望以深入浅出接地气的方式介绍数据科学,即帮助读者轻松学习数据科学理论,又有利于读者动手(手算和电算)完成数据科

    学实战。因此本书特色是:

    1 一图抵千言

    本书继承清华大学出版社出版的《大话统计学》一书学习地图的精神,内容尽量用图形、表格、思维导图说明。学习地图是让你知道

    你的位置,并且告诉你如何去目的地。

    2 避免深奥的数学证明,采用简单的数学说明

    奥卡姆剃刀原理(Occam’s Razor)认为,最好的科学理论是能解释所有事实的最简单的理论(The best scientific theory is

    the simplest one that explains all the facts)。数据科学机器学习秉承简约法则:切勿浪费较多东西,去做“用较少的东西,

    同样可以做好的事情”,避免“过拟合”的精神。学会本书数据科学基本观念,可以进一步理解机器学习的理论证明和复杂模型,例

    如深度学习。

    3 章节连贯,一气呵成

    本书说明了数据科学模型输入数据的类型和限制,算法的分类异同和因果关系,输出结果的评价和优劣。数据科学要考虑:问题种类

    ,数据来源,数据类型,分析方法,模型和算法,信息结果,验证评价和应用价值。有些实战数据出现在许多章节。

    4 动手计算

    本书中有小型数据的例题演算,也有大型数据的实战程序。数据科学模型涉及关联分析、聚类分析、贝叶斯分类、近邻法、决策树、

    降维分析、回归模型等算法,利用小数据例题介绍计算步骤,同时用R 语言对照计算结果。另外,也有大数据的案例数据用R语言计

    算结果,例如推荐系统、支持向量机、集成学习等,只有大数据的案例数据用R语言计算。
    因为本书使用R语言,而R语言的包、函数、数据、参数、输出信息等都是用英文,对每个名词的英文名词要特别注意,所以中英文索

    引很重要。本书中的R语言程序码(R例1.1~R例13.4)、实例的数据集(表2-4实战数据及补充数据如:北京PM2.5 数据等)、出版

    后的索引、勘误表等,可在清华大学出版社扫码下载。

    感谢台湾大学工业管理系杨立伟教授和计算机信息中心林淑芬教授提供部分素材。
    衷心感谢清华大学出版社大力的支持和协助,使本书能够顺利出版。
    由于作者的水平有限,本书中难免有不足和疏漏之处,恳请各位读者提出批评和建议,以便进一步修订和改进。

    陈文贤



    1
    • 商品详情
    • 内容简介

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购