返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 醉染图书Python数据分析从入门到精通9787111649885
  • 正版全新
    • 作者: 李梓萌著 | 李梓萌编 | 李梓萌译 | 李梓萌绘
    • 出版社: 机械工业出版社
    • 出版时间:2020-04-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    醉染图书旗舰店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品分类

    商品参数
    • 作者: 李梓萌著| 李梓萌编| 李梓萌译| 李梓萌绘
    • 出版社:机械工业出版社
    • 出版时间:2020-04-01
    • 版次:1
    • 印次:1
    • 字数:551000
    • 页数:345
    • 开本:16开
    • ISBN:9787111649885
    • 版权提供:机械工业出版社
    • 作者:李梓萌
    • 著:李梓萌
    • 装帧:平装
    • 印次:1
    • 定价:99.00
    • ISBN:9787111649885
    • 出版社:机械工业出版社
    • 开本:16开
    • 印刷时间:暂无
    • 语种:暂无
    • 出版时间:2020-04-01
    • 页数:345
    • 外部编号:1202053160
    • 版次:1
    • 成品尺寸:暂无

    前言

    章 Python语言基础1

    1.1 Python语言介绍1

    1.1.1 Python语言的地位1

    1.1.2 Python语言的优点2

    1.2 安装Python3

    1.2.1 在Windows系统中下载并安装Python3

    1.2.2 在MacOS系统中下载并安装Python6

    1.. 在Linux系统中下载并安装Python6

    1.3 Python开发工具介绍7

    1.3.1 使用Python自带的开发工具LE7

    1.3.2 使用流行工具PyCharm7

    1.4 认识段Python程序11

    1.4.1 使用LE编码并运行11

    1.4.2 使用命令行方式运行Python程序12

    1.4.3 使用交互式方式运行Python程序12

    1.4.4 使用PyCharm实现个Python程序13

    第2章 处理网络数据17

    2.1 处理HTML和XML数据17

    2.1.1 解析XML数据17

    2.1.2 使用库beautiful soup解析数据25

    2.1.3 使用库bleach解析数据27

    2.1.4 使用库cssutils解析数据29

    2.1.5 使用库html5lib解析数据31

    2.1.6 使用库markupsafe解析数据31

    2.1.7 使用库pyquery解析数据32

    2.2 处理HTTP 数据34

    2.2.1 使用内置的http包处理数据34

    2.2.2 使用库requests处理数据36

    2.. 使用库httplib2处理数据37

    2.2.4 使用库urllib3处理数据41

    . 处理URL 数据44

    ..1 使用urllib包44

    ..2 使用库furl处理数据47

    .. 使用库purl处理数据48

    ..4 使用库webargs处理数据50

    2.4 爬取新闻保存到XML文件并分析特征关系50

    2.4.1 爬虫抓取数据51

    2.4.2 使用Stanford CoreNLP提取XML数据的特征关系52

    第3章 网络爬虫实战54

    3.1 网络爬虫基础54

    3.2 开发简单的网络爬虫应用程序55

    3.2.1 爬虫抓取某高校教师信息55

    3.2.2 抓取某吧的信息59

    3.. 抓取XX百科64

    3.2.4 爬虫抓取某的信息并保存到本地68

    3.3 使用爬虫框架Scrapy70

    3.3.1 Scrapy框架基础71

    3.3.2 搭建Scrapy环境72

    3.3.3 创建个Scrapy项目72

    3.3.4 抓取某电影网的热门电影信息76

    3.3.5 抓取某中的照片并保存到本地81

    3.3.6 抓取某中的主播照片并保存到本地82

    第4章 处理特殊文本格式84

    4.1 使用tablib模块84

    4.1.1 基本用法84

    4.1.2 操作数据集中的指定行和列86

    4.1.3 删除并导出不同格式的数据87

    4.1.4 生成一个Excel文件88

    4.1.5 处理多个数据集89

    4.1.6 使用标签过滤数据92

    4.1.7 分离表格中的数据92

    4.2 使用openpyxl处理Office文件93

    4.2.1 openpyxl基础93

    4.2.2 使用openpyxl读取Excel文件的数据96

    4.. 将4组数据导入Excel文件96

    4.2.4 在Excel文件中检索某关键字数据98

    4.2.5 将数据导入Excel文件并生成一个图表99

    4.3 使用pyexcel处理Office文件100

    4.3.1 使用pyexcel读取并写入CSV文件100

    4.3.2 使用pyexcel读取指定Excel文件中每个单元格数据101

    4.3.3 按列读取并显示指定Excel文件中每个单元格数据102

    4.3.4 读取显示Excel文件中的所有数据102

    4.3.5 将3组数据导入新建的Excel文件103

    4.3.6 以多种方式获取Excel数据104

    4.3.7 将数据分别导入Excel文件和SLite数据库105

    4.3.8 在Flask Web项目中使用pyexcel处理数据106

    4.4 使用python-docx处理Office文件109

    4.4.1 使用python-docx处理Office文件的流程109

    4.4.2 创建Word文档110

    4.4.3 在Word中插入图片110

    4.4.4 创建结构文档112

    4.4.5 读取Word文档114

    4.5 使用xlrd和xlwt读写Excel115

    4.5.1 使用库xlrd115

    4.5.2 使用库xlwt117

    4.6 使用xlsxwriter操作Excel文件118

    4.6.1 使用库xlsxwriter的基本流程118

    4.6.2 创建一个表格118

    4.6.3 设置表格样式120

    4.6.4 向Excel文件中插入图像122

    4.6.5 向Excel文件中插入数据并绘制柱状图1

    4.6.6 向Excel文件中插入数据并绘制散点图125

    4.6.7 向Excel文件中插入数据并绘制柱状图和饼状图126

    第5章 使用数据库保存数据129

    5.1 操作SLite3数据库129

    5.1.1 sqlite3模块介绍129

    5.1.2 使用sqlite3模块操作SLite3数据库130

    5.1.3 使用Flask+ SLite3+ ECharts2实现降水数据可视化系统132

    5.2 操作MySL数据库138

    5.2.1 搭建PyMySL环境138

    5.2.2 实现数据库连接139

    5.. 创建数据库表140

    5.2.4 爬取XX站用户信息并保存到MySL数据库141

    5.3 使用MariaDB数据库145

    5.3.1 搭建MariaDB数据库环境145

    5.3.2 在Python程序中使用MariaDB数据库148

    5.4 使用MongoDB数据库150

    5.4.1 搭建MongoDB环境150

    5.4.2 在Python程序中使用MongoDB数据库151

    5.5 使用ORM操作数据库154

    5.5.1 Python和ORM154

    5.5.2 使用SLAlchemy155

    5.5.3 使用mongoengine160

    第6章 操作处理CSV文件163

    6.1 内置CSV模块介绍163

    6.1.1 内置成员163

    6.1.2 操作CSV文件165

    6.1.3 提取CSV数据并保存到MySL数据库172

    6.1.4 提取CSV数据并保存到SLite数据库176

    6.2 爬取图书信息并保存为CSV文件178

    6.2.1 实例介绍178

    6.2.2 具体实现178

    6.3 使用CSV文件保存Scrapy抓取的数据181

    6.3.1 搭建Scrapy环境182

    6.3.2 具体实现182

    ……

    李梓萌,女,不错,于清华大学,,供职于事业部。工作项目涉及金融科技、券交易所、银行、生物信息学、基因组学、广告技术、基础设施、交通运输、能源、人力资源和娱乐等多个领域的数据分析工作。在预测分析、数据科学、机器学数据、产品工程、高能计算和云基础设施等项目中工作了8年。

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购