返回首页
苏宁会员
购物车 0
易付宝
手机苏宁

服务体验

店铺评分与同行业相比

用户评价:----

物流时效:----

售后服务:----

  • 服务承诺: 正品保障
  • 公司名称:
  • 所 在 地:
本店所有商品

  • 全新正版Python网络爬虫技术与实战9787111674115机械工业出版社
    • 作者: 赵国生王健著 | 赵国生王健编 | 赵国生王健译 | 赵国生王健绘
    • 出版社: 机械工业出版社
    • 出版时间:2021-02-01
    送至
  • 由""直接销售和发货,并提供售后服务
  • 加入购物车 购买电子书
    服务

    看了又看

    商品预定流程:

    查看大图
    /
    ×

    苏宁商家

    商家:
    如梦图书专营店
    联系:
    • 商品

    • 服务

    • 物流

    搜索店内商品

    商品参数
    • 作者: 赵国生王健著| 赵国生王健编| 赵国生王健译| 赵国生王健绘
    • 出版社:机械工业出版社
    • 出版时间:2021-02-01
    • 版次:1
    • 印次:1
    • 印刷时间:2021-01-01
    • 字数:288千字
    • 页数:472
    • 开本:16开
    • ISBN:9787111674115
    • 版权提供:机械工业出版社
    • 作者:赵国生王健
    • 著:赵国生王健
    • 装帧:平装
    • 印次:1
    • 定价:89.00
    • ISBN:9787111674115
    • 出版社:机械工业出版社
    • 开本:16开
    • 印刷时间:2021-01-01
    • 语种:暂无
    • 出版时间:2021-02-01
    • 页数:472
    • 外部编号:31082129
    • 版次:1
    • 成品尺寸:暂无

    前言<br/>章 Python环境搭建及基础学习1<br/>1.1 Python 3.6的安装与配置1<br/>1.1.1 Windows下的安装1<br/>1.1.2 Linux下的安装5<br/>1.1.3 macOS下的安装6<br/>1.2 E工具:PyCharm的安装7<br/>1.3 基础语法11<br/>1.3.1 个Python程序11<br/>1.3.2 Python命名规范13<br/>1.3.3 行和缩进15<br/>1.3.4 注释和续行15<br/>1.3.5 Python输出16<br/>1.4 字符串18<br/>1.4.1 字符串运算符18<br/>1.4.2 字符串内置函数19<br/>1.5 数据结构22<br/>1.5.1 列表22<br/>1.5.2 元组25<br/>1.5.3 集合27<br/>1.5.4 字典29<br/>1.6 控制语句31<br/>1.6.1 条件表达式31<br/>1.6.2 选择结构32<br/>1.6.3 循环结构33<br/>1.7 函数、模块和包36<br/>1.7.1 函数36<br/>1.7.2 模块40<br/>1.7.3 包42<br/>1.8 文件的读写操作 45<br/>1.8.1 文件读写步骤与打开模式46<br/>1.8.2 文件的基本操作48<br/>1.8.3 文件写入操作52<br/>1.9 面向对象53<br/>1.9.1 类和对象54<br/>1.9.2 封装5<br/>1.9.3 继承59<br/>1.9.4 多态60<br/>1.10 本章小结61<br/>练习题61<br/>第2章 爬虫原理和网络基础62<br/>2.1 爬虫是什么62<br/>2.2 爬虫的意义62<br/>. 爬虫的原理64<br/>2.4 爬虫技术的类型66<br/>2.4.1 聚焦爬虫技术66<br/>2.4.2 通用爬虫技术67<br/>2.4.3 增量爬虫技术69<br/>2.4.4 深层网络爬虫技术70<br/>2.5 爬虫抓取策略71<br/>2.5.1 深度优先遍历策略 71<br/>2.5.2 广度优先遍历策略71<br/>2.5.3 Partial PageRank策略72<br/>2.5.4 大站优先策略72<br/>2.5.5 反向链接数策略73<br/>2.5.6 OPIC策略 73<br/>2.6 反爬虫和反反爬虫73<br/>2.6.1 反爬虫73<br/>2.6.2 反反爬虫77<br/>2.7 网络基础79<br/>2.7.1 网络体系结构79<br/>2.7.2 网络协议79<br/>2.7.3 Socket编程86<br/>2.8 本章小结88<br/>练习题88<br/>第3章 Python常用库89<br/>3.1 Python库的介绍89<br/>3.1.1 常用标准库89<br/>3.1.2 安装使用第三方库91<br/>3.2 urllib库92<br/>3.2.1 urlopen()函数用法93<br/>3.2.2 urlretrieve()函数用法95<br/>3.. URL编码和URL解码96<br/>3.2.4 urlparse()和urlsplit()函数用法97<br/>3.3 request库99<br/>3.3.1 request库的基本使用99<br/>3.3.2 request库的高级用法109<br/>3.4 lxml库113<br/>3.4.1 lxml库的安装和使用113<br/>3.4.2 XPath介绍114<br/>3.4.3 XPath语法116<br/>3.4.4 lxml和XPath的结合使用119<br/>3.5 Beautiful Soup库122<br/>3.5.1 Beautiful Soup库的安装和使用1<br/>3.5.2 提取数据125<br/>3.5.3 CSS选择器131<br/>3.6 实战案例134<br/>3.6.1 使用Beautiful Soup解析网页134<br/>3.6.2 公众号爬虫135<br/>3.6.3 爬取豆瓣读书TOP500136<br/>3.6.4 使用urllib库爬取百度贴吧137<br/>3.7 本章小结139<br/>练习题139<br/>第4章 正则表达式140<br/>4.1 概念介绍140<br/>4.2 正则表达式语法141<br/>4.2.1 正则模式的字符141<br/>4.2.2 运算符优先级142<br/>4.3 匹配规则143<br/>4.3.1 单字符匹配规则143<br/>4.3.2 多字符匹配规则144<br/>4.3.3 边界匹配146<br/>4.3.4 分组匹配147<br/>4.4 re模块常用函数150<br/>4.4.1 re.match函数150<br/>4.4.2 re.search函数152<br/>4.4.3 re.compile函数153<br/>4.4.4 re.sub函数155<br/>4.4.5 re.findall函数156<br/>4.4.6 re.finditer函数157<br/>4.4.7 re.split函数157<br/>4.5 本章小结158<br/>练习题158<br/>第5章 验码159<br/>5.1 PIL库159<br/>5.1.1 PIL库的安装159<br/>5.1.2 PIL库的常用函数160<br/>5.1.3 PIL库的应用163<br/>5.1.4 应用PIL到实际开发169<br/>5.2 Tesseract库172<br/>5.2.1 Tesseract库的安装172<br/>5.2.2 Tesseract库的使用174<br/>5.. Tesseract库的识别训练174<br/>5.3 TensorFlw库80<br/>5.3.1 TensorFlow库的安装180<br/>5.3.2 TensorFlow基本操作184<br/>5.3.3 TensorFlow基础架构186<br/>5.3.4 TensorFlow创建线回归模型189<br/>5.3.5 TensorFlow识别知乎验码190<br/>5.4 4种验码的解决思路191<br/>5.5 OCR处理验码194<br/>5.6 实战案例195<br/>5.7 本章小结199<br/>练习题199<br/>第6章 抓包利器Fiddler200<br/>6.1 Fiddler简介200<br/>6.2 Fiddler的安装和配置200<br/>6.2.1 Fiddler的安装201<br/>6.2.2 Fiddler的配置202<br/>6.3 Fiddler捕获会话205<br/>6.4 ickExec命令行的使用207<br/>6.5 Fiddler断点功能209<br/>6.6 Fiddler的实用工具210<br/>6.7 实战案例212<br/>6.7.1 使用Fiddler抓取数据并分析212<br/>6.7.2 使用Fiddler抓取HTTPS流量214<br/>6.7.3 使用Fiddler抓取手机应用215<br/>6.8 本章小结219<br/>练习题219<br/>第7章 数据存储220<br/>7.1 数据的基本存储220<br/>7.1.1 数据存储至TXT220<br/>7.1.2 数据存储至CSV222<br/>7.1.3 数据存储至JSON2<br/>7.2 数据存储至MySL数据库227<br/>7.2.1 配置MySL服务227<br/>7.2.2 安装PyMySL228<br/>7.. 创建示例项目0<br/>7.2.4 PyMySL基本操作1<br/>7.3 数据存储至MongoDB数据库1<br/>7.4 数据存储至XML4<br/>7.5 常见数据存储方式的比较5<br/>7.6 本章小结<br/>练习题<br/>第8章 Scrapy爬虫框架<br/>8.1 Scrapy框架介绍<br/>8.2 Scrapy框架详解<br/>8.2.1 框架内组件及作用<br/>8.2.2 Scrapy运行流程240<br/>8.. 数据流向240<br/>8.3 Scrapy框架中的Selector240<br/>8.4 Beautiful Soup库的使用246<br/>8.4.1 简单示例246<br/>8.4.2 四大对象种类247<br/>8.4.3 遍历文档树249<br/>8.4.4 搜索文档树249<br/>8.4.5 CSS选择器253<br/>8.5 CrawlSpider的使用254<br/>8.5.1 Spider的简单用法254<br/>8.5.2 CrawlSpider概述254<br/>8.5.3 使用CrawlSpider获取rules256<br/>8.5.4 使用CrawlSpider进行模拟登录257<br/>8.6 Scrapy Shell的使用257<br/>8.6.1 启动Scrapy Shell258<br/>8.6.2 功能函数258<br/>8.6.3 Scrapy对象258<br/>8.6.4 Scrapy Shell示例258<br/>8.7 Scrapyrt的使用259<br/>8.7.1 GET请求259<br/>8.7.2 POST请求261<br/>8.8 Scrapy对接Selenium262<br/>8.9 实战案例264<br/>8.9.1 Scrapy知乎信息爬取264<br/>8.9.2 Scrapy博息爬取268<br/>8.9.3 Scrapy机票信息爬取272<br/>8.10 本章小结274<br/>练习题274<br/>第9章 多线程爬虫275<br/>9.1 多线程和Threading模块275<br/>9.1.1 多线程定义和特点275<br/>9.1.2 Threading模块276<br/>9.2 使用Thread类创建实例277<br/>9.2.1 可传递函数的Thread类实例277<br/>9.2.2 可调用的Thread类实例278<br/>9.. 派生Thread子类279<br/>9.3 多线程方法的使用280<br/>9.3.1 多线程创建280<br/>9.3.2 多线程及解决283<br/>9.3.3 使用Semaphore调度线程285<br/>9.3.4 生产者-消费者模式286<br/>9.3.5 共享全局变量及锁机制288<br/>9.4 eue线程安全队列289<br/>9.5 实战案例291<br/>9.5.1 多线程爬取糗事百科292<br/>9.5.2 多线程爬取图片296<br/>9.6 本章小结298<br/>练习题298<br/>0章 动态网页爬虫299<br/>10.1 浏览器开发者工具299<br/>10.1.1 调试工具的介绍299<br/>10.1.2 调试工具的使用示例306<br/>10.2 异步加载技术309<br/>10.2.1 异步加载技术介绍309<br/>10.2.2 AJAX数据爬取310<br/>10.3 表单交互与模拟登录314<br/>10.3.1 表单交互314<br/>10.3.2 模拟登录315<br/>10.4 Selenium模拟浏览器316<br/>10.4.1 Selenium操作浏览器316<br/>10.4.2 Selenium和ChromeDriver的配合使用332<br/>10.5 实战案例337<br/>10.5.1 Selenium职位信息爬取338<br/>10.5.2 Selenium直播平台数据爬取339<br/>10.6 本章小结341<br/>练习题341<br/>1章 分布式爬虫342<br/>11.1 分布式爬虫概述342<br/>11.1.1 主从分布式爬虫343<br/>11.1.2 对等分布式爬虫343<br/>11.2 Scrapy-redis分布式组件345<br/>11.2.1 Scrapy-redis简介346<br/>11.2.2 Scrapy-redis工作机制348<br/>11.. Scrapy-redis安装配置349<br/>11.2.4 Scrapy-redis常用配置356<br/>11.2.5 Scrapy-redis键名介绍357<br/>11.2.6 Scrapy-redis简单示例357<br/>11.3 redis数据库358<br/>11.4 Scrapy-redis源码分析364<br/>11.5 通过scrapy_redis实现分布式爬虫369<br/>11.6 实战案例371<br/>11.7 本章小结376<br/>练习题377<br/>2章 电商商品信息爬虫项目378<br/>12.1 商品信息爬虫功能分析378<br/>12.1.1 商品信息爬虫接口分析378<br/>12.1.2 商品信息爬虫页面分析380<br/>12.2 商品信息爬虫实现思路380<br/>12.2.1 Selenium环境配置380<br/>12.2.2 pyquery环境配置381<br/>1. 电商商品信息编写实战381<br/>1..1 获取电商商品信息列表381<br/>1..2 电商商品信息列表解析383<br/>1.. 保存爬取的商品信息385<br/>1..4 电商商品信息的页码遍历386<br/>12.4 pyquery解析电商商品信息388<br/>12.4.1 pyquery调用CSS选择器389<br/>12.4.2 pyquery使用parent()获取父节点391<br/>12.4.3 pyquery遍历商品信息393<br/>12.4.4 pyquery获取商品信息内部文本395<br/>12.4.5 CSS选择器398<br/>12.5 运行代码399<br/>12.5.1 爬虫的Chrome Headless模式400<br/>12.5.2 爬虫对接Firefox400<br/>12.5.3 爬虫对接PhantomJS400<br/>12.6 本章小结401<br/>练习题401<br/>3章 生活娱乐点评类信息爬虫项目402<br/>13.1 功能分析402<br/>13.1.1 项目描述402<br/>13.1.2 静态网页抓取402<br/>13.1.3 动态网页抓取404<br/>13.2 请求-响应关系410<br/>13.2.1 请求对象410<br/>13.2.2 请求方法410<br/>13.3 请求头和请求体411<br/>13.3.1 请求头412<br/>13.3.2 响应412<br/>13.3.3 保存响应结果412<br/>13.4 通过Selenium模拟浏览器抓取413<br/>13.4.1 Selenium的安装413<br/>13.4.2 Selenium的实践案例414<br/>13.4.3 Selenium获取文章的所有评论414<br/>13.5 实战演练Scrapy框架实例415<br/>13.5.1 编写spider416<br/>13.5.2 编写item.py417<br/>13.5.3 为items对象赋值417<br/>13.5.4 编写piplines.py418<br/>13.5.5 配置setting.py418<br/>13.5.6 完整代码及结果419<br/>13.6 调试与运行421<br/>13.7 本章小结422<br/>练习题422<br/>4章 图片信息类爬虫项目4<br/>14.1 功能分析4<br/>14.2 实现思路4<br/>14.2.1 urllib模块的使用424<br/>14.2.2 Scrapy框架的使用426<br/>14.3 程序执行429<br/>14.4 实战演练图片验码429<br/>14.4.1 开发环境与工具429<br/>14.4.2 Anaconda3的安装430<br/>14.4.3 问题步骤434<br/>14.4.4 解决步骤434<br/>14.4.5 图片预处理代码435<br/>14.4.6 图片切割437<br/>14.4.7 KNN训练437<br/>14.4.8 CNN加载数据439<br/>14.4.9 训练CNN模型440<br/>14.4.10 CNN模型预测442<br/>14.5 调试运行443<br/>14.6 本章小结444<br/>练习题444<br/>练习题445

    赵国生,哈尔滨师范大学教授,工学博士,硕士生导师,黑龙江省网络安全技术领域特殊人才。

    售后保障

    最近浏览

    猜你喜欢

    该商品在当前城市正在进行 促销

    注:参加抢购将不再享受其他优惠活动

    x
    您已成功将商品加入收藏夹

    查看我的收藏夹

    确定

    非常抱歉,您前期未参加预订活动,
    无法支付尾款哦!

    关闭

    抱歉,您暂无任性付资格

    此时为正式期SUPER会员专享抢购期,普通会员暂不可抢购