一、爬虫基本原理
1、什么是爬虫
请求网站并提取数据的自动化程序。
2、爬虫基本流程
(1)发起请求:
通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。
(2)获取响应内容:
如果服务器能正常响应,会得到一个Response,Response的内容是所获取的页面内容,类型可能有HTML、Json字符串、二进制数据(如图片视频)等类型。
(3)解析内容:
得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转换为Json对象解析。可能是二进制数据,可以做保存或者进一步的处理。
(4)保存数据:
保存形式多样,可以保存为文本,可以保存至数据库,或者保存特定格式的文件。
3、Request与Response
(1)浏览器就发送消息给该网址所在的服务器,这个过程叫做HTTP Request。
(2)服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做响应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。
(3)浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。
4、Request
(1)请求方式:
主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
(2)请求URL:
URL全称统一资源定位符,如一个网页文档、一张图片、一个视频都可以用URL唯一来确定。
(3)请求头:
包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
(4)请求体:
请求时额外携带的数据,如表单提交时的表单数据(eg:fromdata)。
5、Response
(1)响应状态:
有多重响应状态,如200代表成功、301是跳转、404为找不到网页、502服务器错误
(2)响应头:
如内容类型、内容长度、服务器信息、设置Cookie等等;
(3)响应体:
最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等;
6、能抓怎样的数据
(1)网页文本:
如HTML文档,JSON格式文本等。
(2)图片:
获取二进制文本文件,保存为图片格式。
(3)视频:
同样为二进制文件,保存为音频格式即可,抓取方法如图片抓取方法。
(4)其他:
只要是能请求到的,都能获取。
7、解析方式
(1)直接处理
(2)Json解析
(3)正则表达式
(4)BeautifulSoup
(5)PyQuery
(6)XPath
8、为啥抓到的和浏览器看到的不一样
由于JavaScript渲染的问题,在network看到的代码(我们通过Python)与element中看到(JavaScript渲染的)不一样。
9、怎么解决JavaScript渲染的问题
(1)分析Ajax请求:
返回Json格式数据。
(2)Selenium/WebDriver:
来模拟一个浏览器。
(3)Splash:
https://github.com/scrapinghub/splash
(4)PyV8、Ghost.py:
10、怎样保存数据
(1)文本:
纯文本、Json、Xml等。
(2)关系型数据库:
如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。
(3)非关系型数据库:
MongoDB、Redis等Key-Value形式存储。
(4)二进制文件:
如图片、视频、音频等等直接保存成特定格式即可。
持续更新…
最后更新: 2018年08月14日 15:42